原文:
www.kdnuggets.com/2017/07/ai-deep-learning-explained-simply.html/3
学习了一百万个例子后,机器学习模型在百分比上可以比人类犯更少的错误,但错误的类型可能与人类不同,例如将牙刷误分类为棒球棍。这种与人类的差异可以被用于恶意的人工智能黑客攻击,例如在街道标志上涂上微小的“对抗性”变化,人眼难以察觉,但会对自动驾驶汽车造成极大的混淆。
(AI 训练师 = 小狗训练师,而不是工程师。照片来源:皇家空军,米尔登霍尔)
人工智能将会淘汰旧的工作,但会创造新的机器学习训练师职位,类似于小狗训练师,而不是工程师。机器学习模型比小狗更难训练,因为(与小狗不同)它缺乏通用智能,因此它会学习数据中发现的一切,而没有任何选择或常识。小狗在学坏事物时会三思,例如伤害朋友。而机器学习模型则不会在为恐怖分子或医院服务时有任何区别,也不会解释为何做出这些决定。机器学习模型不会因为错误而道歉,也不会因错误而担心被关闭:它不是有意识的通用人工智能。为了安全和质量标准,每个机器学习模型将被许多人包围,他们在:机器学习训练、机器学习测试方面都有专长,还包括尝试解释机器学习模型的决策和伦理。所有这些都在同一个职位下完成。
实际的机器学习训练。如果你用手拿着物体的照片来训练,机器学习模型会将手也视为物体的一部分,无法单独识别物体。狗知道怎么从手中吃东西,而笨拙的机器学习模型也会“吃掉”你的手。解决办法是先仅用手的照片进行训练,然后仅用物体的照片,最后用手持物体的照片进行训练,标记为“物体 x 被手拿着”。物体的变化也是如此:例如没有轮子的汽车或因事故变形的汽车,破碎的房子等等。任何人都知道那是一辆撞墙的车,一栋被炸毁的房子等等。机器学习模型看到未知的新物体,除非你逐个教,逐个案例进行。包括天气!如果你只用晴天的照片进行训练,那么测试将会在其他晴天的照片上有效,但在阴天拍摄的相同物体的照片上则无效。机器学习模型学会了基于晴天或阴天的天气来分类,而不仅仅是物体。狗知道无论物体在晴天还是阴天的光线下,都要判断出是什么物体。而机器学习模型则会挑选所有微妙的线索:你需要明确地教会它所有 100%。
版权和知识产权法律需要更新:机器学习(ML),像人类一样,能够发明新事物。一个机器学习系统被展示了现有的事物 A 和 B,并产生了 C,一个新的、原创的事物。如果 C 与 A 和 B 以及地球上其他任何事物有足够的不同,C 可以作为发明或艺术作品申请专利。谁是作者?进一步说,如果 A 和 B 是已经申请了专利或版权的材料呢?当 C 与 A 和 B 的关系非常不同的时候,A 和 B 的作者可能无法猜到 C 是由于他们的 A 和 B 而存在的。假设训练机器学习系统使用最近的版权画作、音乐、建筑、设计、化学公式,甚至是盗取的用户数据等是不合法的。那么,如何从机器学习的结果中猜测使用的数据源,尤其是当这些结果比毕加索风格的转化更不易识别时?你如何知道是否使用了机器学习?许多人会秘密使用机器学习,并声称结果是他们自己的。
对于小公司来说,大多数任务训练人类比训练机器学习系统更便宜。教一个人开车很简单,但教一个机器学习系统做同样的事情则极其复杂。需要通过数百万个手工制作的道路情境示例来训练机器学习系统。之后,机器学习系统可能比任何人类司机都更安全,尤其是那些酒醉、困倦、盯着手机屏幕、忽视速度限制或情绪激动的司机。但是如此昂贵且可靠的训练仅对大公司而言是可行的。用便宜方式训练的机器学习系统会有缺陷且危险,只有少数公司能够提供可靠的机器学习系统。一个训练好的机器学习系统可以被迅速复制,这与大脑的经验转移到另一个大脑是不同的。大公司会出售预训练的机器学习系统用于可重复的常见任务,例如“放射科医生机器学习系统”。该机器学习系统将补充一个人类专家,这个人类专家仍然是必需的,仅替代“额外”的工作人员。医院将雇用一名放射科医生来监督机器学习系统,而不是数十名放射科医生。放射科医生的工作并没有消失,只是每家医院的数量会减少。训练机器学习系统的人将通过向许多医院销售来回收投资。机器学习系统的训练成本每年都会下降,因为越来越多的人会学习如何训练机器学习系统。但是,由于数据准备和测试,可靠的机器学习训练永远不会便宜。理论上许多任务可以自动化,但在实践中,只有少数任务值得机器学习的设置成本。对于像飞碟研究者、古代(已灭绝)语言翻译员等过于少见的任务,长期的人力成本将会比训练机器学习系统的一次性成本更便宜。
人类将继续从事一般的 AI 任务,超出机器学习的范围。智商(IQ)测试是错误的:它们无法预测人们的生活成功,因为有许多不同的智力(视觉、语言、逻辑、人际等):这些智力以某种混合方式合作,但结果无法用从 0 到n的单一 IQ 数字来量化。我们将昆虫定义为“愚蠢”,与人类 IQ 相比,但蚊子在狭窄的“叮咬和逃跑”任务上总是赢过我们。每个月,AI 在越来越多的狭窄任务上打败人类,就像蚊子一样。期待“奇点”时刻,当 AI 在所有任务上超越我们,是很愚蠢的。我们正在经历许多狭窄的奇点,一旦 AI 在某项任务上胜过我们,除了监督 AI 的人外,其他人都可以停止该任务。我听说人类可以继续做有独特手工缺陷的工作,但实际上,AI 也可以制造假错误,学习为每件作品制作不同的缺陷。很难预测下一步 AI 会赢得什么任务,因为 AI 具有一定的创造力,但它将缺乏“通用智能”。例如,喜剧演员和政治家(可以互换)是安全的,尽管不需要特殊的(狭窄的)研究或学位:他们可以以有趣或令人信服的方式谈论任何事情。如果你专注于一个困难但狭窄且常见的任务(例如放射科医师),机器学习将被训练来替代你。保持通用!
感谢阅读。如果你觉得不错,请点击下面的喜欢和分享按钮。
如有问题或咨询,请在 LinkedIn 上给我留言,或发送电子邮件至 [email protected]
原文。经允许转载。
简介: Fabio Ciucci 是意大利卢卡的 Anfy srl 的创始人兼首席执行官。自 1996 年以来,他创建了自己的公司,并为其他人(企业家、家族办公室、风险投资家)提供关于私募股权高科技投资、创新和人工智能的咨询。
相关:
-
人工直觉 – 突破性的认知范式
-
什么是人工智能、机器学习和深度学习?
-
大多数机器学习专家都转向深度学习了吗?
1. Google 网络安全证书 - 快速入门网络安全职业生涯。
2. Google 数据分析专业证书 - 提升您的数据分析能力
3. Google IT 支持专业证书 - 支持您的组织在 IT 领域