热搜:

对于大多数婴儿来说,到了七个月大的时候,他们已经可以意识到:有些东西即使是在看不见的情况下仍然存在。例如把玩具放在毯子下面,那么大的孩子依然知道它还在那里,而且可以把手伸进毯子下面拿出来。这种对“客体永恒性”的理解是一个孩子正常发育的过程,也是现实存在的基本原则之一。

然而,这种能力却是当前自动驾驶汽车所不具备的,而且对这项技术来说也是个很艰巨的挑战。自动驾驶汽车正在变得越来越好,但它们仍然不能像人类那样理解世界。对于自动驾驶汽车来说,被路过的面包车暂时遮挡起来的自行车就是一辆已经不复存在的自行车。

这一失败是如今广泛被使用的计算学科面临的挑战之一,该学科自诩为人工智能(AI),但实际上这是个略带误导性的名称。目前的AI是通过建立复杂的世界统计模型来工作的,但它缺乏对现实的更深层次理解。如何让AI至少从表面上具备类似的理解能力,即相当于7个月大孩子的推理能力,现在正在被极研究中。

现代AI是基于机器学习的理念。如果工程师想让计算机识别停车标志,他不会试图编写数千行代码来描述可能指示这种标志的每一种像素模式。取而代之的是,他会编写可以自我学习的程序,然后向该程序展示千张停车标志的图片。经过多次重复训练,该程序就能够逐渐找出所有这些图片的共同特征。

类似的技术也被用来训练自动驾驶汽车在交通中运行。因此,汽车学会了如何遵守车道标志,如何避开其他车辆,如何在红灯时刹车等等。但它们并不理解人类司机认为理所当然的许多事情,尽管路上的汽车都有发动机和四个轮子,或者大多数时候都能遵守交通规则和物理定律,但它们不理解何为“客体永恒性”。

瑞典奥雷布罗大学(Orebro University)的梅胡尔·巴特(Mehul Bhatt)也是初创公司联合设计实验室(CoDesign Lab)的创始人,该公司正在将他的想法商业化。在最近于《人工智能》杂志上发布的论文中,巴特和他的同事们介绍了一种不同的方法。他们采用了某些自动驾驶汽车使用的现有AI程序,并将被叫做符号推理引擎的软件嵌入其中。

这款软件不是像机器学习那样以概率的方式接近现实世界,而是被编程为将基本的物理概念应用于处理来自自动驾驶汽车传感器信号的程序输出中。然后,修改后的输出被提供给驱动车辆的软件。涉及的概念包括这样的观点,即离散的物体随着时间的推移继续存在,它们彼此之间有空间联系,例如“前面”和“后面”。它们可以完全或部分可见,或者完全被另一个物体隐藏。

这种方法已经见效。在测试中,如果一辆车暂时挡住了另一辆车的视线,这款推理增强软件可以继续跟踪被阻挡的车辆,预测它将在何时何地再次出现,并在必要时采取措施避开它。不过,进展还不太大。在标准测试中,巴特博士的系统得分比现有软件高出约5%。但它证明了这一原则的有效性。此外,它还产生了些其他的东西。因为,与机器学习算法不同,推理引擎还可以告诉你它这么做的原因。

例如,你可以问一辆装有推理引擎的汽车为什么会踩刹车。它会告诉你,它认为一辆被面包车遮挡住的自行车即将进入前面的十字路口。机器学习程序不能做到这一点。巴特博士认为,这些信息除了有助于改进项目设计外,还将帮助监管机构和保险公司。因此,它可能会加快公众对自动驾驶汽车的接受程度。

巴特博士的工作是AI领域长期争论的一部分。早在20世纪50年代,当时的AI研究人员就使用这种预先编程的推理,并取得了部分成功。但从20世纪90年代开始,由于更好的编程技术与更强大的计算机和更多数据的可获得性相结合,机器学习了戏剧性的改进。今天,几乎所有的AI都是建立在这个基础之上的。

尽管如此,巴特博士并不是唯一持怀疑态度的人。加里·马库斯(Gary Marcus)在纽约大学进修心理学和神经科学,也是一家名为Robust.ai的AI和机器人公司的老板,他对此表示赞同。为了支持他的观点,马库斯博士引用了一个广为人知的结果,尽管这发生在8年前。当时,还处于独立状态下的DeepMind的工程师们编写了一个程序,可以在不给出任何关于规则的提示的情况下,学习如何玩电子游戏《Breakout》,它涉及用虚拟球拍击打移动的虚拟球。

DeepMind的程序是个很棒的玩家。但是,当另一组研究人员对《Breakout》的代码进行修修补补,比如仅将球拍的位置移动几个像素,它的能力就直线下降。该程序不能将它从特定情况下学到的东西概括出来,甚至无法再应对细微差别的情况。

对于马库斯博士来说,这个例子突显了机器学习的脆弱性。但也有人认为,这是一种十分脆弱的符号推理,机器学习还有很长的路要走。杰夫·霍克(Jeff Hawke)就是其中之一,他是伦敦自动驾驶汽车公司Wayve的技术副总裁,该公司的方法是同时培训运行汽车各个组件的软件元素,而不是单独培训。在演示中,Wayve的汽车在伦敦狭窄、交通繁忙的街道上导航时做出了正确的决定,而这是一项让许多人类司机都头疼的任务。

正如霍克博士所说:“大多数现实世界任务的复杂性比手工制定的规则所能解决的要大。众所周知,用规则构建的专门系统往往难以应对复杂问题。无论形式逻辑考虑得有多好,或结构有多好,都是如此。”

例如,这样的系统可能会制定规则,规定汽车应该在红灯前停车。但不同国家的交通灯设计不同,有些灯是为行人而非汽车设计的。还有些情况,你可能需要闯红灯,比如给消防车让路。但霍克博士说:“机器学习的之处在于,所有这些因素和概念都可以从数据中自动发现和学习。而且有了更多的数据,它就会不断学习,变得更智能。”

在加州大学伯克利分校研究机器人和人工智能的尼古拉斯·莱因哈特(Nicholas Rhinehart)也支持机器学习。他说,巴特博士的方法确实表明你可以将这两种方法结合起来,但他不确定这是否有必要。在他和其他人的工作中,仅机器学习系统就已经可以预测未来几秒钟的可能性,比如另一辆车是否可能会让路,并根据这些预测制定应急计划。

巴特博士认为,你可以用积累了数百万公里的行驶数据训练一辆车,但仍然不能确定你已经涵盖了所有必要的情况。在许多情况下,从一开始就对某些规则进行编程可能会更简单、更有效。

对于这两种战略的拥护者来说,问题不仅仅是自动驾驶汽车,而是AI本身的未来。马库斯博士说:“我不认为我们现在采取的是正确的方法。机器学习已经被证明对语音识别等很多事情很有用,但它实际上并不适用于AI,我们还没有真决智能问题。不管怎样,七个月大的婴儿似乎还有很多东西可以教授机器。”

本文来自“”,审校:金鹿,36氪经授权发布。

36氪APP让一部分人先看到未来