在人工智能还未普及之前,计算机科学家亨利·利伯曼(Henry Lieberman)曾邀请我参观他的团队在麻省理工学院(MIT)的工作。亨利痴迷于人工智能缺乏常识的观点。因此,他和他的同事凯瑟琳·哈瓦西(Catherine Havasi)和罗宾·施佩尔(Robyn Speer)一起,一直在一个网站上收集常识声明。

常识性陈述是对人类来说显而易见的事实对于机器来说很难把握.比如“水是湿的”或“爱是一种感觉”。它们也是人工智能的痛处,因为学者们仍在研究机器为什么难以进行常识推理。那天,亨利迫不及待地给我看了一张图表,上面写着爱,水的感觉,基于常识语料库中的数据进行组织。他向我展示了一个使用主成分分析技术的图表,主成分分析是一种确定坐标轴的方法,可以最好地解释任何类型的数字数据的变化。

“应用于常识,”他说,“就像试图用数学来回答一个古老的哲学问题:人类知识到底是关于什么的?”

我问他坐标轴是什么,他让我猜。

“我不知道,”我说。“大还是小?活的还是死的呢?”

“不,”他回答说。“好与坏”。

事后看来,这个事实似乎是显而易见的。我们每天都把道德判断作为认知和交流的捷径。我们谈论“好”和“坏”的天气。我们寻找“更好的”工作或电脑。我们喜欢“好”的音乐,避免“坏”的酒。但是,当我们理性地理解袜子上有个洞并不是不道德的时候,我们常常忍不住滥用道德推理这条甜蜜的捷径。亨利的图表证明了普遍的道德说教在我们的语言中是普遍的,这种普遍的道德说教隐含在常识推理中。

如今,很多这样的说教不是针对一双错误的袜子,而是针对人工智能和那些创造它的人。这种愤怒通常是正当的。人工智能也参与其中错误逮捕有偏见的累犯还有多起涉及错误分类照片的丑闻性别定型翻译.在很大程度上,人工智能社区听取了他们的意见。今天,人工智能研究人员很清楚这些问题,并正在积极努力解决它们。

但随着尘埃落定,值得一问的不仅是人工智能是“好”还是“坏”,还有这些判断事件告诉我们的道德直觉。毕竟,人工智能伦理是关于我们人类的,因为我们是做评判的人。

在过去的几年里,我和我的团队一起跑步许多实验成千上万的美国人对人类和机器的行为做出了反应。这些实验包括的场景可以是人或机器的动作,比如挖掘机不小心挖出了一个坟墓,或者海啸警报系统未能向沿海城镇发出警报。这些比较让我们超越了人类判断人工智能的方式,转而关注我们对机器的判断与我们对人类的判断的比较。

这种差异似乎很微妙,但它迫使我们在更现实的参考框架下判断机器。我们倾向于将人工智能与完美进行比较,而不是将其与我们对人类执行相同的动作和结果的反应进行比较。

那么,这些实验教会了我们什么呢?

即使是最初的数据点也表明,人类对人类和机器的反应并不平等。例如,在意外情况下,人们对机器的宽容程度低于对人类的宽容程度,尤其是当机器造成身体伤害时。

但由于我们有成千上万的数据点,我们可以超越轶事观察。所以,我们决定建立一个统计模型来解释人们是如何判断人和机器的。该模型预测了人们在道德错误方面如何给一个场景打分,并将其作为基于伤害和感知意图的打分函数。

模型显示了人们对人类的判断不如机器那么严厉。
资料来源:César A. Hidalgo

令我们惊讶的是,该模型显示,人们对人类的评判并不比机器更严厉,而且我们用一种不同的道德哲学来评判人类。旁边的数字总结了这一发现。蓝色的飞机显示了人们是如何评判他人的。红色的飞机显示了人类如何判断一般的机器。

你可以清楚地看到,这两个平面并不是平行的,在红色和蓝色的平面之间有一个旋转。这是因为,在判断机器时,人们似乎更关心场景的结果。在这种情况下,是感知到的伤害程度。这就是为什么红色飞机几乎只沿着伤害维度增长。但是当人们评判别人的时候——蓝色的平面——我们发现了一个曲率。这一次,增长是沿着对角线的,代表了伤害和感知意图之间的相互作用(技术上,是两者的乘积)。这就解释了为什么机器在偶然情况下会受到更严厉的评判;人们用结果主义的方法来判断机器,其中意图是无关紧要的,但对人类不是。

这个简单的模型让我们得出了一个有趣的结论,这是一个经验主义原则,支配着人们对机器与人类不同的判断方式。一个最简单的原则是:“人们通过意图来判断人,通过结果来判断机器。”

但是这些实验告诉了我们关于道德直觉的什么呢?

首先,它们告诉我们,我们的道德直觉远不是一成不变的。我们可能会告诉自己,我们是有原则的人,但事实是,我们的反应是不同的,取决于我们在评判谁或什么。这种道德上的转变超越了我们判断人类和机器的方式。

例如,人们对政治动机行为的道德判断,取决于被指控犯有不当行为的代理人是否在政治上与他们的观点一致。

在一个最近的研究在美国,当看到一名学生在抗议活动中扔玻璃瓶时,人们的反应是不同的,取决于该学生是“反法运动”成员还是“爱国者运动”成员。正如你可能预料到的那样,当学生的政治身份与他们相反时,受访者对他的反应更强烈。然而,同样的研究还表明,当涉及非政治场景的违规行为,如室内吸烟或酒后驾驶时,这种影响就没有观察到。因此,我们出于政治动机的判断不会不加区别地推动我们改变立场,而是只在特定情况下才会改变立场。

第二个教训是,我们的道德转变可以超越简单的偏爱一个群体而不是另一个群体。如果人们只是更喜欢人类而不是机器,红色和蓝色的平面应该是平行的。但事实并非如此。这意味着人们并不简单地更喜欢人而不是机器。我们对人类和机器的判断是不同的。与我们判断机器的结果主义道德相比,我们对人类同胞采用了更康德主义或道义主义的道德(关于手段而不是目标)。

但最重要的一课可能是,我们可以通过使用设计用来教机器的技术来学习一些关于人类道德的东西。在我们的例子中,我们通过建立一个简单的模型来连接道德判断的不同方面。在亨利、凯瑟琳和罗宾的案例中,我们通过使用一种流行的“降维技术”了解了常识的道德性。

在亨利告诉我第一个维度是“好与坏”之后,他让我猜第二个轴。“容易和困难,”他说。基本上,所有的常识都是关于什么是好或坏,什么是容易或难做的。剩下的只是噪音。”