说到无人驾驶汽车,就不得不提电车难题(Trolley Problem)这个伦理学领域最为知名的思想实验,其大致内容为:一个疯子把五个无辜的人绑在电车轨道上,一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

在自动驾驶时代即将来临时,这个伦理学实验有了新的意义。如果遇到类似的难题,无人驾驶汽车是选择保护乘客,义无反顾撞向五名路人呢?还是保护路人牺牲乘客?

显然,这个决定不应该由无人驾驶汽车来做。如果从理论上来讲,开发算法的软件工程师在这里将扮演上帝。

假设我们将决定权完全交给机器,那么这就成了一部反乌托邦小说,而对机器的恐惧是 75% 美国司机惧怕无人驾驶汽车的主要原因。

为了解决这一伦理困境,美国国家公路交通安全管理局(NHTSA)甚至建议为开发自动驾驶技术的公司专门推出“伦理测试”系统。

不过好消息是,NHTSA 的想法可能多此一举,在《西北大学法律评论》上的一篇论文中,斯坦福研究人员 Bryan Casey 认为电车难题根本无关紧要。

他表示这个问题已经得到了完美解决,不过解决它的不是伦理专家也不是工程师,而是律师。“相比对与错的深奥问题,可预测的法律责任问题才是自动驾驶厂商最为关心的。”Casey 写道。这也就意味着,律师和法律制定者将终结这一难题。

解决电车难题

“电车难题其实早已解决,这里用到的方法是将法律责任与消费者心理相结合。”Casey 说道。“追求利润最大化的企业会从各种选项中挑出最优的那一个”,换句话说,工程师们可不把伦理学家的话当金科玉律,他们更看重技术的限制、侵权行为法和消费者对风险的承受力。

Casey 举了特斯拉的例子:搭载了 AutoPilot 功能的特斯拉电动车能在高速上实现自动驾驶,特斯拉工程师可以为了安全限制车辆 Autopilot 模式下的速度,也可以直接提速,更快的将用户送往目的地。不过,特斯拉的工程师并没有执行这两个选项,他们选择遵守高速路上的限速,将特斯拉的责任风险降到最低。

“工程师们会召集全世界最伟大的哲学家们共聚一堂得出什么经典论述吗?显然不会。”Casey 说道。“他们才不会为道德或道德的外部因素而烦恼。相反,工程师们更看重法律,看重高速上的限速,毕竟遵纪守法没什么坏处。”

也就是说,如果政策制定者和保险公司决定将交通事故的责任全部推给无人驾驶汽车,那么制造商肯定会确保每一个细节不会出错,以最大限度的降低风险。

同时,公众在这个问题上也有重要发言权。“真正的机器道德设计师不是科技巨头的工程团队,而是普通市民。”Casey 写道。

法律制定者和监管部门会呼应公众的要求,即使他们选择视而不见,汽车厂商也会选择顺应民意。

据了解,今年 1 月,特斯拉升级了 AutoPilot——允许车辆在 AutoPilot 模式下超过道路限速 5 英里/小时。值得注意的是,给出这样的功能升级完全是特斯拉对用户需求的反馈。

无人驾驶汽车的伦理

不过,电车难题之类的问题还是会让公众重新看待无人驾驶汽车。“当你试着理解什么才是人们珍视的,就很容易消除其中的细微差别。”交通研究专家 Noah Goodall 说道。电车难题这个思想实验可以提供一个广泛的概述,让我们认识到人们有什么问题需要解决,他们对无人驾驶汽车设定了什么指导方针。

不过,像电车难题这样的边缘案件可能也会让公众陷入迷惑。Goodall 表示:“电车难题很不现实。”

自动驾驶软件新创公司 nuTonomy CEO Karl Iagnemma 表示:“有时候,车辆无法对周围的环境做出精确测定。一般来说,无人驾驶汽车处理的信息都相当粗糙。基于这样的数据,恐怕无人驾驶汽车根本无法做出救乘客还是救行人的判断。”

要想让大众真正信任无人驾驶汽车,就得“让他们提前了解这些车辆会做什么。”Goodall 说。“自动驾驶可以让人们免于车祸,拯救大量生命,但厂商需要证明它确实在这些车辆上花了心思。”

眼下,每年都会有 3.5 万人在美国的公路上殒命,全世界因交通事故死亡的人每年更是高达 125 万。担心类似电车难题的伦理困境并不会拯救生命,反而会伤了自动驾驶技术的锐气。

因此,除了招聘更多的天才工程师,这些公司还应该多将聪明的律师纳入麾下,毕竟未来他们在自动驾驶行业也将掌握不小的话语权。