去年,特斯拉自动驾驶汽车车祸事故致死案闹得沸沸扬扬,事故原因是肇事汽车在自动驾驶模式下没能识别出一辆偏离路线的大货车,那么谁该为此事负上最终的责任呢?机器伦理问题再次引发了公众的广泛关注。

时至今日,“人工智能”已经广泛地运用到了我们的生活中:从自动驾驶汽车,到畜牧业的机械化作业,再到医疗领域的机器人应用。在个别国家,例如比利时,机器人甚至已经替代人类,肩负起了照顾老年人和痴呆症患者的工作。但是,针对机器人的“身份”,在法律上也目前尚未有准确的定义,在伦理道德层面更是没有约束。

机器伦理为人工智能安全治理提供了另一种解决方案。为了减少人机交互的风险,一旦机器人以高度自主的能力融入我们的日常生活,他们就必须遵守人的伦理和法律规范。在技术挑战方面,机器伦理还存在许多悬而未决的问题。例如,什么是道义逻辑,怎样用它来提高人工智能的安全性?我们如何塑造伦理机器人的知识表达?伦理治理的适应性如何?这些都是需要我们弄清楚的重要问题。

在这个采访中,我们邀请Ronald C. Arkin教授分享他关于机器人伦理的观点,重点关注技术方面。

受访者: Ronald C. Arkin教授, 佐治亚理工学院计算机学院副院长、摄政董事教授,IEEE全球人工智能和自治系统道德规划组执行委员会成员。

20170222 05 robot02

记者: 感谢你接受我们的采访。你能先谈谈你的背景吗?

__ARKIN:__作为机器人专家,我已经工作了35年。目前,我是乔治亚理工学院计算机学院的副院长和摄政董事教授。1987年,我在马萨诸塞大学获得了博士学位,从那时候开始,我一直致力于机器人技术的研究。其实,我还拥有化学方面的学位,有机化学的学士学位和硕士学位。因此,跟大多数计算机科学家相比,我的背景比较复杂,走的是非传统路线。

记者: 你对“伦理机器人”的定义是怎样的?

__ARKIN:__这是一个非常有趣的问题!之前我也曾被问到过类似的问题。我认为伦理机器人是一种机器人系统,能够遵守人类的伦理和社会规范,在某些情况下遵循国际法,在其他情况下遵循国家或当地的法律。此外,还能以自然地方式跟人相处,服从并遵守跟人相同的道德规则。

记者: 你能告诉我们为什么你对“嵌入式伦理”特别感兴趣吗? 为什么这个概念如此重要?

__ARKIN:__想要知道这个问题,你就得阅读我的书“管理自主机器人的致命行为”的前言。这是一个很长的故事,让我尝试给你讲一个简短的版本。它可以追溯到2004年举行的首次机械伦理学国际研讨会,在那里,我接触到了国际公约,例如,日内瓦公约。在关于他们如何看待适当的伦理互动上,我也能理解梵蒂冈的立场。我们的机器人专家已经开始在这个领域取得成功,更重要的是,我们看到这些技术将走出实验室,走进真实世界。因此,不难看出,这些如何走向不同的方向。

一些机器人技术可以使人类收益,有些则不然。在这一点上,有人会问,“谁负这个责任?”所以我认为,在一定程度上,是我自己。我认为我必须承担我创造出来的技术带来的责任。问题是,作为机器人专家,我们创造的技术在许多方面取得了成功,我们只是在第一次开始时才会想到这将对我们的社会和整个世界产生深远的影响。因此,我们应该积极主动地前进,以便更好地了解工作的后果以及我们设计的技术带来的社会影响。

20170222 05 robot03

记者: 2016年12月,IEEE全球人工智能和自治系统道德规划委员会发表了他们的报告“道德准则设计”。作为其中的成员,请你谈谈你在其中的角色?

__ARKIN:__我扮演多重角色。首先,作为执行委员会成员,我跟30多位高层次的专家一起工作。我们有很大的委员会。我也是情感计算委员会的联合主席,Joanna Bryson是另一位联合主席。

情感计算关注的问题是,我们创造这些产品是可能产生的情绪幻觉,已经人类与他们的交互方式。我们正在探索各种不同的东西,包括机器人的亲密关系,应用机器人微移的概念,巧妙地推动人类往某个方向发展,从而改变人类使用这种技术的行为和表现方式,试图从伦理方面考虑,了解什么事恰当或不恰当的指引。

在该委员会中,大约有15-20人。我们是新近成立的委员会,最初的设计报告只有几页纸。但实际上,在6月的奥斯汀会议即将发布的“道德准则设计”2.0版本,我们将做得跟其他委员会的一样。最后,我也是人道主义委员会的成员。我认为,它应该被称为经济和人道主义。我不清楚确切的名单,但我感兴趣的是人道主义方面,以及机器人在人道主义应用中的潜在用途。

记者: 什么是“道义逻辑”?为什么它对机器伦理很重要?

__ARKIN:__它可能重要,也可能不重要。这只是解决特定问题的方法之一。道义逻辑是一种禁止,义务和权限的逻辑。它是一种更透明的框架类型,以便更好地理解系统在现实世界中的运行方式。然后,它说明了它对人类的推理,与深度学习或其他形式的神经网络相比,这可能确实提供了良好的结果,但是在做出决定后,对人类无法提供解释。

禁止的概念是告诉机器人一些它不能做的事情。权限的概念是描述一些它可能被允许做的事。义务的概念说明了在某些特定情况下机器人必须做的事情。它为探索道德提供了一个良好的框架。其他人已经探讨了这一点,像RPI的Bringsjord在这个框架中应用了道义逻辑。我们当然不是第一个吃螃蟹的人。我们所做的大部分工作都是以一阶谓词逻辑为基础。它不必深,因为它在许多情况下是显而易见的。

记者: 您的混合嵌入式伦理框架旨在治理军事机器人的致命行为。我们可以把相同的技术框架应用于服务机器人吗?例如,个人护理机器人可能具有一些非致命性,但仍然具有风险的自主行为,需要由机器伦理调节。

__ARKIN:__我想是这样的。实际上,架构的要点是试图设计系统让它们具有普遍性,而不是在特定的情况下使用。我们还没有看到传统意义上的服务机器人,但是我们已经开发了一些我们称为干预伦理管理,用于卫生保健应用,特别是在特定关系中帮助管理两个人,例如病人和他们的照顾者。

20170222 05 robot04

我们正在为国家科学基金会工作,与塔夫茨大学联合,看看如何在早期帕金森在应用,其中有一种情况称为面具脸。患者面部肌肉运动能力的丧失可能会遭到歧视,同时,由于缺乏非语言交流,患者和照顾者的关系可能恶化。ICRA刚刚接受了我们的一份文件,该文件主要描述我们如何对军事版本的架构进行修改。我们将其从基于军事约束的版本推广到基于规则的版本。

但是,不是使用国际人道主义法,我们使用职业治疗指南作为基础,在关系中的两个人超出可接受界限时产生反应。因此,现在国际人道主义法没有界定可接受的范围,而是通过职业治疗来界定,例如当病人或护理人员开始发生冲突时,需要有人暂时离开房间。最难的是分辨尊严合适被剥夺,尤其是在病人的角度。我们试图确保护理人员的同情心保持在可接受的范围内,并且患者的耻辱和尴尬不会上升到不可接受的程度。因此,当一个真正不适当的事件发生时,干预伦理管理进行干预。然后,机器人提供强大的纠正措施,鼓励人们更好地相处。我们在道德架构中使用道德调整组件(最初带有内疚模型),现在已扩展到其他道德情绪,例如羞耻、尴尬、内疚和同情,试图提供更微妙的非语言队列帮助机器人在失控之前以正确的方式调整关系。

记者: 关于你对机器伦理的研究,你使用什么样的指标来评估你的项目的最终产出?

__ARKIN:__首先,我们正在设计一个原型来证明架构的概念。我们从来没有说这是最好的方法。这只是其中一种方法。然后我们通过使用模拟和其他证明我们的特定能力。该系统并非旨在实现,但希望别人可以把这些核心理念用在真实世界里。对于干预管理,我们正在进行人类测试,不仅是帕金斯病人,还有老年人,50岁及以上。我们正试图更好地理解正确的规则,并以规范的方式纠正干预,所以我们最终获准可以在最后一年与真实的帕金森患者一起工作。再次,使用标准的HRI技术,例如记录他们的反应种类并解析来自会话的数据,以及使用评估前和评估后的问卷。

记者: 让我们谈谈你提出的机器伦理框架。你刚才提到它包含四个主要部分:(1)伦理管理;(2)伦理行为控制;(3)伦理调整;(4)责任顾问。首先,伦理管理和道德行为控制之间的主要区别是什么?是协商与反应控制之间的差别吗,还是别的什么?

__ARKIN:__伦理管理是架构中的一个独立组件,是现有系统末端的螺栓组件。在军事中:请求准许——开火或不开火。这是一个干预阶段,通过验证permission-to-fire变量来授予或拒绝许可。所以,这是直截了当能够做到的事情。行为伦理控制是另一种完全不同的事情,它需要跟反应组件一起工作。它想要做的是,针对每个个体行为本身,以响应是否参与。这是在伦理管理做出决定之前要做的事;试图在得到伦理管理之前做出正确的决定,其中个人行为被给予道德准则,以尝试并确保行为本身是正确的。所以,他们之间的区别是:一个位于每个个体行为的反应组件中,使得架构活跃,而伦理管理处于架构链的末端。

记者: 什么是伦理调节器的重要性?你选择什么样的机器学习技能来提高其适应性?

__ARKIN:__我们还没有在这里探索机器学习。尤其是在军事方面,我们工程师的适应性,并担心机器人会被授权开始推广在目标机器学习领域,我们认为这是不合适的。行动后再学习是好的。但这是一个不同的故事。伦理调节器的重要性,以及我们使用的其认知内疚模型,事实上,甚至机器人的行动可能无意中结束了不道德行为。这被称为“道德运气”。这可能是好运也可能是坏运。但如果是坏运气,你就会想要主动确保不好的行为不会再次发生。这实际上是人的认知内疚的功能,以减少导致不良行为的行为再次发生的可能性。把这个赋予机器人,我们希望如果它犯了错,就不要再重复了。该行为重现的概率将会降低。

最好的例子是军事中的战斗伤害评估。例如,如果机器人进行评估,它看起来像一个不会造成太大伤害的释放武器,在可接受的范围内,然后就可以释放武器了。但它做完之后,战斗伤害行动实际上更严重,比它最初表现出来的。在这种情况下,我们希望机器人在现场减少在类似情况下再次释放武器的可能性。实际上,这就是我们使用的内疚模型,最终它能实现的是,机器人不会接触目标。同样,更新软件以确保使用符合日内瓦公约。

记者: 战争法则(LOW)和参与规则(ROE)是以自然语言的形式编写的。 你如何将这些规范转换成机器可读格式?

__ARKIN:__重要的是要记住,我们不可能抓住所有参与规则和战争法则。我们一向主张该制度应在非常狭窄的情况下使用,例如建筑物清理操作或反狙击手操作。在这种时候,不可能抓住所有人的道德和所有战争法则。因此,问题是在这些狭窄情况下的什么战争法则和参与规则,机器人就会发现。

让我们进行房间清理操作,尝试使用这些基于约束的方法做到这一点。战争法则认为,如果你看到平民,你不能射击他们;如果对方已经投降,你也不能射击。对于无人机来说,如果在禁区之外,就不能释放炸弹。即使你向合法目标释放炸弹,但是会导致清真寺、教堂等类似的文化设施的毁坏,也是非法的。你被禁止做这些事情。

因此,我们最初的工作更多的是关于空中的。我们还使用战斗伤害评估策略计算附带损伤,以确定其是否在特定目标的可接受限度内,并将武器约束为相称性。为了能够做到这一点,你必须能够理解目标的军事必要性,这是由人类决定的。你必须能理解武器的均衡性。换句话说,哪种武器足以摧毁目标而又不会造成更多非必要性的伤害?你必须确保你不会破坏文化设施。基本上,坚持所有必要的原则,例如辨识,以便能够分辨战斗人员和非战斗人员。我们还声明,我们应该限制这些特定系统在高强度战斗行动或国家间战争中的使用,而不是在现代反叛乱行动。在非常狭隘的情况下,他们应该非常小心谨慎地使用,其表现出的可预测性有可能是更好的。

记者: 为什么在设计责任顾问时选择基于案例的推理(CBR)而不是基于规则的推理(RBR)?

__ARKIN:__从历史来看,我们采用基于案例的推理有很多不同的原因。部分原因是为了从以前的专家那里获得信息。过去的一个例子是在实验室里与狙击手一起工作。我们可以跟专家合作,可以是法律专家,可以是医学专家,也可以是军事专家。同样,主要原因是能够容易地利用作战人员的经验来指导我们的作战行动。

记者: 最后,您的建议“管理致命行为:将伦理嵌入混合型讨论/反应式机器人架构”在2007年出版。在过去十年中,人工智能技术已经有了巨大的进步。您的机器伦理研究最近有没有什么新进展,或者还有什么想分享给我们的?

__ARKIN: __那个项目在2010年年底结束,因此还有一些其他信息。正如我所说,我鼓励那些真正有兴趣的人看一看那本名叫“管理自主机器人的致命行为”的书。它代表那个项目的最终声明和结果,还有描述该项工作的重要技术细节。最近的进展包括在其他领域中的应用,例如使用相同基本原理处理护理者 - 患者关系(上文讨论),但是在道德调整和伦理管理上略有不同。如果我们成功了,它可能有助于协调父母子女之间的关系,甚至是婚姻咨询。我们希望使用机器人为人类的谋利,无论是确保战争在国际商定的法律之内进行,还是确保人类彼此的适当行为。

(编译:张有凤)