最近关于机器人和伦理的讨论大多围绕着自动驾驶汽车是否会决定碾过最近的小猫,或者是离它稍远一点的装满小狗的篮子,或者类似那样的事情。机器人能否在遇到新情况时做出道德决定,这是很多人仍在研究的问题,但在规则更清晰的情况下,机器人更容易做到合乎道德,同时也不太可能碾过可爱的动物。

上个月,乔治亚理工学院的研究人员发表了一篇论文,题为“在医患关系中,机器人调解员的道德管理者”。他们的想法是,机器人将成为我们日常生活的一部分,它们比人类更擅长密切关注事物,而且不会分心或无聊,并且一直会如此。因此,对伦理问题有理解的机器人将能够观察病人和看护人之间的互动,当他们发现事情并没有按照应有的方式进行时,他们就会进行干预。这很重要,我们需要它。

在美国,大约有一百万人患有帕金森症。像外骨骼和机器人伴侣这样的机器人系统已经开始帮助人们进行身体康复和情感支持,但我们还需要一段时间才能让那些有能力为帕金森患者提供他们所需帮助的机器人。与此同时,病人严重依赖于医护人员,这对双方来说都是一个挑战。帕金森症对人与人之间的互动尤其棘手,因为肌肉控制的减少意味着患者常常难以通过面部表情来表达情感,这可能会导致误解或更糟糕的事情。

为了测试机器人调解员在这种情况下是否有帮助,佐治亚理工学院的研究人员Jaeeun Shim,Ronald Arkin和Michael Pettinati开发了一个道德干预调解员(IEG)。 它基本上是一组编码特定道德规则的算法,并确定在不同情况下应该做什么。 在这种情况下,IEG使用语音量和脸部跟踪等指标来评估病人看护者互动中“人的尊严是否因其他不恰当的行为而受到威胁”。 如果发生这种情况,IEG将指定机器人如何以及何时进行干预。

为了更好表现他们的IEG,研究人员使用了一个具有良好感测能力的Nao人形机器人(麦克风阵列和相机),并且可以进行语音合成(用于干预位)。然后,他们在两名研究生之间进行模拟,脚本化的交互,以了解机器人将如何反应。

在项目的最后部分,研究人员招募了一群人(可能会使用该系统的老年人)观看这些交互并描述他们对他们的反应。这是少数参与者(9人,平均年龄71岁),但在现阶段,IEG仍然是一个待证明的概念,所以研究人员对定性反馈更感兴趣。 根据研究参与者的回应,研究人员能够标记出一些重要反馈,如:

安全是最重要的:“我认为任何保护病人的事情都是好事。”这很有价值。在这里,这是合适的,因为它提供了真实的信息,而不仅仅是命令。”

机器人不应该命令或批判

是的,如果没有人想要打击机器人,那不会是社会机器人研究。 这些研究人员为了他们的信用,正在把这种反馈放在心上,并且与专家合作调整语言,例如通过改变“请冷静下来”为“让我们冷静下来”,后者可能收到更少的指责。 他们还计划通过结合生理数据来改善系统,以更好地检测患者和照顾者的情绪状态,从而提高机器人干预的准确性。

我们应该强调,机器人无法取代两个人之间的同情互动,这不是该项目的目的。 一般来说,机器人或AI系统可能是有效的调解员,确保照顾者和患者在道德上互相尊重,帮助改善关系而不是替代它们。

(本文来源于微信公众号IEEE电气电子工程师学会)