如何阻止机器人伤害人?现在的许多机器人,比如在工厂里组装汽车的机械臂,当人类靠近时,它们会马上停机。但这种机制在某些地方并不适用,比如需要快速移动来避免碰撞的无人驾驶汽车,或者需要扶起摔倒老人的护理机器人。随着机器人技术的快速发展,它们将成为我们的仆人、伴侣还有同事,我们需要应对日益复杂的形势,将会面临更多的道德和安全问题。

科幻已经设想了这个问题,并提出了各种潜在的解决方案,其中最著名的是Isaac Asimov的机器人三定律,旨在防止机器人伤害人类。但现实表明,机器人三定律在很多时候并不管用,从2005年开始,我和赫特福德大学的同时一直在研究一个可替代的解决方案。

我们认为,规则不应该限制机器人的行为,而应该赋予机器人更大的自主性,让他们在任何场合都能合理选择最佳解决方案。正如我们在Frontiers上发表的一篇新论文描述的那样,这一原则可以构成一套新的机器人普遍指导原则,以尽可能地保护人类的安全。

机器人三定律

阿西莫夫的机器人三定律是这样描述的:

• 机器人不能伤害人类,也不能明知人类受伤害而袖手旁观;

• 机器人必须服务人类的命令,除非这些命令与第一定律相冲突;

• 在不违反第一、第二定律的前提下,机器人应保证自身安全。

这些规则听起来似乎很合理,但无数的事实证明他们仍存在很多不足。阿西莫夫的小说可以说是最好的反证,它们证明在很多情况下机器人三定律都是不起作用的。大多数新起草的规则都遵循类似的原则以构建更安全、合规而稳定的机器人。

所有制定出来的机器人指南都存在一个问题,那就是如何转化为机器人可以执行的格式。理解人类的所有语言以及它所代表的经验,对机器人来说是非常困难的事情。广义的行为目标,比如不得伤害人类,或保护机器人的安全,在不同的情况下可能意味着不同的内容。遵守这些规则,最终可能让机器人束手无策,并不能达成创造者的目的。

我们的另一个概念,授权代表的是无助的反面。被授权意味着有能力该表状况,并意识到你可以。我们一直在研究如何将这种社会概念转化为可量化和可操作的技术语言。这将给机器人带来启发,以保持他们的选择开放,并采取行动,增强他们对世界的影响力。

当我们尝试在各种场景中模拟机器人如何使用授权原则时,我们发现他们通常会以惊人的“自然”方式行事。通常只需要他们来模拟现实世界的工作原理,但不需要专门的人工智能编程来处理特定的场景。

但是为了保护人们的安全,机器人需要努力维护或改善人类授权以及自己的能力。这基本上意味着保护和支持。为某人打开一扇锁好的门将增加他们的授权。限制他们将导致授权短期丧失。严重伤害可以彻底取消他们的授权。同时,机器人必须努力保持自己的授权,例如确保它具有足够的操作能力,并且不会卡住或损坏。

不墨守陈规,机器人要适应新情况

使用这种一般原则而不是预定义的行为规则,将允许机器人考虑前因后果,并评估以前没有设想的情况。举个栗子,不是一味遵守“不推人”的规则,机器人通常不推人,但当有物体掉落要砸到人的时候例外。这样人类仍然可能会受伤,但会比被东西砸到的伤害要小得多。这就让我想起了昨天的一个新闻,俄罗斯的一个机器人伸手扶住即将倒下的货架,救下了一个调皮的孩子,尽管这个新闻有可能只是机器人公司的作秀,但我们想要的效果就是这样的。

根据阿西莫夫的短篇小说集改编的电影《我,机器人》中,机器人创造了一种压迫状态,它可以通过限制和“保护”来尽可能降低对人类的总体伤害。但是,我们的原则将避免这种情况,因为这意味着丧失人类的授权。

虽然授权为安全的机器人行为提供了一种新的思维方式,但我们仍有许多工作要做,以提高其效率,这样它就可以很容易地部署到任何机器人上,并在各方面转化为良好和安全的行为。但是,我们坚信,授权可以引导我们找到一个切实可行的解决办法,以解决目前存在的、备受争议的问题,即如何控制机器人的行为,以及如何保持机器人真正意义上的“伦理”。

(编译:张有凤)