近期,剑桥大学法学院博士生候选人Markou为一家名为The Conversation的媒体写了一篇名为《即将发生的机器人犯罪,法律准备好了吗?》的文章。他在文章中探讨了一个问题:如果犯罪分子懂得如何使用机器人犯罪时,我们该怎么办?

Markou在文章中谈到:“我们该如何面对机器人犯罪这一问题呢?我们是该感到害怕?这是无济于事的。或者我们耸耸肩,如同事不关己,然后在Netflix上沉醉于虚拟世界?这样做当然轻松,但我们不应该如此。我们要做的是面对现实,制定解决方案!“接下来是他在文章中探讨的几个话题。

如果发生犯罪行为,谁应当承担罪责?犯罪的机器人还是它的主人?

Markou是较早对机器人犯罪问题进行研究的人。他感到困惑的是:如果机器人做了违法的事,罪责该如何界定。例如,有司机在使用特斯拉自动驾驶汽车过程中发生车祸去世,美国政府认定特斯拉公司无罪,这样做合理吗?又比如,有机器人在瑞士购买毒品被捕,随后又被无罪释放,把机器人无罪释放又是否合理呢?

如何界定机器人的犯罪问题看起来很难做到。但从在上文提到的Markou这篇评论中我们可以找到一些希望。 他在文中写道:“在莱特兄弟发明飞机之前,谁又能想过人类能在空中翱翔呢?一次又一次的历史证明,法律是能不断完善的。即使一开始的法律有不足之处,最终也会完善起来的。一言以蔽之,法律可以与时俱进。“

法律的宗旨,是稳定社会预期

在研究棘手的机器人犯罪问题之前,Markou提出了他对于社会为什么需要配套的法律制度的思考。Markou认为:“法律的根本目的是稳定人们在社会中的预期。比如,如果你遭受抢劫,你的预期就是这个歹徒受到依法严惩。”

接着,Markou指出,法律是一种合规性,它约束人并让人承担责任。 这种合规性也适用于各类组织。他解释说:“作为一个组织,公司也具有法人资格,这种法人资格授予公司一定的经济和法律权利,但更重要的是也赋予公司以责任。”

机器人自作主张

现在棘手的事情是:法律的完善迫在眉睫。 基于人工智能的机器人平台即将投入商用,而现行法律很难界定诸如以下一些问题:

如果先进的机器自己犯罪,法律如何界定?

律师如何论证机器人的“犯罪动机”?

如果发生机器人犯罪的事件,该遵守现行法律还是重新修改法律条文呢?

Markou在文章中提到的“犯罪动机”是一个值得玩味的概念。他写道:“刑法的规定是罪犯因自身的犯罪行为受到惩罚。“犯罪动机”这个词背后体现的理念是,一个罪犯被界定为有罪是基于两个层面的,即犯罪行为和犯罪动机。也就是说,一方面他们实施了犯罪行为,另一方面他们也有犯罪动机或意图,或者他们知道自身的行为有可能给他人带来伤害。“

如果人工智能技术已经复杂到可以绕过人的控制,自己实施犯罪行为,那到这个时候,如何界定伤害、规避风险以及如何判定过错、进行惩罚就变得至关紧要了。因此,Markou相信未来的机器人是有可能实施犯罪行为的。他也指出:“尽管机器人可能实施犯罪行为,我们却很难界定它的犯罪动机。比如,如果一台机器人致人死亡,从法律层面来讲,它的犯罪行为是可以确定的,但它的犯罪动机却很难界定,因为它毕竟不是人类。”

如果机器人被界定有罪,如何惩罚?

想都不用想,如何界定机器人是否犯罪已经十分困难了。Markou略带调侃的表示:“那就索性让这个问题更复杂吧,我们谈谈如何惩罚。“他写道:“假如依照法律把一个机器人判刑三十年,可机器人又不会老去,也不会生病,更不可能想念所爱的人,这样的惩罚能起到什么作用呢?”

Markou 在文章最后说道:“目前,我们仍然无法做到在全球范围内系统性地保护人权,犯罪行为时有发生。我不禁想到,我们尚且无法遏制人类的犯罪行为,如果机器人犯罪的时代真的到来了,我们能够应付吗?”