据英国《卫报》报道,日前,部分全球知名的机器人及人工智能专家呼吁联合国禁止研发和使用杀人机器人。特斯拉CEO埃隆·马斯克(Elon Musk)以及谷歌DeepMind联合创始人Mustafa Suleyman等来自26个国家的116名专家在公开信上签名。

联合国最近已投票通过开启对此类军用武器的正式讨论,其中包括自主化的无人机、坦克、机关枪。在讨论开始之前,AI以及机器人公司的创始人们向联合国提交这封公开信,希望能推动联合国制定决议,制止已经开始的“杀人机器人”军备竞赛。

在公开信中,这批技术领袖们对将主持该讨论的联合国常规武器会议警告称,这轮军备竞赛极有可能导致“第三次战争革命”,前两次分别由火药和核武器引发。

他们写道:一旦研发出来,致命自主武器将使未来战争扩大到前所未有的规模,战争进展的速度也将超过人类对时间的理解。这类武器很有可能成为恐怖的代名词,独裁者、恐怖分子能把它们用到无辜平民上,也有可能被黑客利用,让自主武器做出我们不希望看到的行为。留给我们的时间已经不多了,一旦潘多拉魔盒开启,想关上就难了。

此前,AI 专家曾警告,以现在的人工智能技术和发展速度,全自主武器未来几年内将成为可能,而不需要几十年的时间。虽然,人工智能会让战场上的军人更安全,因为不需要更多人上前线;但专家们担心能自主行动的进攻性武器,将极大降低战争的门槛,导致更多的人员伤亡。

该公开信是IJCAI 的开幕致辞上公布,得到了机器人以及 AI 领袖不少知名专家学者的支持。公开信全文以及署名者名单见此。他们强调做出紧急行动的重要性,尤其联合国把讨论该问题的会议时间推迟到了今年 11 月,原计划是今天。

在今天上午开幕的墨尔本国际人工智能联合会议(IJCAI)上,这封公开信得到了机器人以及 AI 领袖不少知名专家学者的支持。他们强调做出紧急行动的重要性,联合国被迫将原计划今天召开的讨论该问题的会议时间推迟。

专家们呼吁将“道德错误”的致命自主武器系统加入联合国自 1983 年生效的特殊常规武器大会 (CCW) 武器禁用名单,该名单中还包括化学武器以及以蓄意致盲为目的的激光武器。

澳大利亚新南威尔士大学人工智能教授Toby Walsh对此表示:“几乎所有技术都有两面性,人工智能也不例外。它能帮助我们解决许多当前面临的社会问题:不平等、贫困、气候变化带来的挑战以及仍未消退的全球金融危机。但是,同样的技术也能用到自主武器上,让战争进一步工业化。我们需要今天做出决定,到底什么样的未来才是我们想要的。”

公开信的签署者之一马斯克是著名的AI威胁论者,他曾多次警告人类要主动监管AI,并认为AI是人类目前面临的最大威胁,但AI的潜在破坏力有人认为很大,也有人认为还很遥远。

Clearpath Robotics 创始人 Ryan Gariepy 表示:“与其它科幻小说里的 AI 潜在应用不一样,自主武器系统研发正处在一个拐点,它对无辜平民造成杀伤的威胁非常现实,也有可能造成全球不稳定。”

AI 顶会 IJCAI 被专家们用作讨论致命自主武器系统的论坛,已经不是第一次了。两年前,包括马斯克和霍金在内的数千名 AI、机器人专家以及行业领袖在该大会上签署了另一封公开信,呼吁与今天相似的武器禁令。这推动了联合国对致命自主武器开启正式讨论。

科幻小说还是科学事实?

虽然杀人机器人的想法来源于科幻小说,例如《终结者》的T-800、《机械战警》的ED-209,但致命的自主武器其实已经开始使用。据报道,三星的SGR-A1哨兵枪具备自主射击的能力,据称已经用在南朝鲜2.5m宽的非军事区,当然,具体是否已经部署仍存在争议。

20170821_03_robot02

以韩国政府为代表的固定位置哨兵枪是第一种具有自主系统的自动武器系统,它能够用机枪或榴弹发射器进行监视、声音识别、跟踪和射击。但它并不是正在开发的唯一自主武器系统,其原型可用于陆、空、海作战。

由BAE Systems开发的英国Taranis无人机能够连续地携带空对空和空对地弹药,并具有充分的自主权。Red Arrows使用无人驾驶的作战飞行器,大小跟BAE Hawk差不多,在2013年进行了首次试飞,预计2030年后将成为皇家空军的未来空中进攻系统的一部分,或将取代人类驾驶的Tornado GR4战机。

20170821_03_robot03

俄罗斯、美国以及其他国家正在开发可以远程控制或自主操作的机器人坦克,其中包括俄罗斯Uran-9无人战斗地面车辆的自主版本,以及改装自主系统的常规坦克。

由Vigor Industrial建造的美国自主战舰Sea Hunter已经于2016年推出,目前仍在研制中,其目的是具备包括反潜在内的攻击能力。在水下,波音公司的自主潜艇系统也计划用于远程深海军事用途,。