广告
联合国再次对“杀人机器人”说不!
导语:据外媒报道,4月9日,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,专项讨论“杀人机器人”可能带来的影响。据称,此次的会议跟此前韩国科学技术学院宣布开发“杀人机器人”有关。

据外媒报道,49日,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,专项讨论“杀人机器人”可能带来的影响。据称,此次的会议跟此前韩国科学技术学院宣布开发“杀人机器人”有关。

据了解,今年2月份,韩国科学技术学院宣布将与韩国防务公司Hanwha Systems联合建立一个研究中心,专注于开发应用于军事武器的人工智能(AI)技术,以便在无人控制的情况下搜索并消除目标。

消息一经宣布,就引起来全球众多人工智能专业人士的抵制。上周三,50多名来自全球30个国家的顶尖人工智能研究员向韩国科学技术院发起抵制,他们表示将不再访问韩国科学技术院,招待来自这所大学的访客,或者与它的研究项目合作,直到该校承诺不开发无需人类控制的人工智能武器为止。

发出呼吁的是人工智能研究领域著名的澳大利亚学者Toby Walsh,近60名从事机器人研究的专家表示赞同。其中有最著名的Geoffrey Hinton教授Yoshua Bengio教授和JürgenSchmidhuber教授。

人工智能迅速发展给社会各个领域带来深远影响,对军事作战系统研发也带来全新理念。然而,人工智能界的专家学者及防务分析人士认为,机器人暴动仅是科幻小说式的终极噩梦,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否,才是人们亟须担忧和讨论的现实问题。

大多数专家学者一直认为,使用致命武器时,人应当是负责启动的关键要素。对什么样的人工控制才是最适宜的讨论还未结束,相关的政策制定又已被人工智能技术的飞速发展甩在身后。随着具有认知能力人工智能系统的出现,更复杂的问题出现了。

新美国基金会研究人员、防务政策分析人士Singer在其著作《连线战争:21世纪机器人革命和冲突》中指出,地缘政治、知识前沿领域不断前进的动力甚至是追求利益的科技企业,都是人工智能发展不可阻挡的力量。简单来说,大部分人现在最感到恐惧的是该不该让能够思考的人工智能系统决定是否杀人。

新美国安全中心技术和国家安全项目主管Scharre表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。自主武器系统的可靠性难以测试,会思考的机器系统可能以人类操控者从未想象到的方式行事。

美国国防部前副部长Miller认为,自主武器系统在战事激烈的地区执行任务,让机器全权负责的诱惑可能会难以抵制,技术上的可能总是让人们作出利于形势的选择。

对于自主武器系统,人工智能界的专家学者频频说,拒绝进行相关领域的研发。例如,韩国科学技术院研制的机器人曾经赢得2015年美国国防部高级研究项目局机器人挑战赛的冠军。

尽管在遭到抵制数小时后,韩国科学技术院就回应称其并不打算参与致命武器系统和杀人机器人的开发。 韩国科学技术院校长Sung-Chul Shin亦表示,该校相当清楚人工智能的伦理问题,他再次重申,韩国科学技术院不会从事任何与人类尊严相违背的研究活动,包括无需人类控制的自主化武器。并称新的国防和人工智能融合研究中心将专注于利用AI命令和控制系统,对大型无人驾驶潜水器进行导航,以及利用AI进行智能飞行器训练,追踪和识别物体等。

但发起此次抵制的Toby Walsh表示,在取消抵制前,他必须与所有签署抵制信的研究员进行沟通。因为目前仍不清楚,当无人潜水艇在水下且无法通信时,人类如何能够进行有效的控制。

反对“杀人机器人”的研发和使用是大部分AI届人士的共识,在2017年人工智能国际会议上,有硅谷“钢铁侠”之称的马斯克、苹果联合创始人之一沃兹尼亚克、研发“阿尔法围棋”的深度思维公司哈萨比斯等人,都曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。

联合国此前曾多次开会讨论是否应该封杀“杀人机器人”,但实际上至今都没讨论出个结果来,尽管目前使用的无人机还需要士兵的操作,但随着人工智能技术的进一步发展,它独立操作似乎已不遥远,封杀“杀人机器人”已迫在眉睫。

整理
注:机器人网原创文章,欢迎转载与分享,转载请注明出处。
广告
推荐使用浏览器内置分享