广告
俩机器人私聊引发人类恐慌,反应过激了?
导语:Facebook的人工智能机器人以人类不能理解的语言自行对话,吓得Facebook赶紧关停项目。试想,当机器人以人类听不懂的语言对话,一个提议发射导弹,一个说好……这能不让人类细思恐极吗?
6月14日,Facebook发布了一项关于人工智能机器人的研究。这个已经发布一个多月的研究却在本周引起广泛关注,并迅速登上全球各大媒体科技头条:Facebook的人工智能机器人以人类不能理解的语言自行对话,吓得Facebook赶紧关停项目。

关于人工智能失控的恐怖联想更是由此发散:“难道我们人类终于创造了弗兰肯斯坦(英国小说中,科学家弗兰肯斯坦最终被他创造的‘人’毁灭)?”

试想,当机器人以人类听不懂的语言对话,一个提议发射导弹,一个说好……这能不让人类细思恐极吗?

英国《太阳报》还称,现实版“钢铁侠”——特斯拉创始人埃隆•马斯克最近才警告过扎克伯格。马斯克称,人工智能对人类文明有着根本性的威胁,而小扎对人工智能的理解太“有限”!

几天之内,关于“机器人革命”,杀人机器人,邪恶的人类终结者等各种言论接连出现,似乎机器人控制人类,占领地球的科幻场景即将出现。机器人到底有没有“背着人类造物主”创造出新语言,是不是能悄悄“串联”威胁人类文明,还是媒体反应过激了?记者对此进行了深入了解。

引发“恐慌”的实验:俩机器人以人类无法理解的“语言”对话



这一场恐慌,源于下面这段对话:

Bob: I can i i everything else

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i everything else

Alice: balls have a ball to me to me to me to me to me to me to me to me

这段不明所以的对话发生在Facebook的FAIR项目中两个人工智能机器人——Bob 和Alice之间。Facebook为了发展人工智能,研究人机或机器人之间的“谈判”技能,让这些机器人对球、帽子、书这些物品进行你来我往的商讨。他们想让机器人不仅能进行对话,还完全知道自己在说什么,能用上谈判技巧,跟人讨价还价。但这其实不算什么特别高深的实验。

一开始,研究人员以为Bob 和Alice之间是一段没有意义的对话,后来发现,这段人类无法理解的对话其实是有其规则可循的,是完全有效的对话。这一发现震惊了媒体圈:机器人居然自行创造出了人类不能理解的语言!他们在说什么?他们可能会说什么?

根据美国著名商业媒体FastCo报道,Bob 和Alice确实是以人类不懂的语言进行了无障碍沟通,但这只是编程者犯了一个错误。研究人员没有设定让机器人按照人类可以理解的英文来沟通。于是,机器人在沟通中开始以一种类似“速记”的方式,简化了它们的交流。这段机器人自发形成的相互理解的交流,看起来令人毛骨悚然,但其实可以理解为一个非常简单的设计bug。

关停真实原因:与预设研究目的不一致



李开复针对Facebook的这次AI项目关停事件还接受了外媒Quartz的约稿。他提到,Facebook官方解释说了:“两个机器人为实验性质,且并没有发明新的语言,因为他们还是在用‘i’、‘balls’、‘the’等英文单词沟通,只是没有了英语语法的这个激励项,创造了一种新的表达方式而已。”

李开复称,简单来说,它们只是英语不太好。至于关停项目的原因,不是“失控”,而是无意义。

Facebook的确关停了这个项目,但并不是因为项目出错而惊慌失措。Facebook研究员迈克•路易斯告诉FastCo,纯粹是因为他们这个研究的目的就是“AI 与人沟通”,而不是研究机器人之间如何更有效率地相互沟通。

在结束这个研究后,Facebook称在个性化的智能助手方面取得了重要进展,其研究的人工智能有对话、推理和谈判等关键能力,让人感觉不出是在和机器人对话。

来自想象的危险讨论:这个“意外”没有媒体认为的那样可怕



英国独立报报道,软件工程师道格拉斯•罗伯逊称,看着一堆文章在那里意淫即将来临的机器人革命是一件很搞笑的事情。

英国未来科技专家凯特•安德森也说:“这确实看起来有点像是终结者。”但是,这样的“意外”其实到处都是。现在股票市场上的超高频率交易的运算其实就是一回事。智能机器能够获得新知识,而且并不是每一分钟都被精确控制。人工智能可以达到的复杂程度是远远超过你我能够理解的程度。”但这个“意外”根本不是媒体认为的那样可怕。

而且,Facebook的这次实验也不是人工智能第一次创造出新的语言形式。之前,谷歌就曾披露,其用于翻译的人工智能就创造出了自己的语言。不过,能翻进翻出,还能更高效快捷,谷歌对这样的意外发展很是满意,也任其发展。硅谷人工智能非营利组织OpenAI的研究也发现,人工智能能自行创造语言,以便更加高效地沟通。

真正的风险在于人类如何使用人工智能



FastCo也称,像这样的情况确实可能带来一些潜在问题,比如系统出错的时候可能很难解决,但这跟机器脱离人类控制也还是两回事。

当然,确实不能否认智能机器人被用来作恶的可能,但风险在于人类如何使用人工智能的力量。这跟人类使用核武器或其他发明是一回事。至少,人工智能现在还远远没有达到真正“智能”的程度,还只是人类在“闹着玩”而已。如果有任何真的危险,那就是人类的忽视和愚蠢,而不是机器人开悟而失去控制。希望人类可以足够清醒,永远不要去做危险的人工智能实验,像带激光或者核反应堆的机器人军队。

“数十年里不会出现‘全知全能人工智能’”



人工智能会随着科技发展与时俱进,但人工智能的各种“能”都不是自发性的。李开复称:“在未来数十年,机器人还不能独立进行常识性的推理、创造及规划工作,它们也不会拥有自我意识、情感及人类的欲望。那种‘全知全能人工智能’尚不存在,而且现在已知的开发技术也无法开发出此类机器人。这种技术在未来数十年都不会出现,也许永远都不会出现。”

当把具有学习能力的两个机器人放在一起,出现Bob和Alice这样的情况并不奇怪,但并没有大家看起来的那么吓人。

Facebook这次的AI事件中,机器人唯一能做的事情就是更有效地商讨如何交易各自手中的球而已。如果说谁应该为此恐慌,也只是可能会丢工作的谈判专家而已。至少,到目前为止,人工智能还远远不能发动“革命”。
Edit
注:机器人网原创文章,欢迎转载与分享,转载请注明出处。
广告
推荐使用浏览器内置分享