据《麻省理工科技评论》报道,机器人Octavia最近火了,它不仅能在海军舰艇上灭火,而且还会表现自己的情绪,它已经掌握了一系列令人印象深刻的面部表情。

20171106_02_Octavia04

Octavia看起来就像一个人造娃娃,拥有一张光滑的白脸和一个翘鼻子,两道塑料眉毛贴在前额上,就像两个翻了的独木舟,看起来有点呆呆的。

但是,当它开机时,眼睑一睁开,就开始表现它的情绪了。点头表示它理解了;睁大眼睛扬起眉毛还能发出警报;要是把头歪向一边同时撇嘴,则表示它有些困惑;甚至还可以勾起一条眉毛,眯起另一个眼睛,敲敲金属手指,就像在策划什么机密行动一样。

当然,Octavia面部表情远没有美女机器人Sophia的丰富,但让人惊讶的是,Octavia的这些情绪并不是它自发做出来的,而是来自于它对与人互动做出的准确回应,比如在看到战友的时候,它看起来会很高兴,如果战友给出的命令出乎它的意料,它会很惊讶,如果接到的指令无法理解,它就会表现出迷惑的表情。

20171106_02_Octavia03

此外,Octavia能够观察、聆听和触摸。利用嵌入眼睛里的两个摄像头,她可以观察周围环境,分析面部特征、肤色和衣饰。利用4个麦克风和名为Sphinx的语音识别程序,她可以探测语音。她还能通过触摸去感知25种不同对象,并用手指将这些对象摆弄至特定的姿态和形状。这些感知机能构成了Octavia“具体认知架构”的一部分。作为开发者的美国海军人工智能应用研究中心表示,这些技术使她可以“以类似人类的方式去思考和行动”。

当然,Octavia的感情并不是真实存在的,美国海军人工智能中心智能系统部门负责人Gregory Trafton表示,设计这些表情只是为了展示Octavia的思考内容,方便人们与她交流。

Octavia的大脑中有“心智理论”,这意味着她可以预见人类战友的精神状态。它能够理解,人类可能同时存在相互矛盾的想法和意图。当Octavia被要求执行预期之外的命令时,她会进行模拟,以确定发出命令的战友在想什么,以及为什么他认为这个预期之外的目的是合理的。在这个过程中,Octavia运用自己的世界模型,但进行稍许调整,试图找到通往既定目标的途径。当她把头歪向一边,皱起眉毛时,这就表明她正在运行模拟程序,试图更好地理解战友的想法。

20171106_02_Octavia02

Octavia的程序中并没有包含情绪模型。它的心智理论是一种认知模式,但功能更侧重移情,这是人类情感中最有价值的部分。

那么,机器人的开发者会怎么说?一方面,关于体验情绪这件事,我们所知的依然非常有限。

近几年,心理学和神经科学的突破性研究重新定义了情绪的概念,导致我们更加难以确定和描述情绪。美国东北大学心理学家Lisa Feldman Barrett等科学家指出,我们在成长过程中所处的文化会极大地影响我们的情绪。实际上,即使是同一个人,在不同情况下情绪也会有极大的差异。

尽管我们与其他人和动物有着同样的“情感”,例如快乐、伤心、兴奋和冷静,但对于特定情况,我们的细微情感会有很大差别。例如,恐惧是一种在文化上得到认同的概念,但会以多种方式在我们的身体中得到体现。恐惧可以来自多种不同的刺激,在我们的大脑中有多种不同表现,并在我们的脸上反映为多种不同表情。我们的大脑中并没有统一的“恐惧中枢”或“恐惧回路”,而我们的脸上也没有统一的“恐惧表情”。基于情况的不同,我们以各种不同方式去处理并表现自己的恐惧情绪。而通过与他人的互动,我们学会识别并标记“恐惧”。

因此,恐惧实际上是一种泛义的“伞型概念”,而非来自大脑的某个具体部分。巴雷特指出,我们通过身体系统的相互作用来构建情绪。那么,程序员要如何准确在机器人中还原人类的情绪?

围绕机器人情绪还存在伦理难题,类似Octavia的军用机器人尤其如此。这些军用机器人会被派遣至可怕、痛苦,或是可能致命的环境中,替代人类去展开任务。

在2017年由军方的“疯狂科学家倡议”赞助的一次会议上,陆军训练和条令司令部的副指挥官Kevin Mangum中将指出,这些机器人应该并将是自主的。Mangum说:“当我们看到我们日益复杂的世界时,毫无疑问,机器人、自动系统和人工智能将发挥作用。”2017年的陆军机器人和自治系统战略预测,到2040年,自动系统将全面整合,取代目前由人类远程操控的拆弹机器人和其他机器。

当这些机器人能够自主行动和思考时,它们是否应当像Octavia一样,表现出类似人类的情绪?程序中是否应当这样做?如果我们把这样的机器人送上战场,机器人不仅要和人类伙伴一同思考,还要与他们分享同样的感受?

从一方面来看,答案当然是否定的。如果我们设计机器人的目的是让它们进入危险的环境,那么加入感知恐怖、创伤或痛苦的能力将是非常残忍的。

另一方面,如果情绪影响智力,或智力影响情绪,那么我们能否认为,没有情绪的机器人会成为优秀的士兵?缺乏情绪是否会导致愚蠢的决定、不必要的风险,或是过于残酷的行为?没有情绪的机器人是否会做出被认为战争犯罪的行为?或者说,没有恐惧或愤怒情绪的机器人能比人类做出更明智的决定?

还有一种可能。如果情绪和智力密不可分,智能机器人必然拥有情感,那么问题在于,机器人应当拥有多少情感已经超出了程序员对智能的控制。

还有个问题在于,这些机器人会如何影响他们的人类伙伴。

截至2010年,美国陆军已部署了大约3000个小型战术机器人。在很大程度上,这是为了应对战争中的简易爆炸装置。这些机器人可以替代人类士兵,进入容易暴露的街道、黑暗的洞穴,通过狭窄的通道,拆除不可预知的简易爆炸装置。

这些机器人的具体型号包括iRobot的PackBot和QinetiQ北美公司的Talon,并不算特别先进。这些机器人看起来有些像是好莱坞电影中的机器人瓦力,四四方方的金属身体在橡胶履带上保持平衡,从而穿越岩石地形、爬楼梯,以及在昏暗的走廊里走动。它们还配备了装有摄像头的机械臂,以探查周围环境,而爪子则可以处理爆炸装置。

这些机器人非常有用,但并不是完全自动化的。它们需要遥控操作,就像遥控玩具车一样。实际上,PackBot并没有比iRobot的拳头产品Roomba扫地机器人先进太多。

然而,尽管这些机器人并没有给人眼前一亮的感觉,但人类士兵仍然与它们形成了关联。Julie Carpenter在“军事场景的文化和人类机器人互动”中展示了混合愉快和痛苦的复杂关系。

Carpenter问到一名士兵对被摧毁机器人的感觉,后者的回答是:“尽管并不明显,但感觉有些类似于好友受伤,或是战友阵亡。毫无疑问这是一种失去的感觉。”

另一名士兵则将机器人比作宠物犬:“你会像照顾战友一样照顾好机器人,确保机器人清理干净,电池一直有电。如果机器人没有在使用,那么你会以最好的方式去保管机器人,因为你知道如果没有机器人,一切就轮到你上。”

甚至还有一名士兵提到,他的战友给机器人起了人类的名字。

这些士兵都强调,机器人是工具,而不是有感情的生物。尽管如此,他们还是会给机器人起人类的名字,并在夜间妥善保管机器人。他们以开玩笑的方式来看待这样的行为,但这样的笑话中流露出了一些令人不安的迹象。Carpenter采访的士兵似乎有两种不同的感受。他们意识到,照顾一个没有情感的机器人是荒谬的,且机器人被设计成易耗品,但他们仍然倾向于在一定程度上去照顾这些机器人。

如果类似Octavia的机器人最终感受到人类的情感,那么这些情感不可能仅仅是人工赋予的认知架构的一部分。如果机器人获得类似人类的情感,那么情感就会随着机器人与战友关系,以及周围环境的变化而变化。

例如,如果机器人的“一生”就是去火场里灭火,或是独自行走在沙漠里拆除爆炸装置,那么她的情感就会和那些受到保护的机器人,或受保护的人类不同。无论她脸上表达出的情绪是什么,如果在一个非人类的环境下“生活”,那么她的真实情绪将无法辨认。

网友辣评

淡:什么样的人设计出什么样的机器人,一款仿人能力与情感、思维的优秀作品也包含道德操守的写入,甚至法理、法律等守则严谨遵守,逻辑致密、明朗。科技的纵深是人类的福音,但正气总的捍卫并抵御邪恶,不能让人类道德放逐,所以高等机器人是人类的真实写照,没有操守的人不得编写和制作机器人,并不得用于战争,和对人类的杀戮。

不再重复:我觉得机器人代替人类也只是迟早的事.就象人类代替了恐龙一样!只要地球上发生了剧变,人类因为自生机体原因无法生存的时候.生存能力远大于人类的机器人就将代替人类传承人类的文明!比如机器人只需要电力就可以存在并运行!而不需要考虑大气污染!机器人可以在各种极端条件下生存,而人类一旦在失去保护其生存环境的情况下,其生存时间往往要论秒计算...

老法师:不是机器人代替人类,而是人类最终会将自身“机械化”,这是人工智能发展的终极阶段。人类只有通过“机械化”,才能实现“永生”的梦想。

小麻:机器人超越人类是必然的事,至于会不会取代我们统治我们这个取决于我们

回忆:有了人类的情感那会有怕死吗?那类和机器会平等吗?你叫它去死那它是不是也可以叫你去死呢!

伪君子:我觉得机器人造人类的反不大可能,因为机器人没有自身诉求,或者说欲望,人类的各种享受追求,对机器人来说,毫无意义。难以想象,机器人会为包包、豪车、豪宅、美女而疯狂

本文综合自腾讯科技、百度百家、72变