特斯拉和SpaceX首席执行官埃隆·马斯克(Elon Musk)曾经就人工智能(AI)发出新的警告,称这种技术对人类的威胁比朝鲜核武器还要大,而且他曾一再表示,随着越来越多地使用人工智能(AI),社会需要更加关心其安全问题。马斯克最近在推特上表示:“如果你之前不担心AI的安全,那么现在你应该担心了。”

20170828_04_AI02

SAP软件解决方案公司的首席学习官珍妮·迪尔伯恩(Jenny Dearborn)对此观点表示赞同。事实上,她说,教育好人工智能知识和如何最好地利用它是至关重要的。

她告诉CNBC:“人工智能将无处不在,这将是我们社会最普遍的一个现象,这种现象不会被明显看到,但它会隐藏在一切的背后。”

迪尔伯恩认为人工智能会影响我们所做的一切

迪尔伯恩表示,它会影响我们所做的一切,包括扫描徽章,滚动网页,使用应用程序和家庭传感器系统以及许多其他日常生活方面。因此,人工智能将会不断地收集数据和个人信息。企业可以利用这些信息和应用算法来了解你的行为。

她还表示:“我们需要使用人工智能来使人类更加强大,而不是取代人类。我们需要更多的人就如何使用人工智能发表他们的看法,这样我们才不会被人工智能所利用。”

但谁会利用我们,我们为什么要小心呢?迪尔伯恩说,有三家人工智能前沿公司:谷歌、Facebook和亚马逊。她说,如果人类被人工智能利用,这三家公司将获益最多。人们需要深入了解人工智能的渗透程度,这样他们才不会在某天醒来说“我一直就是一颗棋子”。

迪尔伯恩认为这是一个极端但似乎合理的情形。她问:“谁来做这个决定?”她说,如果我们不参与人工智能的讨论,那么这些大公司将会拥有所有的话语权。

迪尔伯恩担心,为方便起见,人们乐意泄露隐私。她表示:“他们说‘我接受’,但是,如果一家公司越过红线怎么办呢?”

迪尔伯恩说:“现在大多数公司都持有比政府更大的权力。”今后会有大量关于隐私,个人自由和红线的讨论。因此,教育是关键。

迪尔伯恩表示,我们应该决定我们希望新经济是怎样的,并理解我们在其中扮演的角色,参与讨论,做一个有知情权的公民。这样,关于人工智能如何被设计和以何为导向,社会大体上可以做出明智的决定。

马斯克认为人工智能对人类文明的存在构成了根本性的风险

马斯克表示赞同,他说:“人工智能对人类文明的存在构成了根本性的风险,这与汽车事故、飞机相撞、药物错配、食品安全的影响方式不同,后者只会对社会局部造成损害,不会对整个社会造成威胁。”

迪尔伯恩的解决方案如下:“我们应该训练年轻人对我们要去往哪里持批评态度。”她说,她支持年轻人进入科技行业,事实上,对我们生活产生最大影响的重大决策经常来自于科技行业,而不是政府。如果你想从事卫生保健行业,就选择以医疗保健为重点的科技类专业;如果你想成为一名神经系统的科学家,那就选择以神经系统为重点的科技类专业。”

迪尔伯恩补充说,我们最大的社会责任是弄清楚社会如何使用人工智能。她举了这样一个例子:谷歌一直在尝试自动驾驶汽车。但是,如果一辆无人驾驶汽车即将发生碰撞,它必须在拯救驾驶员和撞向人群,或避开人群但让载有驾驶员的汽车发生碰撞之间做出一个数学决策,那该怎么办?

尽管她承认这是一个极端的例子,但迪尔伯恩说,人们很快就必须回答这类型的问题。因此,让更多不同的人群参与到有关人工智能开发和应用方式的讨论很重要。

她说:“这就像创建一个政府结构和社会秩序。你需要确保建立这些系统的人有平等的代表权,多样性和包容性。现在的科技领域以白人男性为主,他们对我们的道德和社会原则制定了规则。对此,我们不能采取自由放任的方式。这些都是道德准则和红线,不能让一个营利性公司自己做出这些决定。”