首页 > 财经 > > 正文
2019-08-09 08:45

人工智能科学家聚集在一起绘制世界末日场景

人工智能助推器预示着飞行汽车和癌症治疗的新世界。批评者担心未来人类被奴役到机器人霸主的邪恶种族。经验丰富的人工智能科学家埃里克霍维茨和世界末日时钟大师劳伦斯克劳斯寻求中间立场,聚集了亚利桑那州沙漠中的一组专家,讨论可能发生的最坏情况 - 以及如何阻止它。

他们的研讨会上周末在亚利桑那州立大学举行,资金来自特斯拉公司联合创始人埃隆马斯克和Skype联合创始人贾恩塔林。官方称之为“构想并解决不良AI结果”,它是一种人工智能世界末日游戏,将大约40名科学家,网络安全专家和政策组织组织成一组攻击者 - 红队 - 和后卫 - 蓝队 - 玩AI - 非常错误的情景,从股票市场操纵到全球战争。

霍维茨很乐观 - 这是一件好事,因为机器情报是他一生的工作 - 但该项目的一些其他更具反乌托邦思想的支持者似乎发现他的观点过于积极,因为大约两年前该事件的计划开始,Krauss说,理论指导亚利桑那州立大学起源项目的物理学家,该项目正在运行研讨会。然而霍维茨说,为了使这些技术成功地向前发展并赢得广泛的公众信任,所有的关注点必须得到充分的关注和解决。

“人工智能有很大的潜力在很多方面改变我们社会的这么多方面。与此同时,像任何技术一样存在粗糙的边缘和潜在的缺点,“华盛顿雷德蒙德微软研究实验室的常务董事霍维茨说。“为了最大限度地从上升中获益,我们还必须比以往更详细地考虑可能的结果,并考虑我们如何处理它们。”

参与者被给予“家庭作业”以提交最坏情况的条目。它们必须是现实的 - 基于当前的技术或可能的技术 - 以及未来5到25年。选择带有“获胜”噩梦的参赛者来领导小组,两个小组的每个小组都有四位专家讨论这次攻击以及如何防止这种攻击。

事实证明,这些研究人员中的许多人都可以与科幻小说家阿瑟·克拉克和菲利普·迪克的反乌托邦视觉相匹敌。在许多情况下,需要很少的想象力 - 在现实世界中可以看到诸如用于影响选举的技术或使用AI的新网络攻击,或者至少在技术上是可能的。霍维茨引用的研究表明,如何改变自驾车看到交通标志的方式,以便车辆误读“停止”标志为“收益率”。

智能,自动化网络攻击的可能性最令人担心的是,负责美国国防高级研究计划局办公室之一的John Launchbury和塔夫斯大学计算机科学系主席Kathleen Fisher领导该会议。如果某人构建了一个旨在隐藏自己并逃避所有拆除它的企图的网络武器,会发生什么?现在想象它超出了预期目标,扩展到更广泛的互联网。想想Stuxnet,这是一种用于攻击伊朗核计划的计算机病毒,它在野外出现,但更隐蔽,更自主。

“我们正在谈论支持AI的类固醇恶意软件,”费希尔说,他是编程语言方面的专家。费舍尔在一张幻灯片中展示了她的情景,其中包含“可能出现什么问题?”的字样,这也可以作为整个活动的标语。

防守蓝队是如何在那场比赛中得分的呢?不幸的是,Launchbury说。他们认为攻击所需的高级AI需要大量的计算能力和通信,因此更容易检测。但费舍尔说,红队认为隐藏在无害活动背后很容易。例如,攻击者可以让无辜的用户玩上瘾的视频游戏来掩盖他们的工作。

为了防止密歇根大学计算机科学教授迈克尔威尔曼设想的股票市场操纵情景,蓝色团队成员建议通过试图通过已知类型的黑客攻击来识别恶意软件等攻击者。已经在人工智能领域工作了30多年并且自称是这个问题的老人的威尔曼说,这种方法可能对金融有用。

除了实际的解决方案,组织者希望世界末日研讨会开始就需要发生的事情进行对话,提高认识,并结合不同学科的想法。Krauss说,起源项目计划从闭门会议中制作公共材料,并可能围绕特定场景设计进一步的研讨会。

DARPA的Launchbury希望参与者中出现的政策数据将促进具体步骤,例如关于网络战争,自动武器和机器人部队参与规则的协议。

世界末日时代组织赞助商董事会主席克劳斯表示,他在研讨会上看到的一些内容“告知”他关于时钟是否应该改变的思考接近午夜。但是,不要囤积罐头食品,然后进入旷野的沙坑。

“我们认为有些灾难性的事情可能会变得很好,”他说。

相关推荐