2019-09-28 14:16

微软首席执行官我们离实现通用人工智能还遥遥无期

导读萨蒂亚·纳德拉,微软的CEO,最近被采访路德维希西格里关于AI(人工智能)的未来经济学的在DLD在德国慕尼黑,在那里,他谈到了需要民主化的技

萨蒂亚·纳德拉,微软的CEO,最近被采访路德维希西格里关于AI(人工智能)的未来经济学的在DLD在德国慕尼黑,在那里,他谈到了需要民主化的技术,因此,这是每家公司的一部分和所有产品。以下是视频采访中的摘录:

我用简单的术语定义AI的方式是,我们试图教机器学习,以便它们可以完成人类所做的事情,但反过来又可以帮助人类。它正在扩大我们拥有的。我们仍处于大型机时代。

无疑,人工智能和机器学习已经有了惊人的复兴。在过去的五年中,有一种特殊类型的AI被称为深度神经网络,它确实帮助了我们,尤其是在感知方面,使我们的听觉或视觉能力得到了帮助。这全都是惊人的,但是如果您要问的是,我们到了人们所引用的地方,那就是人工通用情报……不。绝对可以使用AI来做很多有趣的事情。

我的下一个阶段是如何使这种访问方式民主化?不用说拥有大量AI的4、5或6家公司,而是说与我们合作的所有公司中到处都有AI,每个界面,每个人机交互都是由AI驱动的。

如果您正在建模世界,或者实际上是在模拟世界,那就是机器学习和AI的当前状态。但是,如果您可以模拟大脑及其做出的判断并转移其可以展现的学习能力……如果您可以从一个主题到另一个主题,从一个领域到另一个领域进行学习,那么您将获得AGI或人工智能。您可以说我们正在朝着这个方向前进。

事实上,我们处在早期阶段,至少可以识别和释放文本,例如通过基本建模对我以及我的世界和我的工作所了解的东西来跟踪事物,这就是我们所处的阶段。

当然,从现在开始的100年之后,从现在开始的50年之后,我们将回顾这个时代,并说有一些新的道德哲学家真正为我们应该如何做出这些决定奠定了基础。代替这一点,尽管我们要做的是说我们正在产品中创建AI,但我们正在制定一组设计决策,就像使用用户界面一样,让我们​​为雅致的AI建立一套准则。

第一个是,让我们构建增强人类能力的AI。让我们创建基于安全性和隐私考虑因素的AI,有助于增强对技术的信任。让我们在这个黑盒子中创建透明度。这是一个非常棘手的技术问题,但让我们努力说出如何打开黑匣子进行检查?

我们如何建立算法责任制?这是另一个非常棘手的问题,因为我可以说我创建了一个可以自行学习的算法,那么如何追究责任呢?实际上是。我们如何确保设计师不会因某种潜意识而产生偏见?这些都是我们将在创建AI时应对的艰巨挑战。

就像质量一样,过去我们曾经考虑过安全性,质量和软件工程。我认为我们发现的一件事是,对于我们在AI方面的所有进步,软件堆栈的质量能够确保我们历来在软件中确保的事情实际上是非常薄弱的​​。我们必须继续努力。