Facebook 首席 AI 科学家 Yann LeCun:没错,我们决定自己开发 AI 芯片

2019年02月20日 作者:neye908a8

在意识到自己需要大力加快运算速度才能实现下一个人工智能突破后,Facebook 决定自行开发人工智能芯片来「狙击」亚马逊与谷歌。近日,Facebook 首席人工智能科学家 Yann LeCun 在接受英国《金融时报》采访时就此披露了大量第一手消息,编译如下:

Facebook 首席人工智能科学家、当代人工智能先驱之一的 Yann LeCun 在接受英国「金融时报」采访时表示,公司当前的目标包括打造一个具备「常识」、能与人类就任何主题展开交流的的数字助理,他认为这是当今语音控制设备必须踏出的关键一步;此外,Facebook 还希望能将 AI 变成实用的社交网络管控工具,协助人类实时监控视频并决定哪些内容可以在平台上出现。

为此,Yann LeCun 说 Facebook 与多家芯片公司展开了合作,比如最近与英特尔的合作项目,以及 Facebook 自行开发、可支持自家 AI 程序的定制「ASIC」芯片。「众所周知,Facebook 经常根据自身业务需求来构建硬件矩阵,ASIC 芯片是其中一个例子。我们将为此竭尽全力「这是 Facebook 首次以官方的形式公开其在 AI 芯片领域的愿景。谈及 Facebook 在芯片以及计算系统基础方面取得突破的可能性,Yann LeCun 补充道:「往下绝对拥有巨大的发展空间。」

无论如何,Facebook 自行打造专属的 AI 芯片将给 Nvidia 带来长期挑战,因为 Nvidia 是目前 AI 图形处理器的主要生产商,接下来将面临来自大数据中心客户退出的短期挤压。实际上,一款速度快、功耗低,用来执行指定任务的专业 AI 芯片,不仅只有谷歌、亚马逊、苹果等大公司在倾力投入,当中还包括几十家初创企业。

 

大家之所以会对芯片设计和硬件架构的前景表示关注,是因为意识到只有在基础计算方面取得根本性突破,才能避免 AI 走进死胡同。

Yann LeCun 表示,在人工智能整个发展历史中,研究人员提出有突破性的见解以前,往往都会在硬件层面先取得长足进步。「在一段相当长的时间里,人们都没有什么具体想法」这阻碍了人工智能的发展。其中就包括反向传播——当今深度学习系统中非常核心的一项技术,它通过将算法重新进行计算以最大限度减少错误。反向传播是早期研究的一个明显延伸,一直到计算硬件发展成熟之后才在 20 世纪 90 年代得到广泛应用。

Facebook 在过去也曾经设计过其他类型的硬件,比如针对数据中心设备的新想法,然后再开放供其他人使用。Yann LeCun 表示,同样的理念也会应用到 AI 芯片的设计上,并补充道:「我们的目的是让更多的人因此受益。」

此外,Facebook 还会将研究重点放在新神经网络的设计上,这是深度学习系统的核心,它有效促进了图像识别与语音识别等领域的发展。三十年前,当 Yann LeCun 还在在 AT&T 贝尔实验室投身于 AI 芯片研究工作时,他建立了第一个「卷积」神经网络 - 一种借鉴了动物视觉皮层如何工作的设计,而这在当今的深度学习系统中很是常见。

▲ Facebook 首席人工智能科学家 Yann LeCun

今天的神经网络经常使用一个被称作监督学习的技术,该技术需要大量的数据进行训练,一旦在 Facebook 这种体量的公司上运行,还将消耗大量电力。据Yann LeCun介绍,如今 Facebook 每日需要对上传至系统上的 2-3亿张照片进行大量即时分析,其中包括使用面部识别技术辨别照片中的人物、为描述场景起标题、以及识别类似裸露等在平台上不被允许的内容。

Facebook 正致力于“做一切可以降低功耗并改善延迟的事情”来提升系统处理速度。他补充道,在网站上对视频进行实时监控的巨大需求,导致需要对神经网络重新进行设计。

为此,Facebook如今正努力寻找全新的神经网络架构,以便能模拟人类智能的更多方面,使其能更自然地与人类进行交互。Yann LeCun表示,Facebook正在在大力投入建设“自我监督”(self-supervised)系统,该系统能够对真实世界做出更广泛的预测,而不只是根据训练数据来得出结论。这将使系统对世界产生广泛的理解,从而让人类得以应对新情况。

“就新用途而言,Facebook很希望开发出具体一定“常识”水平的智能数字助理 ”他如此说道。 “这些助理拥有相应知识背景,你可以就任何话题与它们进行探讨。”然而,创建这种具有常识的计算机的想法尚处于早期阶段,Yann LeCun表示,这种更深层次的智能“不会在明天突然发生”。

“我们都希望机器能够像人类或者动物一样能够理解当世界对你的交互做出反应时会发生什么。为此,我们在因果关系的研究方面下了很大功夫,“他这么说道。 “如何在不确定性中做出预测是当今的主要挑战之一。”

Facebook是推动当今神经网络研究工作的一个重要力量。Yann LeCun周一将在旧金山举行的芯片会议上发表演讲来概述这项工作。其中就包括可以根据数据调整其设计的网络,以便能够更灵活地应对现实世界。另一个关于网络的研究途径是仅“除去”那些需要用来解决特定问题的神经元,这种方法借鉴了人类大脑的运作方式,可以有效降低功耗。其他研究工作还包括将计算机存储器添加到神经网络当中,以便在与人类进行“对话”时,可通过保留更多信息来形成更强的上下文语境。

另外值得一提的是,关于神经网络如何发挥作用的研究进展很可能对芯片的设计产生影响,给制造当今领先AI芯片的公司带来更多竞争。Yann LeCun补充说道,谷歌的TPU——已成为当今最强大的机器学习芯片 “仍然被业界普遍使用”, “然而他们的假设不一定适用于未来的神经网络架构。”

另一方面,硅设计的灵活性可能还存在其他缺点。例如,微软有计划在其所有数据中心的服务器中植入一种被称为 field programmable gate array 的新类型芯片。虽然在使用上更加灵活,然而却降低了处理大量数据时的效率,使它们在应对特定任务时在芯片处理方面处于劣势地位。

热门推荐:

英特尔神经计算棒2,将机器视觉提升到全新级别

微芯SAM R34 Xplained Pro评估套件扩展电路板特性,简化定制开发

美信MAX77278超低功耗PMIC提供高集成度的电源解决方案

恩智浦LPC54018物联网模块OM40007,让你的方案更快落地

Analog Devices EVAL-ADXL362评估板给开发设计者更多选择

原文地址: https://www.eeboard.com/news/ai-361/ ‎

搜索爱板网加关注,每日最新的开发板、智能硬件、开源硬件、活动等信息可以让你一手全掌握。推荐关注!

【微信扫描下图可直接关注】

 

相关文章