量子计算和类脑芯片可能成为改变AI的两大技术,何时能达预期?

2019年01月15日 作者:糖悦之果飞

为了实现更高级别的人工智能,各方都在寻找解决方法。在现有的技术和产品上进行优化是一种收效更快的方法,然而具有革命性的新技术更能引起关注。其中,量子计算和类脑芯片每一次的进展都吸引了大量关注,它们的发展是否已经达到预期?

AI、量子计算、类脑芯片都是很早就被提出,但AI时代对量子计算和类脑芯片的需求更加迫切。原因是传统的冯·诺依曼结构出现了瓶颈,冯·诺依曼结构中计算模块和存储单元分离,CPU在执行命令时必须先从存储单元中读取数据,所以即便CPU处理的速度再快,也要等内存。由此,基于冯·诺依曼结的AI计算面临算力提升以及“内存墙”等挑战。

冯·诺依曼结构

那么,量子计算和类脑芯片都具备引领AI发展的潜力,这两种计算方式目前进展如何?

量子计算

你以为的量子计算

量子计算机用“量子比特(qubits)”来存储数,相比现在计算机使用的经典比特,传统的二进制存储数据只能是“0”或“1”的某状态,而1个量子位可以同时存储0和1,通过量子力学实现叠加。因此,量子计算能解决目前计算机系统无法解决的问题。

当然,提到量子计算许多人可能会想到的是量子计算的超强计算能力,比如一台50量子比特的设备运算速度可达每秒1125亿亿次,秒杀目前世界最强超级计算机。当然,还有人期待量子计算实现许多当下的计算机还不能实现的问题,比如密码破解,模拟量子物理系统,模拟材料学、化学和生物学,以及解决人工智能中的很多问题。

但实际情况如何?

1980年代,量子计算机多处于理论推导状态,1994年彼得·秀尔(Peter Shor)提出量子质因数分解算法。到了2011年5月11日,加拿D-Wave 系统公司发布了号称“全球第一款商用型量子计算机”的计算设备“D-Wave One”,含有128个量子位。不过,该量子设备是否真的实现了量子计算当前还没有得到学术界广泛认同,只有证据显示D-Wave系统在运作的时逻辑不同于传统计算机。

之后,NASA、Google、IBM、新南威尔士大学、美国马里兰大学学院市分校相继在量子计算上取得一些进展,越来越多的学术机构、公司和国家加入了量子计算的竞争。2018年,巨头们的竞争更加激烈。

2018年量子计算备受关注

CES 2018上,英特尔宣布成功设计、制造和交付49量子比特(量子位)的超导测试芯片Tangle Lake。6月,英特尔称研究人员正在测试一种微小的新型“自旋量子位”芯片,这款芯片比铅笔的橡皮擦还小,是目前英特尔最小的量子计算芯片。

2018年3月,谷歌推出一款名为Bristlecone的芯片,据悉Bristlecone芯片拥有超导电路制成的72个量子比特,据称是最大的量子芯片,超过IBM的50量子比特和英特尔的49量子比特。

同月,百度宣布成立量子计算研究所,开展量子计算软件和信息技术应用业务研究,计划在五年内组建世界一流的量子计算研究所,并逐步将量子计算融入到业务中。

还是3月,微软宣布发现马约拉纳费米子的存在证据,下一步会将费米子转化为量子,并希望在2018年年底实现,并在5年内向其他企业提供可用的量子计算机。

5月,微软又在Build大会上宣布要在五年内造出一台拥有100个拓扑量子比特的量子计算机,并将其整合到微软云Azure中。

阿里巴巴量子实验室施尧耘团队也在5月宣布成功研制当前世界最强的量子电路模拟器太章。太章成功模拟了 81(9x9)比特 40 层的作为基准的谷歌随机量子电路,之前达到这个层数的模拟器只能处理 49 比特。

还是5月,《科学进展》杂志以《A chip that allows for two-dimensional quantum walks》为题报道了上海交通大学金贤敏团队通过“飞秒激光直写”技术制备出节点数达49×49的光量子计算芯片。据悉,这是目前世界上最大规模的三维集成光量子计算芯片。

9月的阿里云栖大会上,阿里CTO、达摩院院长张建锋表示达摩院已经开始研发超导量子芯片和量子计算系统。

10月,华为在全联接大会期间正式发布量子计算模拟器HiQ云服务平台,包括量子计算模拟云服务以及量子编程框架。

12月,中国科学技术大学郭光灿院士团队宣布成功研制出一套精简、高效的量子计算机控制系统。

1 2 3 4

相关文章

  • 深度学习的智能音箱可以在关键时刻救命

    据外媒报道,一些人可能认为Google Home和Amazon Echo等智能音箱会让人们变得懒散,同时不必要地为人们的生活增添电子复杂性。然而根据一项研究,智能音箱工具可能有一天能防止人们在睡觉时死于心脏骤停。 当有人正在经历心脏骤停时 - 换句话说,当他们的心脏突然停止跳动时 - 他们要么
    2019年06月24日
  • [原创] 蓝宙天枢人工智能学习套件试用报告+开箱

    收到蓝宙电子的micro:bit人工智能智能学习套件,今天打开套件先来了解下。
    2019年06月22日
  • STM32微控制器实现机器学习

    消费者对于健身跟踪器和其他个人移动设备具备“始终开启”运动跟踪功能的需求不断增长,在过去,这意味着设计人员需要在这些功能与电池寿命之间做出取舍。若是尝试降低功耗,势必会牺牲跟踪功能或分辨率,因而会使用户的体验受到影响。 不过,随着内置运动检测功能的低功耗传感器的出现,将有助于开发人员消除这一设
    2019年06月18日
  • 中国完全有实力打造自己的AI SoC

    在过去十年中,设计人员开发了各种硅技术,能够以足够快的速度运行先进的深度学习数学,以探索和实现人工智能(AI)应用,如目标识别、语音和面部识别等。机器视觉应用目前通常比人类更精确,它是推动新的片上系统(SoC)投资以满足日常应用AI开发的关键功能之一。在视觉应用中使用卷积神经网络(CNN)和其它深度
    2019年06月18日
  • IPU加速卡,让电脑加速1000倍

    AI通常被认为是挖掘大量数据集的复杂软件,但诺尔斯及其联合创始人、Graphcore首席执行官奈杰尔·图恩(Nigel Toon)认为,运行该软件的电脑仍然存在更大的障碍。坐在位于英国港口城市布里斯托尔通风良好的办公室里,诺尔斯和图恩表示,问题在于芯片本身(基于它们的功能,可分为中央处理单元CPU或
    2019年06月16日