发布独立AI芯片,高通再对云端市场发起冲击

2019年04月19日 作者:satoll

上周,高通在Qualcomm AI Day活动上,公布了其专用AI芯片Cloud AI 100的开发日程,目前预定于2020年正式投入商用。高通作为移动时代的芯片业领军人物,在人工智能时代的动作确实慢了一拍,本文将分析Cloud AI 100芯片对于高通的机会和挑战,以及在系统厂商造芯越来越多的今天传统通用型芯片公司遇到的困境。

 

Cloud AI 100剑指云端市场

在高通的官方发布会上,宣布了对于Cloud AI 100的重要信息。首先,该芯片是一块专用于云端推理市场的ASIC专用加速器。该定位类似Google的第一代TPU,也和Nvidia对于T4的定位接近,即在云端专门执行训练好的模型计算,而非用来训练模型。根据高通的数据,Cloud AI 100的峰值算力将达到Snapdragon 820的50倍以上,可达100TOPS以上。其次,Cloud AI 100将使用TSMC 7nm HPC工艺,这意味着该芯片将直接面向高端市场。

高通投入这一块云端推理专用ASIC芯片,主要目的也是不希望错过大数据和人工智能时代的机会。我们都知道,高通时移动通信时代(大约1995-2015的二十年)的绝对霸主,但是当我们的科技进入大数据和人工智能时代时,高通看上去却是缺席了。在移动端遭遇苹果专利战以及华为技术赶超的今天,高通也急需找到其他市场的战略立足点以避免过于依赖移动市场带来的风险,因此高通布局人工智能市场也是情理之中。

我们知道,大数据和人工智能的计算一般发生在两个地方,一个是云端服务器端,另一个是在终端。在云端,终端设备会将数据汇集于此,供数据挖掘算法做训练,同时大量部署在云端的人工智能算法也在一刻不停地执行着各种任务,包括安防人脸识别、电商推荐系统、账户异常行为检测等等。高通对于云端大数据和人工智能市场并不陌生:在Cloud AI 100之前,高通的Centriq系列ARM服务器芯片就是其在云端服务器市场的一次试水,不过在经过数年努力之后,该产品被高通战略性放弃了。但是,放弃Centriq并不意味着高通放弃了云端市场,于是我们看到了Cloud AI 100。

那么为什么高通选择了云端推理市场而非训练市场呢?我们知道,现在云端的人工智能训练市场被Nvidia的GPU牢牢把控着,一方面GPU的性能对于训练来说并不成为痛点,另一方面Nvidia的CUDA生态环境非常强大。与之相对,云端人工智能推理芯片市场的形态还未尘埃落定。在今天的云端人工智能推理芯片市场,Nvidia的T系列还没有成为绝对的统治者,Habana等新兴初创公司正在向Nvidia发起冲击,这是因为Nvidia的GPU架构并非天生适合云端推理,GPU解决方案在能效比和延迟等指标上都存在提高的空间。

因此,高通选择了市场还存在较大机会的云端人工智能推理市场,而非已经难以挤入的训练市场。另外,高通明确表示Cloud AI 100面向的是中小型数据中心以及边缘计算,因此芯片的首要优化目标并非强大的算力而是能效比,而这个偏边缘计算的市场更是一个新兴的蓝海市场。根据高通的预估数据,到2025年,云端人工智能推理市场将达到170亿美元,而高通则希望在这170亿美元的蛋糕中切下一块。

 

高通进入服务器市场的挑战

高通在云端推理市场的挑战首先来自于已经占据先发优势的其他玩家,包括Nvidia。于2018年发布的Nvidia T4的峰值算力可达130TOPS,功耗则在70W左右,相比之下高通在2020年发布的Cloud AI 100峰值算力仅为100TOPS数量级,我们可以合理预期该算力相对Nvidia在2020年发布的下一代T系列推理GPU并不占很大优势。一般来说,即使对于边缘计算,75W也是一个可以接受的功耗数字,因此高通的Cloud AI 100必须拥有非常强的能效比优势才能说服客户选用。

Nvidia T4的性能已经超过100TOPS,将对高通的Cloud AI 100带来强烈的挑战

除了性能之外,来自Nvidia更大的挑战是生态。CUDA是目前人工智能领域的主流编程生态,其他想要挑战Nvidia的厂商都必须要越过CUDA所设下的生态壁垒。除非芯片性能远超Nvidia同类GPU且生态足够好用,否则很难说服用户放弃已经熟悉的Nvidia生态。在发布会上,高通宣布其Cloud AI 100会提供丰富的软件支持,包括完整的编译环境,以及对ONNX、TensorFlow、PyTorch、Peddle Peddle等人工智能底层框架的支持,当然这样的支持是否够好还需要届时用户试用了才能知道。

除了Nvidia之外,高通的云端推理市场最大的竞争对手其实来自于其客户,也即云服务商。虽然高通明确表示目标应用场景并非大型数据中心而是小型服务器以及边缘计算,但是事实上目前对于边缘计算布局最多的仍然是微软、亚马逊、谷歌等云服务提供商。这些云服务提供商在人工智能加速的应用上也希望能找到Nvidia之外的其他供货商,避免被Nvidia一家垄断。

看上去高通对于这些云服务商将是一个非常好的备选供货商有机会能蚕食Nvidia的市场份额,但是这些云服务商本身自己也有研发芯片的计划,这就给了高通很大的竞争压力。例如,谷歌有TPU系列人工智能加速芯片,亚马逊有Inferentia,微软有BrainWave,中国的云服务提供商如阿里巴巴和百度也都有自研人工智能加速芯片的计划。除此之外,边缘计算服务器的系统集成商也有自研芯片的动作,例如华为的边缘计算芯片Ascend系列已经在华为的服务器中开始部署。因此,高通在进军服务器市场的过程中面临着来自客户的竞争压力。

谷歌的TPU芯片已经投入实用,云提供商自研芯片将是高通的竞争对手

在这种情况下,云服务提供商(高通AI芯片的潜在客户)实际上即是运动员又是裁判员。可想而知,每个公司自己对于自己的需求是最熟悉的,因此自研的芯片对于自己的需求能最好地解决。这对于高通来说,意味着必须在技术上远超客户的自研芯片,才能获得稳定的订单,否则对于云服务提供商来说,高通可能只是排在自研芯片和Nvidia GPU后面的第三顺位供货商。

1 2

相关文章

  • 跨界合作,英特尔百度联手打造高性能AI芯片

    在百度 AI 开发者大会上,百度发布了鸿鹄芯片以及多个智能音箱新品,宣布与华为麒麟合作,智能小程序也进入新连接。 英特尔副总裁兼人工智能产品事业部总经理 Naveen Rao 也出席现场为百度打 Call,并宣布了与百度在 AI 方面的重磅合作——结合自家的专业知识,共同打造用于训练 AI 的
    2019年07月05日
  • 备胎是每个国家都应该未雨绸缪的,LG角逐人工智能芯片

    据businesskorea报道,LG电子公司开发了自己的人工智能(AI)芯片,适用于各种家用电器。该公司正寻求扩大其业务组合,包括自动驾驶汽车的电子元件。 LG电子表示,其人工智能芯片可用于各种产品,如扫地机器人、洗衣机、冰箱和空调。该款人工智能芯片配备了LG神经引擎,这是一款模仿人类大脑神
    2019年05月17日
  • 分析中国AI芯片三强:海思、寒武纪、地平线

    在5G 的架构下,AI 已是下个世代科技革命和产业变革的重要驱动力量。AI 将能催生出新的技术、产品、产业,及企业营运模式,进而引发经济结构大转变,甚至提升整体经济生产力。 不过以目前来看,AI 产业仍处于草创阶段,占整体IC 产业比重低,即使发展到2025 年,AI 产值也只能占整体IC 产
    2019年05月14日
  • 高通的崛起、鼎盛与隐忧

    高通公司是全球3G、4G与5G技术研发的领先企业,其技术专利和产品,几乎涉及了世界上所有电信设备和消费电子设备的品牌。凭借垄断性的专利和技术优势,高通在通信市场攫取了丰厚利润,但其商业模式却长期以来广受诟病。强势的高通,如今也受到了越来越多的挑战。 苹果在全球手机供应链体系中的强势,众
    2019年05月05日
  • 高通致命漏洞曝光:数十亿手机遭殃

    老牌代码安全审计机构NCC Group公布了40款内含旁路漏洞的高通芯片。 据悉,该漏洞允许攻击者窃取芯片内存储的机密讯息,漏洞或波及采用相关芯片的数十亿台Android设备。 这是一个编号为CVE-2018-11976的漏洞。NCC Group在去年3月发现并第一时间通知了高通
    2019年04月28日
tracer