Fork me on GitHub

芯片巨头跨界争霸,云边端AI芯片大变局!

  看点:AI 芯片动荡时期:云边端芯片巨头齐跨界,新一轮排位战打响。

  上世纪 80 年代,英特尔曾身陷风雨飘摇的境地。

  令人生畏的日企在存储芯片领域势如破竹,将英特尔等美国半导体公司逼至越投资越亏损的恶性循环。

  英特尔最关键的转型决定,甚至不是由英特尔所主导。大型机领导者 IBM 为了快速开辟个人电脑(PC)市场,在 1981 年向英特尔伸出橄榄枝——将 PC 微处理器订单交给英特尔,推动英特尔将产品重心从存储转移到微处理器业务,跃居全球最大的半导体公司。

  PC 时代将机遇送到英特尔面前,而英特尔引以为傲的 PC 业务,却成为阻碍它拥抱移动时代的枷锁。

  22 年后,苹果以 iPhone 掀起智能手机的狂澜,引发移动芯片版图的巨变。低耗电的 Arm 处理器开始雄赳赳的占据移动处理器市场,同时 3G 时代的到来让高通逆袭成智能手机芯片之皇。

  电子产品的演进屡屡引发芯片领域的巨变,芯片在科技和经济发展史中何其关键,谁能掌握核心技术和主流市场,谁就掌握了制衡生态的的话语权。

  历史的巧合不断上演。伴随着人工智能(AI)点燃新的蓝海市场,芯片公司 NVIDIA 率先收割深度学习的红利,叱咤 PC 和智能手机时代的半导体巨头英特尔、高通和华为也在变革中站到了新的战场,在不同的领地相遇、交战。


“云-边-端”发展示意图(图源:云计算开源产业联盟报告)

  我们复盘过去四年间,上述多家芯片巨头分别如何花式跨界云、边、端、汽车这些他们原本鲜少踏足的新战场,以及在这股跨界风潮中,中国 AI 芯片市场正扮演的关键角色。

  云端:高通看上的 170 亿美元市场

  1997 年 5 月 11 日,IBM 深蓝计算机经过六场角逐,以“两胜一负三平”击败世界象棋冠军加里·卡斯帕罗夫。这台超级计算机重 1270 公斤,有 32 个微处理器,每秒可计算 2 亿步棋。

  19 年后,谷歌 AlphaGo 以“4:1”比分战胜世界围棋冠军李世石,将冷寂已久的人工智能再次推至人们视野的焦点。不同于深蓝,将 AlphaGo 训练出超人智商的幕后功臣,并未出现在现场。

  两场人机大战,计算速度的奥妙从硬件转移至软件。深蓝是记忆大师,靠记住所有棋谱压制对手,制胜之法是能承载起庞大计算的超强硬件算力。AlphaGo 则是实战派,通过每一场对弈来汲取经验,并且能创造新的棋局来进行自训练,以远少于穷举的计算量,从一个围棋小白锤炼成超越人类棋手的大师。

  AlphaGo 的算力王牌,彼时正隐藏在谷歌云的背后。

  云计算打破传统硬件资源的疆界,实现资源利用率最大化,为 AI 走向大规模商业化应用铺下至为关键的砖瓦。

  中国最大云计算厂商阿里巴巴的 AI,每天被调用超过 1 万亿次,每日处理图像 10 亿张、处理视频 120 万小时、处理语音 55 万小时、处理自然语言 5000 亿句,服务全球超过 10 亿人。

  云计算数据中心也成为 AI 芯片起家的大本营。

  根据赛迪顾问 2019 年 8 月发布的《中国人工智能芯片产业发展白皮书》,2018 年全球 AI 芯片市场规模达 45.3 亿美元(约 317.1 亿人民币)。其中,云端训练芯片占比达 49.5%,云端推理芯片占比达 20.7%,终端推理芯片占比达 29.8%。


云端和终端 AI 芯片市场规模增速(图源:赛迪顾问)

  最有利可图的云端市场,成就了 NVIDIA 的扬名立万,指引了英特尔的转型方向,同样吸引了观望已久的终端半导体巨头高通。

  2019 年 4 月,高通发布挺进数据中心的预告片,披露 7nm 云端推理专用芯片 Cloud AI 100,号称峰值算力达 350TOPS,比当时最先进的 AI 推理解决方案每瓦性能提升 10 倍以上,比高通骁龙处理器片上 AI 计算能力提升 50 倍。

  有趣的是,NVIDIA 和英特尔这些云端大玩家走的都是通用路线,高通却另辟蹊径,选择做专用芯片 ASIC。

  通用芯片虽在性能上或许略逊一筹,但它不像专用芯片那么“挑剔”,放在任意环境都能取得几乎一致的效果。专用芯片则不然,它的电路被完全固化,或许在一种环境中效率高如“猛兽”,在另一种环境就变得十分鸡肋。

  做 AI ASIC 者往往分为两种,一种如谷歌亚马逊等云计算厂商供内部使用,一种则专注于低端市场。和此前入局 AI 芯片的玩家做比较,高通此举显得有些新奇。

  看起来,高通似乎为了实现性能更强大的 AI 芯片,放弃了对灵活性的追求。不过由于高通还未提供加速器的架构细节,也许他们在全新的架构设计中已经探索到一个平衡。

  不同机构对 AI 推理市场规模的预测差别很大,高通较认可的是到 2025 年,数据中心 AI 推理市场规模将达到 170 亿美元,没有企业不想多吞下一份大蛋糕。

  在一次视频访谈中,高通总裁 Cristiano Amon 预言到云端就是新的游戏平台,这是 Cloud AI 100 的“完美应用场景”。

  高通跨界的信心来自在移动芯片领域扎实的技术积累。作为智能手机芯片的佼佼者,它希望将其在终端推理的低功耗、信号处理技术、规模和成本优势,部分拓展到云端推理产品上,减轻移动终端 AI 处理的负荷。

  数据中心的运营商们虽然很乐意去尝试新处理器,但高通能否说服他们大规模应用 Cloud AI 100,前路还是一片迷雾。

  中国芯的种子选手,高通的老伙计

  在太平洋的对岸,华为海思比高通提早半年展露了进军云端芯片的雄心。

  2018 年 10 月,华为在全联接大会上,首秀其全栈全场景 AI 解决方案的面貌,AI 芯片品牌“昇腾”初露面就带来了两颗芯片,主打边缘计算的昇腾 310 和主打云端训练的昇腾 910。

  10 个月后,昇腾 910 正式推出,号称当时全球单芯片计算密度最大的 AI 芯片,峰值算力 256TFLOPS,最大功耗 350W。

  海思半导体 2004 年成立,此前通过在智能移动终端芯片、视频编解码芯片、多媒体芯片、基带芯片、物联网芯片等终端领域的耕耘,已经成长为中国第一大 IC 设计企业。

  昇腾 910 是华为海思切入云端 AI 芯片市场的第一枚棋。

  和高通 Cloud AI 100 显示,昇腾 910 也采用世界领先的 7nm 制程工艺。但当高通的云端芯片还在酝酿之中,昇腾 910 已快速进入落地阶段。

  高通和华为海思都是旗舰手机芯片制造商中的佼佼者,凭借过硬的技术实力争夺最强手机 AI 芯片和最强 5G 实力的殊荣。

  不同的是,高通走通用路线,将手机 SoC 芯片销售给全球有需求的企业,华为也是它的客户之一;海思则是华为的附属品,跟着华为的主战队伍前进,自研手机芯片仅用在自己品牌的手机中。

  在进入云端数据中心的策略上,华为显得比高通更加豪放,直接放出自己在 AI 芯片研发上的整体蓝图,云端训练、云端推理、边缘计算、终端推理全盘覆盖,而高通迄今为止仅透露出入局云端推理芯片的计划。

  不过,两家在云端芯片的落地方向上却似有殊途同归之势。

  高通自不必多说,即便选择研发 ASIC 芯片,大概率还是坚持通用方向,华为也开始向外部机构提供集成了其云端 AI 芯片的集群。

  今年 9 月,华为围绕“鲲鹏+昇腾”双引擎全面启航计算战略,并发布了由数千颗昇腾 910 组成的 AI 集群 Atlas 900。这一集群不仅被用于助力国际组织 SKA 探索浩渺宇宙星空,也进入了深圳鹏程实验室,作为其 AI 基础性研究平台鹏程云脑 II 的算力底座。

  从高通和华为的摩拳擦掌,足见 AI 芯片市场对芯片厂商的吸引力。

  边缘与端侧:三大玩家神仙打架

  如果说云计算和 AI 为云端 AI 芯片发展储备了优渥的土壤,那么 AI、5G 和物联网则共同促成了边缘和终端 AI 芯片的繁荣。

  从终端用户的角度,使用 AI 应用时,希望程序响应速度越快越好,同时也希望应用尽可能少受网络限制,在离线环境下也能做部分计算处理。

  从 To B 厂商的角度,随着物联网终端的快速扩张,数据爆炸式增长,网络传输和数据中心都需要边缘和终端侧的计算来减轻压力,节省开支。

  云端 AI 芯片技术门槛高且巨头云集,相对而言,边缘和终端市场犹如一片未经开垦的新地,半导体巨头和创业新秀都在摩拳擦掌。

  在边缘加速推理领域,比较能打的有 NVIDIA、英特尔和谷歌。

  NVIDIA Jetson GPU 系列在边缘计算领域广受欢迎,与其数据中心产品全面兼容,既有面向 AI 和 IoT 终端开发的 Jetson Nano,也有适用于工业和机器人用例的 Jetson TX2 和 Jetson Xavier。

  Jetson 由统一软件堆栈 JetPack 提供支持,借助这一堆栈,开发者可轻松将 TensorFlow 和 PyTorch 模型转换为 TensorRT,进而优化模型的准确性和速度。

  英特尔在边缘计算的旗舰产品是 Movidius Myraid VPU(视觉处理单元)。除了应用在视频监控摄像头中,英特尔还将 Myriad VPU 封装在小巧的 USB 驱动器中,作为神经计算棒对外出售,可以轻松插入英特尔 NUC 和树莓派中加速推理。

  英特尔打造的软件平台 OpenVINO 和 NVIDIA JetPack 类似,用于为 Movidius VPU 优化计算机视觉模型。

  谷歌边缘推理芯片 Edge TPU,以和云端的 TPU 互为补充。谷歌在打造一个自动化和简化从云端训练到部署在 Edge TPU 上全工作流程的无缝管道。谷歌也基于 Edge TPU 做了 Coral Dev Board 开发板和类似 Movidius 神经计算棒的 Coral USB 加速器。

  不过 Edge TPU 没有 Jetson 和 Movidius VPU 兼容性那么强,它是专为谷歌在边缘运行的 TensorFlow Lite 模型而设计,只支持 TensorFlow 框架。

  尽管这些边缘芯片在性能上无法与云端数据中心运行的芯片相提并论,但他们正以更高性能、更低功耗、更快响应时间,弥合数据中心和边缘设备之间的鸿沟,并帮助企业节省带宽和云存储成本。

  自动驾驶:两强争霸与剑走偏锋

  边缘计算同样被称为自动驾驶的未来。

  据 Gartner 预测,到 2021 年,全球自动驾驶车辆所用芯片的年收入将增加一倍以上,市场规模将达到 50 亿美元。

  有趣的是,自动驾驶芯片的领跑者并非恩智浦、英飞凌等传统汽车半导体巨头,而是“半道插队”的 NVIDIA 和英特尔。

  2017 年 1 月,NVIDIA 第一次对外展示其自动驾驶产品线 Drive PX 中最高阶的 AI 超级计算机 Drive Xavier,亮出其自动驾驶最强招牌。

  同年 3 月,英特尔花 153 亿美元高价收购以色列计算机视觉公司 Mobileye,两年后,Mobileye 已成为英特尔增长速度最快的业务部门。

  两个自动驾驶芯片 TOP 级玩家的“相爱相杀”就此拉开序幕,目标市场一致,细分打法却略有不同。

  NVIDIA 的自动驾驶平台希望帮助汽车在做出决策前,借由其强大的计算能力预先考虑所有的可能,主要发挥超强硬件计算速度的优势。

  英特尔的自动驾驶平台则依附于 Mobileye 摄像头,主要基于长期的目标来做决策,凭低功耗的主打优势稳坐 ADAS 前端市场的头把交椅。

  自动驾驶先驱特斯拉在推出自己的完全自动驾驶计算芯片(FSD)前,早期曾与 Mobileye 合作开发第一代 Autopilot 系统,后又改用 NVIDIA Drive PX 2 为其第二代 Autopilot 系统提供动力。

  中国新造车公司蔚来汽车则在今年 11 月刚刚宣布牵手 Mobileye 共同开发 L4 级自动驾驶。

  谷歌 Waymo 虽未与 Mobileye 合作,使用的是自己的自动驾驶软件和地图,但它也依靠了英特尔至强处理器和可编程芯片(FPGA)来提供计算动力。

  自动驾驶绝不是一块好切割的蛋糕,因为它关乎人的生命安危,安全问题的重要性被排在绝对的首位。

  就在几个月前,英特尔和 NVIDIA 在这一方面的“暗斗”变成了“明撕”。

  2019 年 3 月,英特尔高级副总裁兼 Mobileye CEO Amnon Shashua 公开发表文章《创新需要独创性》,质疑 NVIDIA 新推出的 SFF 安全模型模仿了英特尔 2017 年发布的 RSS 自动驾驶安全标准提案,并在博客中附上了 8 页分析对比双方技术相似度的 PDF。


部分 SFF 与 RSS 相似度比较

  博客中,Amnon 表示“好奇地看到 NVIDIA 创造了‘同类首创’的创新”、在阅读 SFF 白皮书后“感到像照镜子一样怪异”,还称此前 Mobileye 推出的全球首个众包地图技术 REM 和新自动驾驶类别 L2+ 也被 NVIDIA 效仿。

  随后 NVIDIA 创始人兼 CEO 黄仁勋做出回应: “他(Amnon)是个伟人,但在这件事上他是错的。”Mobileye 和 NVIDIA 都通过应用数学方法来确保汽车避免发生事故,采取的方法相似但不同。

  黄仁勋认为,自动驾驶安全应开放技术提供大量创新和新想法,而不是试图阻止创新,有很多方法可以实现安全的共同目标。

  Amnon 的质疑并没有影响到 NVIDIA 继续拓展和汽车厂商的紧密合作。在最近的 NVIDIA GTC China 大会上,NVIDIA 宣布牵手中国最大的网约车公司滴滴出行,帮助滴滴打造 L4 级自动驾驶和云计算解决方案。

  高通在汽车半导体市场的胃口也不小。2016 年 10 月,高通宣布拟以 440 亿美元收购全球最大汽车芯片制造商恩智浦,可惜最终没能通过中国监管部门这一关,该交易在 2018 年 7 月彻底“凉凉”。

  不过高通向汽车领域的挺进并未因此而终止。高通凭借骁龙汽车平台打出“极速连接+智能计算”的低功耗解决方案,以车联网为其自动驾驶和汽车业务的关键支点,还在今年 10 月联合 30 余家中国汽车产业链企业展示安全可靠的蜂窝车联网(C-V2X)直接通信技术。

  看起来,高通的芯片方案与 Mobileye 有异曲同工之处,并且在通信和 SoC 领域有专长,但鉴于 NVIDIA 和 Mobileye 已然在 AV 和 ADAS 领域领先,高通要撼动这一版图绝非易事,它在汽车安全方面的实力也有待进一步证明。

  中国,AI 芯片必争之地

  中国正成为新 AI 芯片市场争夺战中的关键市场。

  赛迪顾问 2019 年 8 月发布的《中国人工智能芯片产业发展白皮书》显示,2018 年中国 AI 芯片市场整体规模达到 80.8 亿元,同比增长 50.2%,在全球 AI 芯片市场占比最大,约占四分之一。

  更多传统企业入局 AI,推动了整个中国 AI 应用的日趋繁荣,也为精通底层解决方案的半导体巨头们带来更广阔的市场空间。

  去年中国已超越美国成为英特尔第一大市场。2020 财年前 9 个月的 NVIDIA 财报中,中国台湾地区和中国大陆加起来在 NVIDIA 总营收中的占比超过一半。高通也在首次公布云端推理时就表示美国和中国的主要云服务提供商都表示了对 Cloud AI 100 的兴趣。

  为了更好融入中国市场,今年 10 月,Mobileye 还同紫光集团在中国成立了一家合资公司,紫光持股 51%、Mobileye 持股 49%,主攻中国的智能车载市场。

  半导体巨头瞄准的早已不只是某一特定领域的战场,而是所有 AI 应用方对整体 AI 系统的需求,而串联起各硬件平台,最大化自身生态优势的关键工具,就是统一的软件平台。

  一方面,软件的优化能帮助硬件进一步提升 AI 任务计算速度,并做到兼容未来的应用。

  比如过去两年,NVIDIA 仅通过软件和库的完善就将计算机整体性能提升 4 倍,并保证 CUDA 平台未来持续升级的软件在现有硬件依然能流畅运行。

  另一方面,统一的软件开发平台将大大降低开发者门槛不仅面向硬件开发者简化流程,使开发者用一套软件就能开发云边端各类硬件,而且也为软件开发者打通从软件到芯片开发的直接路径。

  NVIDIA 借助统一 CUDA 构筑了庞大的生态壁垒,英特尔打造了统一编程方法 oneAPI 来为开发者提供跨平台、跨架构的统一编程体验,华为给开发者准备了“AI 芯片+数据库+芯片开发工具 +AI 框架 +AI 应用平台”全家桶,高通也承诺将为 Cloud AI Cloud 提供良好的软件堆栈。

  即便越来越多云计算、算法厂商对造芯跃跃欲试,他们中多数芯片产品的背后都或多或少有半导体巨头的身影,无论是从硬件技术沉淀,还是长年积累的对客户的理解,半导体巨头们都是造芯合作伙伴最佳选择。

  这场由 AI 应用需求引发的芯片革命,反过来又推动着中国 AI 市场快速扩张和繁荣。

  结语:2020 年,AI 芯片落地战升级

  回头来看,半导体巨头们在 AI 芯片领域的扩张路数不尽相同。

  有的将内部团队再划分,有的外招新团队,有的则挥金如土大肆并购,直接把成熟的公司团队及产品买下来。 

  尽管新的技术浪潮总会孕育出一批批充满活力和创新能力的新初创企业,但若论资金、技术实力、工程资源、品牌认可,在云-边-端相辅相成的 AI 芯片战场,半导体巨头们仍具有相当的竞争力。

  AI 芯片的竞争才刚刚开始,NVIDIA 能否成功守垒、英特尔能否真正协同好各计算架构,高通能拿到多少数据中心市场蛋糕,华为的 AI 大网如何与其云计算齐头并进,未来还充满变数。

  不过可以确定的是,2020 年将成为 AI 芯片落地正面较量的关键之年。

来自:
智东西(ID: zhidxcom)

作者:Johnson
原创文章,版权所有,转载请保留原文链接。