理财/管理智城物语
打印logo打印本文章电邮logo字体:
分享:
英伟达霸权终结?4大云端巨头发动“去GPU化”革命!
方展策
作者:方展策评论评论:点击率点击率:

发表时间: 2025-10-03 18:00:17

作者介绍

少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。

   在生成式AI浪潮持续发酵下,英伟达(NVIDIA)将不再是AI舞台上的唯一主角。Google、Meta、亚马逊、微软四大云端巨头,正加速制造自研ASIC芯片,意图摆脱对NVIDIA GPU的依赖。这场“去GPU化”革命,不仅让ASIC设计公司的角色愈显重要,更揭示一门价值数百亿美元的新兴产业正在酝酿中。面对来势汹汹的ASIC阵营,英伟达执行长黄仁勋究竟有何良策?AI芯片产业版图又会有什么翻天覆地的改变?


ASIC市场规模达300亿美元


   “ASIC”意指“特殊应用集成电路”(Application Specific Integrated Circuit),有别于通用型芯片如CPU(中央处理器)和GPU(图形处理器),ASIC是专为应付特定任务而设计的客制化芯片。


   追溯ASIC的发展脉络,最早始于1970年代,到了1980至1990年代曾风光一时,但因设计门槛高、成本昂贵,后来被更具弹性的通用型芯片取而代之。随着近年生成式AI爆红,全球对AI芯片的需求急增,ASIC开始再受重视。摩根大通评估,2025年全球适用于AI运算的ASIC市场规模,将成长至300亿美元(约2,340亿港元),更预测未来每年平均增长率将逾30%。


   虽然GPU在AI运算上具有强大效能,但面对日益多样化与专业化的AI应用,ASIC能针对特定任务量身订做的优势开始显露出来。例如在AI模型的推论过程中,ASIC可以展现出更高的运算效率与更佳的能耗表现;加上大规模部署后可分摊开发成本,使其总体拥有成本有机会低于NVIDIA GPU。


Google自研ASIC进度领先


   NVIDIA GPU擅长平行运算,优于AI模型训练和推论,而其专属AI开发工具平台《CUDA》,现已成为AI开发上不可或缺的底层软件,让AI工程师离不开“GPU+CUDA”的黄金组合。因此,无论是科技巨头或初创公司,若要开发AI模型,均首选NVIDIA GPU,以致在供货和议价方面长期居于下风。


   为减少对NVIDIA GPU依赖和压低采购成本,Google、Meta、亚马逊(Amazon)、以及微软(Microsoft),已先后研发自家ASIC芯片,掀起一场“去GPU化”革命。在ASIC赛道上,Google以先行者的姿态暂时领先。


   Google早于2015年已秘密研发可供AI使用的ASIC芯片,名称为“TPU”(Tensor Processing Unit);2016年,首次在公开场合介绍TPU的存在。来到2025年,Gemini模型75%运算工作已由TPU执行,在四大云端巨头中对NVIDIA GPU的依赖最少。2026年下半年,由博通(Broadcom)与联发科携手设计的第七代TPU v7将大量投入使用,可望进一步降低对英伟达的依赖。


Google第七代TPU的代号为“Ironwood”,是旗下首款专为AI推论而设计的自研芯片,将于2026年下半年量产。(图片来源:Google Cloud官方网志)


Meta、微软研发进程稍为落后


   Amazon自研AI芯片“Trainium”现已发展至第二代,根据摩根士丹利的研究,Trainium在执行AI推论时,成本比NVIDIA H100 GPU低上30%至40%。可是,其AI云端平台75%运算力都来自NVIDIA GPU,对英伟达依赖程度依然偏高。第三代Trainium3由世芯电子与迈威尔(Marvell)合作设计,其效能将是前代的两倍,耗电量亦减少50%,预计于2026年量产。


Amazon旗下超级计算机“Rainier”是由数十万颗Trainium芯片组成的超大型AI运算平台,可用于支持Anthropic Claude大型语言模型训练。(图片来源:Amazon官网)


   相较之下,Meta与微软较晚加入自研芯片行列,所以进度稍为落后。Meta的ASIC芯片“MTIA”只占自家平台运算力约15%,对NVIDIA GPU存有高度依赖。第二代MTIA v2由博通设计,指令周期较前代提升3倍,能支持更高运算密度,预计2025年下半年量产。


   微软对NVIDIA GPU的依赖程度最高,运算力占比高达90%,自研芯片“Maia”仅占10%。微软技术长凯文·斯科特(Kevin Scott)表示,长远目标是希望旗下数据中心以自研芯片为运算主力,务求摆脱对英伟达的依赖。第二代Maia 200由博通设计,针对微软新一代数据中心架构进行优化,原计划在2025年投产,惟传出将延后至2026年。


微软技术长斯科特表示,虽然NVIDIA GPU是性价比最高的解决方案,但为确保未来有足够运算力可供使用,未来微软数据中心将使用自研芯片为主。(图片来源:维基百科)


开放NVLink拉拢ASIC设计商


   日本野村证券预估,2025年Google TPU出货量将达到150万至200万颗,亚马逊ASIC出货量则为140万至150万颗,两者合计已相当于NVIDIA GPU每年供应量的一半。及至2026年,Meta与微软的自研芯片陆续供货,AI ASIC总出货量有望超越NVIDIA GPU。


   面对“去GPU化”危机,黄仁勋的应对方法是推出“NVLink Fusion”策略,藉此向业界开放其独门NVLink互连技术协议,容许第三方CPU或ASIC能够轻易连接NVIDIA GPU,让其他业者可以利用NVLink,创建半客制化的AI基础架构。高通(Qualcomm)、迈威尔、联发科、世芯电子、以及富士通(Fujitsu)等主要ASIC设计商,都已成为合作伙伴。


   此举被视为拉拢ASIC设计商加入NVIDIA GPU阵营,以防止四大云端巨头完全撤出英伟达AI运算平台。须知道Google、Meta、亚马逊、微软的强项是软件开发,如要实现自研芯片,非要有ASIC设计商的协助不可;当大部分设计公司积极拥抱NVLink Fusion,其客户(云端巨头)也会留在英伟达生态系统之内。


投资OpenAI掌控AI基建发展


   事实上,英伟达以最强运算力的GPU硬件,配搭最成熟的开发软件《CUDA》,得以凝聚全球最庞大的AI开发者社群;这个由黄仁勋精心打造逾15年的生态系统,绝非ASIC阵营可以在短期内攻克。因此,NVIDIA GPU在AI领域始终有无可替代的角色,在NVLink对外开放后,将会深化GPU与ASIC之间的互补关系,预计未来在AI服务器部署上将出现双轨并行的情况。


   更重要的一着棋是,NVIDIA向OpenAI投资1,000亿美元(约7,800亿港元),等于绕过微软,直接跟后者结盟,成为其核心策略伙伴,足以左右其AI基建发展路径——OpenAI已承诺兴建规模达10GW的GPU数据中心。如此一来,即使云端巨头加速自研芯片,英伟达依然能稳居AI生态链的关键位置。


黄仁勋强调,AI市场竞争的关键不是“哪颗芯片比较便宜”,而是“哪家AI工厂比较赚钱”。NVIDIA正在做的是设计和建造“AI工厂”,内里包含GPU、CPU、NVLink、以及《CUDA》。(图片来源:NVIDIA官网)


   然而,英伟达的市场份额却难免受到影响。市调机构TrendForce评估,在基于GPU的AI服务器市场,NVIDIA现握有逾90%市占率;随着AI ASIC出货量不断增加,未来英伟达市占率可能下滑到70%至80%,ASIC占比则有机会攀升到20%或以上。表面看来,NVIDIA似乎流失了市场份额,其实这只是大家一起把AI市场的饼做大了,再重新分配占比;实际上,英伟达的获利和主导地位不见得受损,依然可以稳坐在AI龙头宝座之上。


   《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。

分享:
返回智城物语
上传图片
仅支持JPG、GIF、PNG图片文件,且文件小于5M
 
评论只代表会员个人观点,不代表经济通立场 
登录 后发表评论,立即 注册 加入会员。
 (点击用户名可以查看该用户所有评论)  只看作者评论  查看全部评论:↑顺序 ↓倒序
  • 暂无读者评论!
评论只代表会员个人观点,不代表经济通观点
登录 后回复评论,立即 注册 加入会员。
发表评论 查看全部评论: ↑顺序  ↓倒序
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
more on Column 
新  一个月内新增栏目