如果你最近有在关心 AI,那你应该发现一件怪事:怎么每家科技巨头都在拼命堆显存、堆芯片、搞自己家的 AI 加速器?以前的世界,谁家有最新的 CPU、GPU 就能爽几年,现在连 Google、Amazon、Meta、微软这些传统不碰晶圆的都开始自己搞芯片,搞得像是隔壁家小孩都去补习班了,家长不跟进就怕输在起跑点上。
我们今天来拆解一张最近在圈内疯传的图表:AI 数据中心芯片路线图,从 2025 一路画到 2028,作者叫パウロ(Paulo)。你可能没听过他是谁,但内容之详尽已经被国外科技媒体拿来做深入分析了。你说准不准?我们一个个来看。
NVIDIA:显卡霸主还是 AI 教父?
先看绿厂 NVIDIA,果然稳坐王位,未来四年都有新品排程。Blackwell 架构的 B200 和 B300 是现在的当红炸子鸡,HBM3E 容量从 192 GB 飙升到 288 GB,Rubin Ultra 甚至预计搭载 576 GB 的 HBM4,堆料不手软。
更神奇的是,美国政府的出口限制也挡不住他们赚钱。专为中国市场推出的 B30,性能小幅下调但便宜三四成。这种「我不出货给你,但我可以专门做一款给你」的策略,堪称商业版孙子兵法。
AMD:当不了老大,至少也要能打
AMD 近几年在数据中心市场的存在感大增,从 MI300X、MI325X 到 MI350X、MI355X、MI400 一路上菜,拼的是节奏和性价比。特别是 MI355X,据说推理性能能追平 NVIDIA 的现役旗舰,Oracle(甲骨文)直接下单三万颗,看得出不是玩假的。
当然 AMD 还有很多坑要补,像软件适配、硬体生态。但不得不说,他们这一轮真的是憋着一口气在打,给了市场一个除了 NVIDIA 之外的想像空间。
Intel:用力了但还在起跑线
Intel 的 Gaudi3 和 Falcon Shores 也有上图,不过在热度上就像是跑 100 公尺还在热身阶段。Gaudi3 用的是 HBM2E,面对 AMD 和 NVIDIA 的 HBM3E / HBM4 简直像是拿旧相机拍 RAW 跟别人比画质。
虽然他们一直喊全栈整合策略(CPU + GPU + interconnects),但市场节奏没跟上。你现在得能跑得动 Llama 3、Claude 3、Gemini,不然人家客户直接跳槽。
巨头造芯:不想被卡脖子就自己动手
Google、Amazon、Meta 不等别人救,自己下场造芯片。Google 的 TPU 系列(v6e、v7p、v8)虽然没像 NVIDIA 每年更新一次,但自家应用像 Gmail、Gemini 都可以吃得下,形成闭环。
Amazon 也不甘示弱,Trainium 系列搞自己的加速器;Meta 的 Artemis 和 Olympus 也都上图了。他们造芯不是为了卖钱,而是为了避免被 NVIDIA 卡脖子,一次卡几亿美金的采购预算。
当然传言这些自研芯片目前还在优化期,和 NVIDIA 的成熟产品比还有段距离。但谁也不想一直当大客户被砍价,能有自己的选项当然最好。
中国厂商的应对策略:没得选但得硬上
图上也能看到华为(Huawei)、字节跳动(ByteDance)等中国厂商的布局。像华为的 Ascend 910C,就被拿来当作摆脱对 NVIDIA 依赖的旗舰产品,不过训练 LLM 的时候据说兼容性和效率还有点问题。
中国市场的需求大得惊人,只要交得出货、跑得动模型,就算性能差一点也能卖。但问题在于高端制程和 HBM 内存这些关键环节基本都被美国、日本、韩国掌控,搞到最后像是要做神户牛排却发现牛、刀、锅都买不到,只能先炒个滷肉饭压压惊。
软件生态:真正的护城河藏在代码里
讲 AI 芯片不能不提软件,NVIDIA 最强的不是硬体本身,而是 CUDA。这个开发框架就像是给工程师的毒药,一旦用了就很难戒。
AMD 的 ROCm 虽然拼命追,但生态还是太小。Google、Amazon 靠自家云生态硬推 TPU 和 Trainium,倒是比较有机会挑战传统芯片巨头。
Meta 的 PyTorch 虽然广泛使用,但底层也还得靠 CUDA 运作。所以真正的问题是:谁能做出 AI 圈的安卓?能跑各种模型又不卡生态,那才有机会打破 NVIDIA 的控制权。
小结:AI 芯片之战,其实是生态的战争
别以为买张 GPU 就能练功成仙,AI 芯片的竞争背后,是一个系统性的大战争:
- 封装和堆叠的技术谁能领先?
- 软件和硬体谁能整合成生态闭环?
- 在地缘政治压力下,谁能稳定供货、不被卡脖子?
这不只是科技圈的龙争虎斗,更关乎国家安全、企业生死。未来几年,AI 芯片的战争只会越来越凶猛。你想投哪一家?建议别只看短跑速度,也要看谁能跑到终点还活着。
