关于ZAKER Skills 合作
虎嗅APP 11小时前

GPU 神话松动,AI 真正的战场变了

出品 | 妙投 APP

作者 | 张博

编辑 | 丁萍

头图 | AI 生图

过去两年,AI 产业最强的叙事几乎都围绕 GPU 展开。

从 OpenAI 掀起大模型浪潮,到英伟达市值飙升,再到云厂商、互联网平台和创业公司争抢高端算力,GPU 被塑造成 AI 时代最稀缺的 " 硬通货 "。谁拥有更多 GPU,谁就更接近模型能力上限,谁能搭起更大训练集群,谁就更像拿到了下一代 AI 的门票。

在这套叙事中,CPU 没有消失,但明显退居幕后。它仍然是服务器的基础部件,是操作系统、数据库、网络和应用运行的底座,却不再是 AI 故事里的主角。市场甚至形成了一种近乎默认的判断:AI 时代,GPU 吃肉,CPU 喝汤。

但到 2026 年,这个判断已经不够用了。因为 AI 产业正在发生一个更深层的变化:主战场正从训练竞赛,转向部署竞赛;价值重心正从峰值算力,转向系统效率。

这意味着,真正决定 AI 商业化速度的,不再只是 GPU 能把模型训得多大、多快,而是整套系统能否以可控成本、稳定吞吐和高利用率,把模型真正跑起来、用起来、赚到钱。

一旦竞争从 " 单卡性能 " 转向 " 端到端效率 ",CPU 就不再只是配角,而是 AI 基础设施里那个被长期低估的系统变量。

市场为何重新看英特尔?

不只是因为财报,而是因为需求结构变了。

最近一个值得注意的信号,是英特尔重新获得资本市场关注。2026 年第一季度,英特尔营收约为 136 亿美元,同比增长 7%,连续第六个季度超预期;净利润同比增长 156%。其中,数据中心与 AI 相关业务(DCAI)收入达到约 51 亿美元,同比增长 22%,成为增长最快的板块。财报发布后,英特尔股价盘后最高上涨超 40%(截至 4 月 30 日)。

如果只看公司层面,这当然不足以说明英特尔已经彻底翻身。它仍面临制程追赶、服务器 CPU 份额承压、Arm 渗透、云厂商自研芯片推进等问题。但市场还是给了它新的想象空间,原因不在于英特尔突然变成 AI 明星,而在于投资人开始意识到:AI 基础设施的需求结构,已经不再只是 " 多买 GPU"

英特尔管理层在财报会上透露,数据中心中 CPU 与 GPU 的部署比例,正从传统的 1:8 收紧到 1:4,在智能体场景中甚至可能进一步向 1:1 靠近。

这背后的含义非常明确:过去两年 AI 行业最核心的矛盾是训练能力不足,而今天越来越多企业开始面对另一组问题,模型训练完之后,如何推理、如何部署、如何扩展、如何控制成本。

也就是说,资本市场重新定价的,不只是英特尔,而是一个更深层的事实:AI 开始进入系统竞争阶段。

CPU 的重要性从何而来?

先要回答另一个问题:为什么 AI 今天的核心矛盾,已经不再只是训练。因为训练虽然贵,但对大多数企业来说,它更多是阶段性的资本开支;而推理、部署和调用,才是持续性的运营开支

训练决定模型能不能做出来,推理决定模型能不能活下去。这一变化已经有明确的数据支撑。

Deloitte 估算,推理工作负载占 AI 总算力的比例在 2023 年约为 1/3,2025 年接近 1/2,到 2026 年预计达到 2/3。IDC 预测,到 2027 年中国推理算力占整体算力比例将突破 70%。另有研究预计,到 2026 年推理带来的市场规模将是训练硬件市场的 2 到 3 倍。这些数字共同说明一件事:AI 的成本中心和价值中心,正在从 "训练一次 " 转向 " 运行无数次 "。

郑纬民院士给过一个更直白的拆分:在大模型推理成本中,人力仅占 3%,数据占 2%,算力占到 95%。他举例称,ChatGPT 的推理开销每天约 70 万美元,DeepSeek V3 每天约 8.7 万美元(按各自披露口径)。

这组数据真正说明的,不是 " 推理也很贵 ",而是一旦 AI 进入大规模使用阶段,真正吞噬利润的不是训练账,而是推理账。国家数据局的数据进一步放大了这种压力:中国日均 Token 调用量从 2024 年初约 1000 亿,跃升至 2026 年 3 月的 140 万亿,两年增长超千倍。

如果说训练是一次性把钱砸进去,那么推理就是每天都在把钱烧出去。训练贵,是研发问题;推理贵,是利润问题。而一旦问题变成利润问题,企业就不可能再只盯着模型参数和 GPU 数量,而必须开始追问:

GPU 是不是被充分利用了?哪些任务必须用 GPU?哪些其实应该交给 CPU?整套系统的吞吐率和资源利用率到底高不高?

这正是 CPU 重新变重要的起点。

很多人理解 AI 基础设施,还停留在 "GPU 越多越好 " 的阶段。但现实是,今天大量 AI 系统面临的核心问题,不是 GPU 不够强,而是系统喂不饱 GPU。

MLPerf 行业基准测试显示,在大模型训练场景中,数据加载、预处理、参数同步等环节带来的延迟,可占总训练时间的 35% 到 60%。IDC 调研则显示,即使是头部互联网企业的 AI 推理集群,GPU 平均利用率也长期低于 40%;大量中小企业的 GPU 集群利用率甚至不足 15%。

这意味着什么?

意味着今天最昂贵的 AI 资源,正在被大规模浪费。不是因为 GPU 性能不行,而是因为数据流动、任务调度、内存管理、I/O 协同、网络处理这些系统环节跟不上。换句话说,GPU 算得很快,但系统供给不上,结果就是一边拼命买卡,一边大面积闲置。

这也是为什么 CPU 的重要性,不是 " 多卖一点服务器芯片 " 那么简单,而是它直接决定 AI 系统的资源利用率和 ROI。

因为在真实工作流里,GPU 从来不是单独工作的。它前面有数据准备,后面有结果处理,中间有任务调度、缓存维护、上下文切换、网络通信、容器管理、数据库交互。这些环节里,真正承担控制流和系统协同的,主要是 CPU。

所以问题的本质不是 "CPU 能不能替代 GPU",而是如果 CPU 和系统层能力跟不上,再强的 GPU 也只是昂贵的闲置资产。

智能体兴起,让 CPU 从 " 底座 " 变成 " 中枢 "

如果说推理阶段让 CPU 重新重要,那么智能体(Agent)的兴起,则把这种重要性进一步放大。

因为智能体不是一个 " 更会聊天 " 的模型,而是一套真正要执行任务的系统。它要理解目标、拆解步骤、调用工具、访问数据库、连接 API、执行代码、维护状态、判断结果,必要时还要调用其他模型或子 Agent 协同。

在这条链路中,模型推理只是其中一环。大量工作并不是 " 算 ",而是 " 调度 "" 编排 "" 切换 "" 访问 "" 管理 "。这些工作本质上都属于控制流和系统协同,而这正是 CPU 最擅长的领域。

康奈尔大学的研究显示,在五类代表性 Agent 工作负载中,CPU 端的工具处理、逻辑调度和数据预处理,占总端到端延迟的比例高达 43.8% 到 90.6%。在典型的 RAG 场景中,CPU 处理甚至可能占到总延迟的 90% 以上,GPU 推理反而不到 10%。

这组数据的意义非常明确:在智能体时代,很多真实任务的瓶颈已经不是 GPU 算得够不够快,而是 CPU 能不能把整条任务链顺畅地跑完。

这也解释了为什么 CPU/GPU 配比正在变化。TrendForce 指出,当前 AI 数据中心中 CPU 与 GPU 的配比大约是 1:4 到 1:8,而在智能体 AI 时代,这一比例预计将逐步演变为 1:1 到 1:2。当配比从 1:8 向 1:1 收敛,本质上不是 CPU 多卖了几颗,而是 AI 基础设施从 " 计算中心化 " 转向 " 系统中心化 "。

产业反馈已经开始出现。2026 年第一季度末,Intel 和 AMD 都对部分 CPU 产品线提价,服务器 CPU 交期拉长至约 6 个月。与此同时,英伟达和 Arm 也在同一时期宣布进军服务器 CPU 市场。

一个是 GPU 巨头,一个是 IP 授权商,却在同一时间加码 CPU,这说明他们看到的是同一个趋势:未来 AI 的关键战场,不只是模型推理本身,而是围绕推理和智能体展开的整机系统能力。

当所有头部玩家都在补 CPU,说明竞争已经从 " 单芯片 " 变成 " 系统工程 "。过去两年,AI 行业有一种很强的 " 单点崇拜 ":比谁的芯片更强,比谁的参数更多,比谁的集群更大。这种竞争方式在产业早期成立,因为技术突破往往首先来自少数明星环节。

但产业一旦进入落地阶段,决定胜负的逻辑就会改变。真正拉开差距的,不再只是某个单点性能,而是整套系统能否以可控成本、可复制方式持续运行。

所以今天我们看到的,不只是英特尔受益,而是所有重要玩家都在重新补 CPU、补系统、补整机能力。英特尔希望依托数据中心生态和软件兼容,重新巩固系统层话语权;AMD 则在服务器 CPU 市场持续扩大份额,Mercury Research 数据显示,AMD EPYC 服务器 CPU 在 2025 年 Q4 营收份额已达到 41.3%,首次突破 40%。

Arm 和云厂商自研 CPU,则试图从高能效和定制化切入系统入口;甚至连英伟达自己,也在通过 Grace CPU 强化对整机架构的控制力。所有顶级玩家都在补 CPU,不是因为 CPU 突然变得性感,而是因为 AI 开始从芯片问题,变成系统问题。

如果把视角拉回中国,这轮变化的现实意义更大。中国是全球 AI 应用落地最快的市场之一。截至 2026 年 3 月,我国日均 Token 调用量已突破 140 万亿;IDC 数据显示,2025 年中国 AI 加速卡总出货约 400 万张,其中国产厂商出货 165 万张,占比 41%。

这说明,中国 AI 已经不再只是 " 模型热 "" 算力热 ",而是进入了真正的 " 调用热 " 和 " 部署热 "。这会把中国企业推向一个更现实的问题:AI 不是能不能做,而是做了之后能不能长期跑、能不能算得过来。

第一,是成本压力。

某制造企业在将智能体接入生产线时发现,每个决策步骤的推理成本高达 0.3 美元,是传统规则系统的 20 倍。这类案例真正说明的,不是智能体太贵,而是:如果系统架构不优化,AI 很容易从生产力工具变成成本黑洞。

第二,是兼容压力。

中国企业现有 IT 系统复杂,数据库、ERP、CRM、OA、工业系统长期并存。AI 如果要真正进入业务流程,必须与这些存量系统深度融合。这意味着企业需要的不是单一 " 最强模型 ",而是一套能把模型、数据库、API 和业务系统串起来的基础设施,而 CPU 承担的正是兼容、调度和运行时支撑角色

第三,是自主可控。

随着 AI 部署深化,国产 CPU、服务器、操作系统、数据库、中间件和调度软件,都会被重新放到更靠前的位置。也就是说,CPU 重新重要,不只是国际巨头的机会,也可能成为中国基础设施产业链的一次再估值窗口。

所以,如果把视角再拉长一点,就会发现,CPU 在 AI 中的重新重要,其实只是表象。更深层被重新定价的,是系统能力。

最新评论

没有更多评论了
虎嗅APP

虎嗅APP

有视角的商业资讯与交流平台

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容