关于ZAKER Skills 合作
钛媒体 36分钟前

重新被需要的英特尔

文 | 象先志

吴泳铭在上月阿里财报会上,提过三个阿里云未来增长的最大动能:MaaS 公有云,企业级内部推理和训练市场,以及以 CPU 为主的传统云计算需求。

前两个方面非常清晰,随着模型应用越来越广泛,云厂商既提供直接的 Token API 售卖,也支撑有更强能力和需求的企业做训练和推理。

第三个增长方向,相对来说没那么耀眼,但趋势正在被进一步验证。云计算产业链的上游,英特尔迎来顺风局。

过去几个季度,这家公司逐步走出此前的低谷。

以 2026 年第一季度为例,英特尔实现营收约 136 亿美元,同比增长约 7%。

其中,数据中心与 AI(DCAI)业务收入约 51 亿美元,同比增长超过 20%,成为最主要的增长来源。相比之下,PC 相关业务整体仍然处在相对平稳甚至略有波动的区间,已经不再承担增长引擎的角色。

利润端的情况更复杂。

GAAP 口径下,英特尔仍录得约 37 亿美元的净亏损;但在非 GAAP 口径下,公司已经恢复到每股约 0.29 美元的盈利水平。

两者之间的差异,主要来自重组费用、股权激励以及部分一次性项目的调整,而不是日常经营成本本身。

现金流和支出结构也能反映出当前阶段的特征。英特尔仍在维持较高的资本开支强度,用于推进先进制程和扩建产能。

这意味着公司当前改善并不是单纯 " 收缩成本 " 中实现的,而是在投入仍然较高的情况下,由需求侧主导的修复。

市场的反应相对直接。

在连续几个季度表现好于预期之后,英特尔股价出现明显修复。投资者开始重新评估这家公司在 AI 周期中的位置,也开始重新讨论它的长期叙事是否需要调整。

老英的顺风局

把英特尔最新一季财报拆开看,这一轮回暖其实可以被更清晰量化。

2026 年第一季度,英特尔实现营收 136 亿美元,同比增长约 7%,同时明显超出市场预期(约 124 亿美元) 。这是公司连续第六个季度跑赢市场预期,意味着需求端的改善已经具有连续性,而非仅仅单次反弹。

其中客户端计算(CCG)收入约 77 亿美元,同比增长 1%。数据中心与 AI(DCAI)收入约 51 亿美元,同比增长 22% 。

这两个数字放在一起看,很容易看出主导关系已经发生转移。

PC 业务仍然是最大体量,但几乎不再提供增长。真正推动整体收入上行的力量,是数据中心和 AI 相关业务。

DCAI 这一块不仅增长快,而且质量高:收入同比增加约 10 亿美元(从约 41 亿到 51 亿),经营利润率显著改善(接近 30% 水平) 。

再看利润端。GAAP 每股亏损:-0.73 美元;非 GAAP 每股收益:+0.29 美元

制造端持续投入,折旧和前期成本较高,同时仍在消化过去几年的重组费用。

英特尔现在的状态是核心业务已经恢复赚钱能力,但整体仍被制造转型拖累。

Foundry 收入约 54 亿美元,同比增长约 16%,仍处于亏损状态 。 (Foundry 里有大量是给 Intel 自家产品部门 " 内部制造 " 的分部收入,合并报表时必须抵消,不能当成外部客户收入和其他业务相加。)

这在当前阶段并不意外。

先进制程的推进需要持续投入,叠加过去几年积累的重组成本,使得 GAAP 口径下仍然承压。这种状态更像是一个 " 中间阶段 ",需求已经恢复,但成本结构还没有完全调整完成。

好在顺风局还在持续。公司在财报和电话会中反复提到:服务器 CPU 需求强劲,AI 相关负载带动通用计算需求,多个大客户签订长期供货协议。市场层面已经有更直接的表现,服务器 CPU 价格上涨、供给趋紧 。

现任掌舵人陈立武在 2024 年底正式接任英特尔 CEO。

相比此前的管理层,他的背景更偏向 EDA 和半导体生态(长期执掌 Cadence),在产业链协同和资本配置上经验更深。上任之后的一年时间里,他的动作没有特别激进,但方向清晰。

2025 年初开始,公司逐步推进组织收缩,减少非核心项目,降低内部复杂度。

与此同时,裁员和成本控制持续推进,属于过去几年重组的延续,但执行上更明确。资源配置开始明显向数据中心和企业侧倾斜,消费端和一些边缘业务的优先级被下调。

这样看来 AI 是真坏呀。夺走了显卡,夺走了内存,夺走了 CPU,还可能要夺走我们的工作。

另一个变化体现在执行节奏上。过去几年,Intel 同时推进多个方向,从 GPU 到代工,再到不同制程路线,整体节奏比较分散。

管理层调整之后,重点开始回到既定路线本身:优先保证数据中心产品的推进节奏,同时把制程节点按计划落地,而不是不断扩展新的尝试方向。

这种变化不一定会立刻体现在某一个指标上,但会逐渐反映在产品交付和收入结构中。

AI 也跟 CPU 有关

AI 产业最早的爆发,集中在模型训练。算力需求集中释放,对性能的要求极高,资源呈现出明显的集中使用特征。这也是为什么 GPU 在过去两年成为绝对核心。

但当模型开始进入大规模使用阶段,计算的形态发生了变化。训练只是大模型产出的起步环节 ,AI 系统不可能训练完成就结束。模型需要被嵌入到具体业务中,接受用户的访问和请求,成为长期运行的基础设施。

一般的 AI 应用,它不需要极致算力,但需要持续处理大量请求,每一次对话都涉及模型调用、数据读取和状态维护。想想过去那道做开发的经典面试题,浏览器输入网址敲下回车后发生了什么。

从龙虾到爱马仕,一个 agent 往往不只是调用模型生成文本,还会执行完整流程:查询数据库、调用外部接口、处理结果并写回系统。这类任务更接近传统软件系统,而不是生成式计算。

这些场景带来的变化,意味着时间维度上,计算不再集中在短时间内,而是长期持续运行。负载形态上,请求数量在增长,但单次计算强度相对稳定,系统负载更加平滑。

算力需求从 GPU 到 CPU 和其他传统计算设施的溢出就自然发生。

GPU 仍然承担训练和推理任务,但大量基础工作还是得由通用计算资源完成。CPU 负责调度和控制,内存和存储支撑数据访问,网络负责连接各个模块。

整个系统更像一个持续运转的基础设施,而不只是一台专门用于高性能计算的机器。当 AI 的增长越来越体现在 " 使用频率 " 和 " 运行规模 " 上时,通用算力的重要性就会随之上升。

比如相较于放在家里时刻开机的 Mac mini,云端 Linux 实例配置方便得多,而且成本算下来更低。

在服务器体系中,其实本来大量传统计算并不发生在 GPU 上,而是围绕数据处理、任务调度和系统运行展开,只是过去一段时间被训练需求高峰的突出性所掩盖。

英特尔在这一层有很深的积累,Xeon 仍然是主流服务器平台之一,公司也在强化这一方向,通过产品更新和资源倾斜,优先满足数据中心需求。

制造能力是另一个需要单独看的变量。

英特尔仍然保留自有工厂,这是和大多数芯片设计公司不同的地方。在需求持续扩大的情况下,产能本身会成为约束条件之一。能够在内部保障一部分供给,对数据中心客户来说,是一个现实的优势。

不过,这种优势目前还不完整。

英特尔自身已经进入混合制造模式。以新一代客户端产品为例,不同模块分别采用自家工艺和台积电制程。在 GPU 和 AI 加速器方向,对外部代工的依赖更为明显。这意味着,公司在先进制程上的能力仍在追赶过程中。

Foundry 业务代表的是一个长期方向,既会对利润形成持续压力,也增加了整体不确定性。

坦率的说,追赶台积电或者保证现有制程差距不扩大,如果你将其理解为制造业的一类细分行业,那英特尔的胜算可能不是那么高。

如果没有来自非商业因素的压力,我真怕老英随时步 AMD 的后尘,随时撂挑子不做了。

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容