关于ZAKER 合作
钛媒体 47分钟前

AI 芯片初创公司,进入“斩杀线”?

文 | 半导体产业纵横

2026 年 Q1 的一则数据,给 AI 芯片赛道泼了一盆冷水。

全球共有 135 家企业投身人工智能处理器研发,其中 36 家是手握技术、资金与生态优势的上市公司巨头。英伟达、AMD、谷歌、亚马逊 AWS、高通、特斯拉、Meta、微软、博通、美满电子等名字,几乎覆盖了从算力底层到终端应用的全产业链布局。

剩下的 99 家,是撑起赛道创新活力的初创公司。它们大多瞄准细分场景,专攻专用人工智能加速器,Tenstorrent、Cerebras、SambaNova、Groq、Esperanto 等玩家,曾凭借差异化技术路线收获不少关注。

但赛道的淘汰赛已然拉开序幕。JPR 给出的预测直指残酷现实:到 2030 年,全球专业 AI 芯片开发商将锐减至约 25 家。

从 99 到 25,这场行业大筛选,正在倒逼每一家初创公司重新思考生存逻辑。

AI 芯片初创公司,面临四重掣肘

第一重掣肘,是资本更聚焦于头部 AI 芯片初创企业。

2023-2024 年的 AI 大模型热潮,引爆了全球算力需求。数据显示,2024 年全球 AI 领域融资总额达 5995.2 亿元,较 2023 年增长超 3000 亿元,实现翻倍式增长。

资本的逻辑是 " 算力稀缺 ",只要能做出芯片,就有望填补市场缺口,因此 AI 芯片初创公司估值水涨船高。但进入 2026 年,资本逻辑已彻底逆转,如果说以前的境遇是 " 算力不足 ",那么当下便陷入 " 炫技到应用 " 的尴尬。

本文汇总了十二家极具竞争力的 AI 芯片初创公司:

其中,Cerebras 以晶圆级芯片闻名,这是一种将整个晶圆制成单个芯片的技术,从而实现前所未有的计算密度和性能。与英伟达的 GPU 相比,Cerebras Systems 声称,他们的芯片在某些 AI 工作负载上能够提供高达 20 倍的性能提升。 尤其是在 AI 推理方面,CS-3 具有显著优势。

Matrix 专注于研发基于数字存算一体技术的 AI 推理芯片,并于去年开发出一种全新的 3D 动态随机存取内存技术实现方案,承诺将推理工作负载的性能提升 " 数个数量级 "。

Groq 推出了名为LPU 的推理芯片,专注于 AI 模型的推理环节,即让已经训练好的大模型在真实应用中高效运行。Groq 称其 LPU 在速度、低延迟和成本控制上优于通用 GPU,能够为大规模 AI 部署提供更具性价比的算力。去年 12 月,英伟达与 Groq 已达成非独家许可协议,将把 Groq 的 AI 推理技术整合进未来产品中。

上述公司几乎都被誉为英伟达的有力挑战者,但是受制于英伟达 GPU 和 CUDA 生态的主导地位,他们在争取商业客户方面面临着艰巨的挑战。这一困境也直接传导至融资领域,让曾经狂热的资本变得愈发理性。

对于多数中小 AI 芯片初创企业而言,重资产、低盈利的特点,只会更难以寻求到新的资金来源。

第二重掣肘,是云厂商自研,从客户变对手。

谷歌、亚马逊、微软、Meta 四大云巨头,过去是英伟达最大的客户,也是初创公司最渴望的 " 金主 "。但现在,它们集体转向自研 ASIC 芯片,不仅减少采购外部芯片,反而成为最强竞争者。

去年 10 月,亚马逊宣布世界上最大的 AI 计算集群之一 Project Rainier 现已投入使用。这一超级集群配备近 50 万颗 Trainium2 芯片,分布于美国境内多个数据中心。亚马逊 AWS 合作伙伴 Anthropic 已经开始在该集群上运行工作负载,这一 AI 基础设施提供的计算能力是 Anthropic 之前训练其 AI 模型所用的 5 倍以上。而到 2025 年底,Anthropic 将在超过 100 万颗 Trainium2 芯片上运行 Claude 模型的训练、推理等工作负载。

随后在 2025 年 12 月,亚马逊发布 Trainium 3,其搭载新一代 Neuron Fabric 互联技术,单台 Trn3 UltraServer 可集成 144 张芯片,总算力达 362 FP8 PFLOPs。通过 EC2 UltraClusters 3.0 架构,芯片集群规模较上一代提升 10 倍,最高可扩展至 100 万张芯片,已为 Anthropic 的 "Project Rainier" 项目提供算力支持。Karakuri、Metagenomi 等客户实测显示,该芯片可降低 AI 模型训练与推理成本达 50%。

这也意味着最起码超 100 万颗的 AI 芯片,亚马逊都可以自给自足。

今年 1 月,微软宣布推出 Maia 200。微软声称,新产品的 4 位浮点(FP4)性能比 Trainium 3 高出 3 倍,8 位浮点(FP8)性能超过谷歌第七代 TPU。

谷歌则宣布将 2026 年 TPU 芯片出货量目标大幅上调 50% 至 600 万颗。4 月初,Anthropic 与谷歌、博通签下最新协议,根据协议,Anthropic 将从 2027 年起获得基于谷歌 TPU 处理器、由博通提供的约 3.5 吉瓦 AI 算力支持。此次合作延续了双方的战略布局:2025 年 10 月,Anthropic 已宣布与谷歌扩大合作,计划部署多达 100 万枚 TPU(算力超 1GW)支持 Claude 模型需求。TPU 作为谷歌自研 AI 芯片,除自用外,大模型厂商(如 Meta)也积极采用,凸显其在高性能推理与训练场景的竞争力。

这一合作也代表了 AI 算力市场的结构性演变:在英伟达 GPU 主导的 " 第一供应链 " 之外,由谷歌 TPU 和博通制造能力结合的 " 第二供应链 " 正在形成。

第三重掣肘,是传统 AI 芯片龙头的全方位碾压。

英伟达、AMD、英特尔凭借深厚的技术积累和生态壁垒,对初创公司形成降维打击。

英伟达在 AI 芯片市场的市占率达九成,已构建了无法撼动的 CUDA 生态护城河。并不止于此,正如上文所言,英伟达还与 Groq 达成非独家许可协议,将把 Groq 的 AI 推理技术整合进未来产品中。在今年 3 月的 GTC 大会上,英伟达还发布 Blackwell Ultra GPU,推理算力提升 100 倍。可以说不论是生态、还是算力、亦或是差异化路线,英伟达皆有布局。

AMD 凭借 MI300 系列在性价比上突破,拿下了更多的市场份额,英特尔联手 SambaNova 专注于 AI 推理和训练芯片及相关软件的研发。

第四重掣肘,生态的壁垒是初创公司难以逾越的鸿沟。

AI 芯片不是孤立的硬件,而是 " 芯片 + 工具链 + 框架 + 模型优化 " 的完整生态。英伟达 CUDA 拥有数百万开发者,支持几乎所有 AI 框架和模型;AMD 凭借 ROCm 不断追赶;云厂商自研芯片与自家云服务深度绑定。而九成的初创公司只有芯片,没有完整生态,客户要适配新芯片,需投入大量人力重构代码、优化模型,迁移成本极高,这直接让多数客户望而却步。

AI 芯片的未来,留下哪一条路线 ?

自 2025 年起,AI 芯片需求发生关键转向:2025 年前行业重心偏向训练端,核心是海量算力支撑大模型爆发式迭代;如今 AI 产业正转向重推理端,因为大模型研发已趋于平稳,商业化落地便成为核心,随着高效、低成本、低延迟成为算力核心诉求,这也重塑了国外 AI 芯片初创企业的生存逻辑。

当前主流的 AI 芯片路线主要包括 GPU 和 ASIC 等。

GPU 路线的代表企业包含英伟达、AMD 等。GPU 凭借并行计算能力强、通用性高的优势,成为 AI 训练与推理的主流选择,尤其是通用 GPU(GPGPU),能够适配绝大多数 AI 模型与场景,无需针对特定场景进行定制化开发,这也是其能够快速普及的核心原因。但正是这种 " 通用性 ",让 GPU 路线成为初创公司最难突破的赛道。这也正对应上文的 " 第三重掣肘 ",留给初创公司的市场空间本就有限。

当前,初创公司布局 GPU 路线主要分为两大方向:一是高端通用 GPU 的 " 性价比 ",二是细分场景专用 GPU,实现精准卡位。前者方面,比如国产芯片公司壁仞科技、沐曦科技便已推出研发性能接近英伟达 H100、H20 等,且更具成本优势的产品,同时凭借本土供应链优势,已实现规模出货。后者方面,部分公司打造 " 场景专用 " 的 GPU 产品,避开与巨头的正面竞争。比如聚焦自动驾驶场景的初创公司,针对车载环境的低功耗、高可靠性需求,优化 GPU 的功耗控制与实时性,打造车载专用 AI GPU;聚焦边缘计算场景的初创公司,则精简 GPU 架构,降低功耗与体积,适配边缘设备的部署需求。

再看 ASIC 路线,根据 Marvell 预测,2023-2028 年全球 AI ASIC 市场规模将从 66 亿美元跃升至 554 亿美元,年复合增长率达 53%。

该路线是 AI 芯片初创公司突围的核心路径,也可分为三大方向:第一类是提供极致性能的 ASIC 产品,比如上文提到的国际 AI 芯片公司 Cerebras、Groq,它们放弃通用路线,针对超大规模 AI 训练、低延迟推理等极端场景,定制开发 ASIC 芯片。第二类和 GPU 场景类似,是提供细分场景专用的 ASIC 产品。比如上文提到的 Matrix,针对 AI 推理的存储瓶颈,开发全新的 3D DRAM 技术。第三类是通过与头部客户绑定,直接为其定制芯片。比如 SambaNova 便选择与英特尔合作,为英特尔 x86 生态定制专用 AI ASIC 加速卡,打造 "CPU+ASIC" 的协同方案。

在 AI 芯片初创公司中,选择 ASIC 路线的企业占比超六成,但不同细分方向的发展逻辑截然不同。比如上述三类公司中:

第一类 AI ASIC 芯片公司能够解决巨头芯片无法覆盖的极端场景需求,但是这类公司如若无法成为细分领域绝对龙头,则可能面临被巨头收购或投资的情况,从而成为其技术补充。

第二类 AI ASIC 芯片公司核心逻辑是 " 场景深耕 + 技术优化 ",无需追求极致的通用性能,只需精准匹配行业需求,就能在细分场景中获得生存空间,同时由于场景聚焦,生态建设成本低,客户迁移成本也相对较低,更容易实现规模化盈利。

第三类 AI ASIC 芯片公司的核心优势在于 " 生态绑定 ",无需独自面对市场竞争,借助巨头的资源实现生存与发展,同时通过定制化开发,避免与巨头正面竞争,成为巨头生态的 " 补集 ",这也是最稳妥的 ASIC 突围路线之一。

未来,AI 芯片市场或将朝着 " 异构融合 " 方向发展,GPU 与 ASIC 并非相互替代,而是通过合理搭配实现算力效率最大化。回到 "99 进 25" 的淘汰赛,无论是选择 GPU 路线,还是 ASIC 路线,核心都在于精准定位——立足自身资源与能力,避开巨头核心优势,要么在 GPU 路线的细分场景或性价比领域寻找缺口,要么在 ASIC 路线的场景定制或生态绑定中构建壁垒。

那么,将目光落在国产 AI 芯片公司,这些公司在过去一年过的如何?

国产 AI 芯片公司,黄金窗口期

国产 AI 芯片的光景,似乎过的还不错。随着 AI 应用全面渗透,高性能计算芯片需求激增,国产 AI 芯片迎来发展黄金窗口期。

其中海光信息2025 年营收约 143.77 亿元,较上年同期增长 56.92%;归母净利润 25.45 亿元,同比增长 31.79%。

寒武纪实现营收 64.97 亿元,达到 453.21%,归母净利润 20.59 亿元,同比增长 555.24%,终于实现扭亏为盈。云端产品线是寒武纪的绝对收入支柱,2025 年实现收入约 64.76 亿元,同比增长 455.34%,占总营收的比重超过 99%;边缘产品线实现收入约 339.39 万元;IP 授权及软件业务实现收入约 228.87 万元。

沐曦股份2025 年实现营收 16.44 亿元,同比大幅增长 121.26%;实现归母净利润 -7.89 亿元,较上年同期 -14.09 亿元收窄 43.97%,这是该自公司成立以来首次实现亏损幅度收窄。财报表示,2025 年收入增长主要因为随着产品及服务获得下游客户的广泛认可与持续采购,GPU 产品出货量显著增长。其中,沐曦股份的训推一体 GPU 板卡(曦云 C 系列为主)销量达 33649 片,同比增长 147.31%,而智算推理 GPU 板卡销售量则为 4946 片,同比增长达到 866.02%。

壁仞科技2025 年营收为 10.35 亿元,较上年同期的 3.37 亿元增长 207.2%,毛利为 5.57 亿元,较上年同期的 1.79 亿元增长 211%;毛利率为 53.8%。

摩尔线程2025 年营收为 15.06 亿元,较 2024 年同期增长 243.37%。归属于母公司所有者的净利润为 -10.24 亿元,与上年同期相比,亏损收窄幅度为 36.70%。

天数智芯实现总营收 10.34 亿元,同比大增 91.6%;毛利 5.58 亿元,同比飙升 110.5%。2025 年,其通用 GPU 产品产生的收入达到 9.23 亿元,同比增长 149.6%,占同年总收入的 89.3%。其中,专为满足 AI 模型训练需求而设计的天垓系列,收入为 5.84 亿元,同比增长 116.7%,而专为云端及边缘推理应用而设计的智铠系列,收入为 3.39 亿元,同比增长 238.2%,收入贡献占比也由 2024 年的 18.6% 增长至 32.8%。

随着国产算力需求的提升,以及各家技术研发的逐步深入,当前,国产芯片厂商正在不断分食英伟达的在华市场。根据 IDC 最新报告,国产 GPU 与 AI 芯片厂商的市场份额首次攀升至 41%,而英伟达在中国市场的占比从过去近乎垄断的 95% 急速滑落至 55%。

IDC 的数据显示,2025 年中国 AI 加速卡总出货量约 400 万张。英伟达仍以约 220 万张、55% 份额位居第一,但相较此前近乎 95% 的绝对霸主地位,这一变化堪称断崖式的下跌。

IDC 分析指出,中国本土 AI 芯片市场迎来重大格局转变的原因主要在于:美国出口管制切断中国获取英伟达高端芯片渠道,而同时中国国内对供应链自主化的迫切需求,共同推动本土国产芯片快速上量,特别是 2025 年中国 AI 新基建与智算中心集中落地,采购倾向国产化,成为本土芯片增长的核心动力。

相关标签

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容