文 | 半导体产业纵横
当 GPU 算力以每季度翻番的速度狂飙,当 HBM 成为 AI 服务器的 " 硬通货 ",一块被严重低估的核心部件——面向 AI 工作负载优化的 SSD,正站在产业矛盾的中心点。而当前市场的主流存储方案 HDD 与 HBM,各自存在难以突破的发展掣肘,正是这一局面的关键成因。
HBM、HDD,均不是最优解
先看 HBM,随着 GPU 算力的爆发式增长,本质上是 " 数据处理能力 " 的指数级提升。从单卡到集群,从百亿参数到万亿参数,GPU 对数据的 " 吞吐需求 " 只会越来越苛刻:不仅要快,还要稳定、无延迟,避免出现 " 算力空转 "。而这种需求,恰好戳中了现有存储方案的痛点。其次,HBM 成为 " 硬通货 ",是市场对 " 高带宽存储 " 的被动选择。HBM 的核心优势是 " 近显存级的带宽 ",能最大程度匹配 GPU 的高速计算节奏,减少数据搬运的延迟——这也是它能成为 AI 服务器标配的关键。但 HBM 的成本逻辑与 " 规模化部署 " 相悖,过度依赖 HBM 会直接推高 AI 服务器的整体成本,让多数企业望而却步。
再看另一主流存储方案 HDD。作为长期占据存储市场的 " 容量担当 ",HDD 的优势是低成本、大容量,能满足数据归档、冷存储等场景的需求。但在 AI 算力狂飙的当下,HDD 的性能短板已成为 " 致命缺陷 ":其机械结构决定了读写速度和延迟表现,完全跟不上 GPU 的算力释放节奏。AI 训练中,数据需要从存储介质快速加载到 GPU 显存,而 HDD 的慢响应会导致 " 数据等待算力 "。
由此可见,产业矛盾的核心已经非常清晰:GPU 的 " 无限算力需求 " 与现有存储方案的 " 有限适配能力 " 形成了尖锐对立。HBM 能解决 " 快 " 的问题,但解决不了 " 多 " 和 " 省 ";HDD 能解决 " 多 " 和 " 省 " 的问题,但解决不了 " 快 ";而 AI 产业的持续发展,恰恰需要一种能同时平衡 " 高速响应、海量容量、合理成本 " 的存储方案。
SSD 的价值,正在这种矛盾中被凸显出来。
AI 场景 SSD 凭什么 " 火 "
那么,面向 AI 的 SSD 需要解决哪些问题?
业内人士向半导体产业纵横表示,面向 AI 的 SSD 是为大模型训练 / 推理量身定制的 " 高性能 + 高并发 + 低延迟 + 高耐久 + 大容量 " 的专用存储,而大容量 SSD 只是 " 容量大 " 的通用存储——容量只是 SSD 的必要条件,绝非充分条件。以下是该类 SSD 的一些核心特点:
打破 CPU 中转瓶颈,让高端 GPU 算力不闲置。GPU 的核心价值在于算力输出,但这份输出能否落地,始终受限于数据传输与存储的协同能力。传统架构中 GPU 取数需经 "SSD → CPU →内存→ GPU" 多环节跳转,CPU 带宽瓶颈成为产业痛点。而面向 AI 场景的 SSD 的核心突破,正是在半导体架构层面实现 " 直连协同 ",通过接口技术,让 GPU 跳过 CPU,直接与 SSD 建立数据通道。这一改变绝非简单提速——数据搬运时间大幅缩短,GPU 不再因等待数据 " 空转 ",彻底破解高端 GPU 算力闲置的资源浪费难题,让核心芯片的性能优势真正落地。
打破 GPU 显存高端壁垒。如今万亿参数模型的训练与推理,需要 TB 级显存支撑,若单纯依靠 HBM 显存扩容,不仅会让 GPU 成本翻倍,还会受限于半导体制造工艺,让多数企业难以承担高端 GPU 集群的投入。面向 AI 应用的 SSD 被设计为介于 HBM 显存与传统存储之间的 " 类内存层 ",本质是半导体存储器件与计算器件的协同创新,既能作为 GPU 的扩展显存,又能承担数据缓存功能。该技术并非替代 HBM/DRAM,而是将存储层从内存扩展到 SSD,形成 "DRAM+HBM+SSD" 的分级存储体系,优化整体效率。
内置 DSP/ASIC,支持近存计算。GPU 既要承担核心矩阵运算这类高端任务,还要处理数据预处理、优化器状态更新等简单计算,导致宝贵的算力被浪费。而为了 AI 场景优化 SSD 内置 DSP/ASIC 计算单元,支持近存计算技术,可将这些简单计算任务从 GPU 卸载到 SSD 本地执行,实现半导体器件的 " 分工优化 "。这种协同模式,让 GPU 彻底摆脱冗余计算的束缚,专注于核心算力输出,不仅减少了数据搬运带来的延迟与损耗,更提升了整个半导体系统的算力密度。
业内人士向半导体产业纵横表示:为了 AI 场景优化的 SSD 第一次让存储本质性融入算力体系,实现数据直接参与 AI 训练与推理,完美匹配 GPU 高频并发的特点,最终提升性能、降低整体 TCO(总拥有成本)。
被抢注的 SSD,2026 年迎来放量
据悉,由于 AI 服务器推动存储需求爆发,HDD 持续大缺货,交付期限已延长至 2 年以上,云厂商 " 紧急加单 ",采购大容量企业级 SSD,部分原厂 2026 年 QLC NAND Flash 产能也被提前抢购一空。供应链人士透露,各家云厂商只能排队等待,由于 HDD 供应集中,并采取 " 依订单生产 " 模式,缺货持续加剧,有云厂商与供应商签定 2026 年长约,提前锁定 HDD 与企业级 SSD 供货来源。
因此,面向AI 时代的 SSD 已成为存储巨头、GPU 龙头与云厂商的必争赛道,全球头部存储厂商纷纷入局,并分化出两条差异化的技术路线。

在这一技术方向下,铠侠与 SK 海力士已相继公布合作进展。2026 年 3 月,铠侠宣布成功研发全新品类的超高 IOPSSSD,这款产品正是基于英伟达 "Storage-Next" 计划的需求打造,预计将于 2026 年末向特定用户提供评估样品。无独有偶,SK 海力士早在 2025 年 12 月便宣布与英伟达合作研发 AI 核心 SSD,该项目在英伟达内部沿用 "StorageNext" 代号,在 SK 海力士内部则被命名为 "AI-NP"(AINANDPerformance),隶属于 "AINFamily" 产品线。其核心逻辑是通过重构 NAND 与控制器架构,打破 AI 运算与存储间的数据传输瓶颈,满足大规模 AI 推演对数据吞吐的极致需求。据规划,SK 海力士这款产品将采用 PCIeGen6 接口,计划于 2026 年底推出初期样品,其 IOPS 性能可达 2500 万次 / 秒,实现了 8-10 倍的跨越式提升。
第二条路线,则是聚焦容量提升、性能突破,打造高性能、大容量的 SSD 产品。以三星、华为、美光为代表的厂商均在此赛道加速布局。2025 年 10 月,三星明确产品路线图:256TBPCIe6.0SSD 将于 2026 年正式推出,512TB 版本则计划在 2027 年落地;同时,兼容 CXL3.1 与 PCIe6.0 标准的 CMM-D 存储产品也即将面市,性能实现翻倍升级。
华为则在 2025 年 8 月抢先发布面向 AI 时代的高端 SSD 矩阵,包含高性能系列 HUAWEIOceanDiskEX560、SP560,以及大容量系列 HUAWEIOceanDiskLC560,其中单盘最高容量达 245TB。该系列产品的核心价值在于打破传统 AI 存储器的性能与容量瓶颈,全面提升 AI 训练效率与推理体验。
同期,美光也于 2025 年 8 月在爱达荷州博伊西发布三款基于 G9NAND 技术的数据中心级 SSD,涵盖旗舰级 9650、高密度 6600ION 及主流 7600 三大系列。凭借全球首发的 PCIe6.0 技术、业界领先的容量密度与超低延迟表现,为 AI 算力基础设施提供核心支撑。从落地进度来看,美光 9650 与 7600 系列已推出 E3.S/E1.S 形态样品,6600ION 系列 122TB 版本已于 2025 年第四季度量产,245TB 高容量版本则计划在 2026 年上半年正式上市。
从上述头部厂商的技术布局与产品路线图不难看出,2026 年正成为 AI 用 SSD 技术落地与商业化应用的关键元年。
业内人士向半导体产业纵横表示,当前 AI 用 SSD 已在三大核心 AI 场景中展现出强劲的实战价值:
第一个场景,是 AI 推理系统。无论是 ChatGPT 这类对话机器人,还是工作中的 AI 功能,都需要高频访问 KV 缓存来应对百万级并发请求。SSD 的低延迟的高响应速度,让推理更高效,而超大容量则赋予 AI" 长久记忆 ",避免重复计算,大幅降低成本;
第二个场景,是向量数据库实时检索。向量数据库是 AI 语义检索、推荐系统的核心,对吞吐量和响应时间要求极高。该 SSD 的高并发、低延迟特性,让实时检索效率翻倍。
第三个场景,是 AI 数据一体机。在海量数据训练场景中,AI 数据一体机需要兼顾性能与成本。SSD 通过性能优化与 TCO 平衡,让数据分层存储更合理,既保证训练速度,又降低硬件投入成本,成为企业部署 AI 训练平台的优选方案。
面向 AI 应用的 SSD,进入产业狂欢
过去长期把资源优先投向 DRAM 的三星和 SK 海力士,如今正积极调整战略布局,应对 AI 服务器需求激增带来的存储芯片市场新变化。
三星电子在 2024 年 9 月就已启动 280 层 V9 NAND 量产,但当时只在平泽园区部署了初期量产线,月产能仅约 15000 片晶圆。如今,随着 AI 产业推动存储需求快速上升,三星正在加速扩大 V9 产能,并将重点放在中国西安的 X2 产线。据悉,三星电子位于中国西安的 NAND 晶圆厂近期成功完成工艺制程升级,实现了 236 层堆叠的第八代 V-NAND ( V8 NAND ) 的量产。
本次制程升级始于 2024 年,旨在改造原有的 V6 ( 128L ) NAND,以提升产品性能与生产效率,增强产能竞争力。在量产 V8 NAND 后,三星西安晶圆厂的下一步瞄准了 286 层堆叠的 V9 NAND,相关生产线将位于 X2 工厂,计划在 2026 年内完成过渡并实现量产。
SK 海力士也展现出强劲的扩产势头。该公司计划在今年第二季度启动 321 层第 9 代 NAND 的转换投资,目标是在清州 M15 实现月产约 3 万片晶圆的 V9 产能。与目前约 2 万片晶圆的水平相比,这次扩产力度相当大。
铠侠表示,计划通过扩大其四日市工厂和北上工厂的生产线,到 2029 财年将产能较 2024 财年提高一倍,以满足 AI 数据中心对 NAND 闪存日益增长的需求。此外,铠侠与闪迪正计划联合在美国兴建 NAND 晶圆厂。
技术迭代的核心不仅在于架构与标准,更在于底层存储介质的优化,铠侠 CEO 柳茂知表示,QLC SSD 是 AI 行业最好的选择。尽管从 SLC 到 MLC,再到 TLC,最终到 QLC,SSD 的性能一直在下降,但随着技术的演变,2025 年 QLC SSD 的速度已经比 2017 年的 TLC SSD 快很多了。如今 QLC SSD 的顺序读写速度可达 7000MB/s 左右,性能十分强大,能够满足 AI 大模型数据存储和调用的要求。
QLC(Quad-Level Cell)颗粒之所以能成为 SSD 的主流选择,正是源于其对 AI 场景核心诉求的精准匹配。
第一、读取优化特性:QLC NAND 针对读取密集型工作负载进行了优化,而 AI 推理服务器主要负责分析和处理大量数据,访问模式以读取为主,写入频率相对较低。
第二、高密度优势:QLC NAND 具有更高存储密度,每单位成本低于 TLC NAND,使其成为 AI 服务器、云计算和大数据分析等应用的理想选择。
第三、能效提升:Solidigm 的研究表明,QLC 固态硬盘的能效比 TLC 固态硬盘高 19.5%,比混合 TLC 固态硬盘和机械硬盘高 79.5%,这对大规模部署的 AI 推理服务器至关重要。
英特尔的研究进一步证实,QLC NAND 固态盘会让 PCIe4.0 总线的读取能力达到饱和,而且具有接近 TLC 的延迟和服务质量 ( QoS ) 。正因如此,这种固态盘的响应速度相比机械硬盘高出好几个数量级。