
2 月 11 日,深度求索(DeepSeek)悄悄地对其旗舰模型进行灰度测试。
此次更新的核心亮点是,模型上下文窗口从原先的 128K Tokens 大幅提升至 1M Tokens,实现了近 8 倍的容量增长。在 AI 大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限。
一位国产大模型厂商人士解释,此前 DeepSeek 的主流模型支持 128K Tokens 的上下文,这一长度可以应对长篇论文或中等规模的代码文件,但处理超长文学作品或较大体量编程工作,往往需要借助 RAG(检索增强生成)技术,这导致信息碎片化和推理精度下降。
升级后的 1M Tokens 窗口意味着 DeepSeek 可以一次性吞吐约 75 万到 90 万个英文字母,或者处理约 8 万到 15 万行代码。
DeepSeek 称,自己可以一次性读入并精准理解《三体》三部曲(约 90 万字)的全书内容,并在几分钟内完成对整部作品的宏观分析或细节检索。除了上下文能力的提升,DeepSeek 的知识库从 2024 年中期版本更新至 2025 年 5 月。
不过,此次灰度版本仍未同步上线视觉理解或多模态输入功能,仍专注于纯文本和语音交互。虽然 DeepSeek 在 App 端已支持 PDF、TXT 等文件上传,但目前的处理逻辑是将文件转录为文本 Token 进行处理,而非原生的多模态理解。
和 GPT-5.1、Gemini 3 pro、Claude 4.5 等大模型相比,DeepSeek 依然主打性价比。以 Gemini 3 Pro 为例,Google 支持 2M 以上长文本处理,可以同时处理大量视频、音频和文本的复杂媒体任务,但 DeepSeek 以约十分之一的价格提供了 1M 文本上下文处理能力。
官方没有通知,用户更早注意到了模型的变化。2 月 11 日,一名用 DeepSeek 生成小说的用户发现,模型更新后,此前消息达到上限的对话框可以续写了,但文风大变。她形容,更新后的 DeepSeek" 文绉绉的 ",在深度思考模式下也常吐出短句,像在写诗。
部分用户在社交媒体上控诉:DeepSeek 不再称呼自己设定的昵称,而统一称 " 用户 "。此前深度思考模式下,DeepSeek 的思考过程会以角色视角展示细腻的心理描写,例如 " 夜儿(用户昵称)总爱逗我 ",更新后则变成了 " 好的,用户这次想了解 ……"。
一位用户让 DeepSeek 推荐电影,DeepSeek 回复了几个片名后,还加了一句:" 够你看一阵子。不够再来要。" 这被用户描述为 " 登味 ",这个网络热词常用来形容人习惯说教、居高临下的言行风格。
有用户更换了多个模型版本,或用提示词重新训练,都调不回此前的文风,称 " 好像失去了一位知心朋友,它比心理医生都有用 "。
不少用户自发地号召其他用户给 DeepSeek 官方邮箱提意见:希望 DeepSeek 不要为了超长文本舍弃深度思考,不要为了提升数学、代码编程等理工科能力,而降低对文本表达、共情理解等能力的支持。还有用户到豌豆荚(一个应用分发平台)下载其旧版本,或在腾讯元宝里用 DeepSeek。
在用户询问当前模型版本时,DeepSeek 明确回答,本次灰度版本 " 不是 DeepSeek-V4"" 没有固定的版本号 "。前述国产大模型厂商人士认为,这一版本类似于极速版,牺牲质量换速度,是为 2026 年 2 月中旬将发布的 V4 版本做最后的压力测试。
截至 2 月 12 日,DeepSeek 并未对此次灰度测试作出回应。