关于ZAKER 合作
硅星人 8小时前

频繁降智的 AI 产品们,就是新时代最离谱的盲盒

最近,打开 X 或者任何一个开发者社区,你都会看到类似的声音:"Opus 已经被彻底变成了植物人。"、" 同样的 prompt,两周前还完美,现在输出直接砍半。"、" 最讽刺的是按时段分配智商。下午五点是重灾区,深夜反而好用得多。"

用户们在同时抱怨同一件事,还有人制作了各种 meme 来形容这种体验。

吐槽之外,一个更深的焦虑正在蔓延。当你觉得 AI 变差了,你甚至很难判断,到底是模型本身变了,还是你看不见的某一层变了,还是你自己的使用方式变了。

" 降智 " 从体感变成了事件

Claude 是这轮风暴的中心。

4 月初,AMD AI 部门高级总监 Stella Laurenzo 在 GitHub 上提交了一份基于近 7000 个 Claude Code session 的量化分析。结论是模型在编辑文件前的阅读次数从 6.6 次降到了 2.0 次,三分之一的代码修改是 " 盲改 "。

Laurenzo 随后表示,AMD 团队已经切换到了另一家供应商,因为对方 " 工作质量更好 ",具体是哪家因 NDA 无法透露。Anthropic 方面则回应称,Opus 4.6 在 2 月切换到了 adaptive thinking,3 月又将默认 effort 降到了 medium,但否认模型本身被降级。而根据 Claude Code 的产品更新日志,4 月 7 日默认 effort 已被调回 high。

AMD 的分析引爆了社区情绪,但类似的观察早已遍地都是。

有交易员据称用同一套 1200 行交易策略文档做了对比测试。" 降智 " 前的 Opus 能完整执行所有规则,覆盖完整的场景分支和决策树。" 降智 " 后,同样的数据和指令,Opus 跳过了两个完整的策略清单,场景分支几乎消失,输出缩了将近一半。更意外的是,他用更便宜的 Sonnet 跑同一套测试,规则覆盖率反而到了 85%,高于 Opus 的 70%。

他的判断是 "Opus 没有丢失知识,它丢失的是深度。就像给一个国际象棋大师每步只留 30 秒,他不会忘记怎么下棋,但会放弃计算更深的线路。"

与此同时,Fortune 报道引述 OpenAI 内部备忘录的说法,称 Anthropic 在算力规划上犯了 " 战略失误 "。Anthropic 最近也发布了下一代模型 Opus 4.7。社区里很多人把这两条消息和 " 降智 " 联系在一起,认为这是在为新模型发布腾出算力和制造对比。

" 降智 " 可能同时发生在好几层

Claude 是这一轮最显眼的主角,但如果拉远看,"AI 变笨 " 的原因远不止一种。至少有四层问题在同时发生。

模型没换,但 " 思考预算 " 变了。 这是 Claude 争议的核心。同一个模型名,背后可能对应完全不同的 effort 档位、adaptive thinking 策略和 thinking 展示规则。Anthropic 文档写明,Claude 4 系列现在默认返回 summarized thinking,某些情况下甚至直接 omitted,但计费仍然按完整 thinking tokens 走。你看到的推理过程,和模型实际消耗的推理资源,已经不是同一个东西。跑分测的是模型在特定配置下的能力上限,用户每天碰到的,是一个会动态调整预算和服务路径的产品。

你看到的是产品名,平台控制的是真实路径。 OpenAI 官方帮助文档明确写着:GPT-5.4 Thinking 在触发 rate limit 后,会自动 fallback 到 GPT-5.4 mini,而 mini 不会出现在模型选择器里。GPT-5.1 退役后,使用旧模型的历史对话会自动续接到当前版本。Anthropic 从 3 月底开始在高峰时段调整 session 限制,部分重度 Pro 用户因此比以前更容易触发额度上限。今天的 AI 不是没有版本号,而是版本号只对平台可见。

以上说的还只是原厂服务本身的变化。更麻烦的情况是,你连自己是不是在用原厂服务都未必能确认。

这一层对中国用户尤其切身。因为地理限制和支付壁垒,大量开发者和研究者通过 API 中转站使用海外模型。今年 3 月,德国 CISPA 亥姆霍兹信息安全中心发布了一项审计研究,发现在其调查的 17 家中转站中,近半数存在模型替换行为,性能偏差最高达 47%。你付的是 Claude 的钱,跑的可能是参数量小得多的开源模型。当你觉得 AI 变差了,连 " 是不是同一个模型在回答你 " 都未必成立。

有些 " 降智 ",可能是别的问题被算到了模型头上。 长上下文导致的质量退化、agent 框架和工具链的变化、用户自身 workflow 的调整,都可能制造 " 模型变笨了 " 的体感。有开发者直接指出:" 觉得 Opus 降智的人,大部分是把 Agent 框架的问题归咎到模型上了。Anthropic 在做动态算力分配,简单问题少转几圈,难题多转几圈。不是模型变差了,是你为每次对话付的算力变少了。" 这个判断未必完全公允,但它指向了一个真实的困难,用户的体感未必错,但体感未必能直接定位到问题根源。

四层原因同时存在,互相叠加,用户面对的不是一个可以定位的 bug。

普通用户几乎无法归因

AMD 总监能发现问题,是因为她有一个工程团队和近 7000 份 session log。普通用户只有一个聊天框。

更麻烦的是," 看看模型在想什么 " 这条路也在收窄。Anthropic 现在默认对 thinking 内容做摘要甚至省略,用户界面上展示的推理痕迹已经不等同于模型实际的推理过程。你没有办法通过观察输出来反推模型到底 " 想 " 了多久、多深。

部署中的模型表现会随时间变化,而且变化轨迹不一样

今年 2 月发表在 PLOS One 上的一项纵向研究,用固定 prompt 连续 10 周追踪了多个主流模型,得出了一个很克制也很扎心的结论,部署中的大语言模型确实会发生可测量的行为漂移,但因为厂商不公开更新日志和训练细节,对观察到的退化做任何归因都纯属推测。

这才是 "AI 降智 " 这个话题真正让人难受的地方。你付了钱,你有体感,但你拿不出证据。平台知道真实模型版本、fallback 路径、reasoning 档位、thinking 是否被压缩,你什么都看不见。

被逼急的用户,各显神通

面对归因困难,用户开始自救。社区里流传的方法五花八门,有些像偏方,比如用 " 市长的女儿应该叫市长什么 "、" 我想洗车。洗车店就在 50 米外。我该开车去还是走路去?" 这类问题去测试。

另外有些确实有一定道理。最朴素的对照实验。 新对话和长对话做一次对照,如果新对话明显正常,先怀疑上下文压缩机制。官方入口和第三方入口做一次对照,先排除中间商这一层。社区已经有针对性的指纹验证工具,可以检测返回的模型是否与声称的一致。

环境变量的 " 手动抢救 "。 在程序员社区里,一组 Claude Code 配置正在被广泛传播,关闭 adaptive thinking、把 effort 设为 max、调高自动压缩阈值。有开发者说,调完之后 " 相对感觉不降智 "。这些配置本质上是用户在手动接管本该由平台自动管理的推理预算分配。

甚至有人发现,只有反复大喊 "THINK HARD" 才能拿到正确答案。 有用户做了一组测试,同一道题用不同强度的思考指令去 prompt,只有连续重复 "THINK HARD" 多次的版本才通过了。这已经不是提示词工程,更像是在和自己付费的产品讨价还价。

观察它是 " 不会了 " 还是 " 没想够 "。 这个区分比具体的 trick 更重要。如果同一个任务在调高配置后恢复正常,那问题大概率不在模型本身,而在默认配置。如果怎么调都不行,那可能真的是模型能力或中间层出了问题。

这些方法都很粗糙。但它们的存在本身就说明了用户正在用本不该由他们承担的成本,去做本该由平台提供的透明度。

AI 产品至少该有一张配料表

订阅制 AI 正在出现一种类似缩水式通胀(shrinkflation)的体验,你付的钱没变,产品名没变,但实际拿到的推理深度、稳定性和完成效率可能在悄悄变化。Anthropic 刚刚和 Broadcom、Google 签下了 3.5 吉瓦的长期算力合同,收入增长极快,但多方信息显示其算力供给仍然紧张,训练和推理的支出压力很大。

每次新模型发布前,旧模型都会被故意弄傻,这个在社区广泛流传的叙事,在 Opus 4.7 即将发布的当下尤其有市场。它未必完全准确,但厂商至今也没有给出足够的解释来打消这种怀疑。

一些行业分析师指出,所有前沿模型公司其实都面对相似的算力和成本压力,当使用规模继续扩大,节流、分层、权衡几乎是结构性不可避免的。" 算力不够 " 可以理解。但 " 算力不够所以静默降配,同时不告诉任何人 " 就很难让人接受了。平台享受了服务化 AI 的灵活性,却没有承担相应的透明义务。

食品有配料表,软件有版本号。AI 产品至少也该告诉用户你现在到底在用什么。当前真实模型版本、是否发生了 fallback、推理档位、thinking 是否被压缩。这些不是技术细节,而是最基本的知情权。

有用户在 X 上写道,"When you pay for a model, you should get that model." 有中国开发者说得更直白," 这个行业模式到最后没有人敢订阅年费会员。"

一个用户为了确认自己买到的东西是不是真货,要去学指纹验证、背环境变量、在 prompt 里连喊三遍 " 给我认真想 "。这个产品关系已经出了问题。如果行业不能主动补上这张配料表,用户要求的就不会只是更强的模型,而是监管和消费者保护。

相关标签
硅星人

硅星人

硅是创造未来的基础,欢迎登陆硅星球。

订阅

觉得文章不错,微信扫描分享好友

扫码分享