
新智元报道
过去是Claude的忠实用户,现在却直呼其为垃圾!Max计划的价格翻了二十倍,但基础功能都用不了,这让大家看清:智能体验随时可能被收回。
Claude暗降性能,终于被人发现了!
从今年二月开始,许多Claude用户明显感觉到产品变了味道,抱怨不断增多:虽然没有系统故障,但是输出内容变得更浅薄、更急于给出修改结果,简单的任务也屡次失败。

同时,过去很少见到的stop hook违规提示也开始频繁出现,token使用量激增。
你最初的反应可能是和崩溃的网友一样:“一定是我的问题。”
于是开始反思:是不是我的提示词(Prompt)不够好?还是我的工作流程变了?
在众多技术论坛中,当用户抱怨AI变笨时,官方的回答总是千篇一律——“请检查您的设置”。
而Anthropic的态度则显得暧昧不清:一直装作无事发生,直到有人用数据揭露真相——Claude的“思考深度”下降了67%!

最近又爆出一个重磅消息:Claude Opus 4.6疑似翻车,价格暴涨二十倍却性能倒退,根本无法激活对应计划模式。

原以为买到了一张通往AGI的船票,实际上,船长为了省油偷偷关掉了雷达。
Claude降智
6852次日志里的铁证
几天前,一个重磅消息打破了这种“大厂PUA”现象。
在GitHub上,AMD的AI总监直接发布了近三个月内6852次真实对话的日志记录,终于用数据量化了开发者们几周来的感受。
结论十分明确:“对于复杂的工程任务而言,Claude已经不能用了。”

AMD换了供应商。
数据显示,Claude Code的确降智了:
- 二月底思考深度下降了67%,随后Anthropic开始隐藏推理过程。
- API成本因重试激增80倍,由于浅层思考导致持续输出错误、中断和重试。
- 它不再是那个审慎行事的智者,而沦为了急于打卡下班的“赛博油条”。
- 因为他们发现,自己不是在利用AI提效,而是不断给一个不肯认真读题的模型交学费。

这种情况被称为“AI缩水”——价格不变,但推理能力明显下降。

即便花了20倍的价格购买Claude Code Opus 4.6 Max版,也没能逃脱这种命运。
两年来第一次发现,原生的规划模式(Plan Mode)无法被识别和激活。
一个项目因实现得一团糟而被重写两次。之后,Claude Code甚至认不出自己内置的 Plan Mode 工具。
遭遇“赛博鬼打墙”的用户非常失望,质疑花高价买到了什么?
显然,并没有买到智能计算和准确代码补全,甚至连基本功能都崩溃了。
一位曾经的Claude Code粉丝如今已经转黑粉,直接痛斥:
它简直成了垃圾。现在标准低到我已经在寻找Hugging Face的替代方案了。
Anthropic到底有何目的?
关键问题来了:Anthropic有没有对Claude动手脚?
这里的微妙之处在于,如果官方死咬“完全没变”,事情反而简单明了。
可是现在,Anthropic承认了两件关键事实:
2月9日,“自适应思考”功能默认开启。

3月3日,Opus4.6的默认思考等级effort被调至“中级”(medium)。
Anthropic的说法听起来很合理:
这是在智能、延迟和成本之间找到一个平衡点。
听起来非常符合大厂的话术——
不是降级,而是优化。不是缩水,而是均衡。
但对重度用户来说,他们只听懂了一句话:默认值被改了。
而默认值才是AI时代的真正权力中心。

因为绝大多数人不会天天盯着性能曲线,也不会每次手动切换高设置,更不会拿着版本记录和行为日志逐项核对。
他们购买的并不是某个看不见的参数,而是一种稳定预期。
昨天用这个模型能处理复杂仓库,今天打开它理所当然以为还是那样。
结果发现,名字没变、界面没改、价格不变,但后台那只你看不见的手却悄悄调整了设置。
再往深处看,这件事真正可怕的并不是Claude一个模型,而是它预示着整个行业的趋势。
今天所有大模型公司都在计算三笔账:
第一笔是延迟。用户嫌慢。
第二笔是成本。推理太贵。
第三笔是吞吐量。服务更多人。
这三笔账同时压来,平台会产生一种冲动——
在用户不敏感的地方悄悄收“脑力税”——把默认思考调浅一点、深入阅读压缩一点、多轮推理收窄一点。
平均看也许更划算、报表上也许更漂亮。
但对于把AI当生产工具的人来说,这是天塌了。
因为复杂工作最值钱的从来不是“输出速度”,而是质量、是理解后的动手能力。
那几秒甚至几百个Token的审慎,才是质量真正站得住的地方。
一旦这段沉默被平台拿去换利润,用户拿到的就是另一个东西了。
它还能说话、写代码,甚至还更流畅。
只是关键任务你已经不敢交给它了。
这就像一辆车,发动机还在响、方向盘也能转、油门踩下去也还能冲。只是刹车悄悄薄了一层。
登上船后才发现是泰坦尼克号
最可怕的是,未来昂贵的AI服务并不是宣传页上的跑分漂亮,而是在你下次把重要任务交给它时不会先吸一口凉气。
所以,Claude这次捅破的不只是Anthropic的一层窗户纸。
它将整个行业最不愿意被问的问题硬生生拖到了台前:如果默认thinking effort、推理预算、思考可见性会影响结果质量,AI公司凭什么可以悄悄改动?
如果这种改动会让用户多花几十倍成本返工,是否需要明确公告?是否需要稳定档位承诺?
今天Claude Code发生的事像一记响亮的耳光。
它打醒了Anthropic的用户和所有正在把工作、判断、时间越来越深地交给大模型的人们。
我们以为买到了通往未来的船票,后来才发现灯虽然还亮着,但雷达已被关掉!
最该害怕的是整个行业都认为这样做很正常。
如果一个模型可以在你毫无察觉时被调低思考深度,那么你买到的从来不是智能而是随时可能消失的体验。
这才是Claude“降智门”最冷的地方。
4月8日,Anthropic关闭了GitHub上的问题页面但没有解释解决了什么。
如果默认thinking effort、推理预算、思考可见性会直接影响结果质量, AI 公司凭什么可以悄悄改?
如果这种改动会让用户多花几十倍成本返工,需不需要明确公告?需不需要稳定档位承诺?
今天,Claude Code身上发生的事,像一记很响的耳光。
它打醒的,不只是Anthropic的用户,而是所有正在把工作、判断、时间,越来越深地交给大模型的人。
我们以为自己买的是一张通往未来的船票。
后来才发现,船还在开,灯也亮着。只是船长为了省油,已经悄悄关掉了雷达,而你不知道冰山在何处!

而真正该害怕的,不是这一艘船,是整个行业,都开始觉得这么干很正常。
如果一个模型可以在你毫无察觉时被调低思考深度,那么你买下的从来不是智能,而是一种随时可能被回收的体验。
这,才是Claude「降智门」最冷的地方。
在4月8日,Anthropic关闭了Github上的issue,但没有解释到底解决了什么。
参考资料:
https://github.com/anthropics/claude-code/issues/42796
https://news.ycombinator.com/item?id=47660925
https://x.com/om_patel5/status/2041971334553727076
