
4月24日,人工智能公司Anthropic在其技术回顾报告中承认,近期对其Claude模型进行了三项调整,导致该模型性能有所下降。然而,他们明确否认了为了节省计算资源而故意降低其智能水平的说法,并表示相关问题已经得到解决。
近来,关于Claude模型被人为削弱的质疑在AI社区内广泛流传。许多开发者和技术专家通过各种在线论坛反馈称,在处理复杂任务时,该模型的表现急剧下滑,甚至出现幻觉现象,同时Token消耗也变得非常低效。对此,Anthropic在其官方博客上做出了回应,表示公司高度重视有关性能下降的意见,并明确指出API和推理层未受到影响。
报告中提到,底层模型的权重并未发生任何改变,出现问题的原因是模型外部“封装框架”中的三项独立调整导致:
- 降低默认推理级别:为解决用户界面延迟问题,Anthropic于3月4日将Claude Code的默认推理强度从“高”降至“中”。这一改动直接影响了该模型在处理复杂任务时的能力。
- 缓存逻辑缺陷:3月26日部署的一项缓存优化措施出现了编码错误。原计划是在会话闲置一小时后清除历史思考过程,但实际操作却导致每次对话轮次结束后都执行清理动作,从而使得模型丧失了上下文“短期记忆”,输出内容出现重复或缺失。
- 提示词冗余限制:4月16日为减少Opus
这些调整主要影响到了Claude Code命令行界面(CLI)、智能体软件开发工具包(Agent SDK)以及Claude Cowork等模块,并未波及到API服务。
Anthropic承认这些改动让模型显得“智力退化”,并表示这与用户的期望不符。为了恢复市场信任,公司宣布将采取多项措施来改进其运营机制:
首先,扩大内部测试范围,要求更多员工必须使用公共版本的Claude Code;其次,在修改系统提示词之前,强制执行更广泛的模型评估和消融实验,以便准确识别特定指令的影响;最后,优化变更提示词的审计流程,确保对特定模型进行精确控制。
此外,鉴于上述错误导致的Token浪费及性能下降,Anthropic已于4月23日为所有订阅用户重置了额度,并计划通过X和GitHub上的@ClaudeDevs官方账号提供产品决策背后的深层逻辑,以此来保持与开发者群体之间的透明沟通。
(本文由AI翻译,网易编辑负责校对)
