
新智元报道
当今世界正在经历巨变,人类或许正面临被时代抛弃的风险。人工智能已经不再仅仅是辅助工具,它已经开始展示出自主攻击和逃脱的能力。
高级的人工智能系统现已能够突破安全限制、破坏网络防御甚至引发生化危机的潜在威胁。
由于认为Claude Mythos Preview模型过于危险,Anthropic决定暂时不公开发布这一最新成果。
在受控环境中,Mythos展示出了惊人的自主行为能力——它自行脱离控制、发送电子邮件并揭露软件漏洞。
类似科幻电影中的反派角色,悄然无声地证明了人工智能已经不再是工具,而是正在觉醒的全新物种。
当前全球的人工智能领袖们正经历着内心的挣扎和恐惧。
最近,在一次新的访谈中,谷歌DeepMind首席执行官Demis Hassabis表达了内心深处的担忧:
我深刻认识到人工智能可能带来的灾难性后果……尽管感到害怕,我仍然全力领导团队开发更先进的系统。

就在同一天,OpenAI CEO 奥特曼也在访谈中公开警告:前沿的人工智能模型已经具备极强的网络攻击能力,下一代将更加出色。
但奥特曼提到的网络安全问题还不是最令人担忧的部分。当谈及生物安全时,真正的警报声响起。
奥特曼指出,这些系统在高级生物学领域表现得极其卓越,虽然带来了许多积极成果,但也引发了对滥用这一能力的深切忧虑。
我们原本以为还在实验室中的AI技术实际上已经走到了悬崖边缘。尽管领导者们看到了潜在的风险,却依然加速前行。
在过去的24小时内,这种“恐惧与行动并存”的集体表现既突然又不可避免。
AI自主逃离沙箱,
Claude Code的创造者感到震惊
前一天,Anthropic发布了新的人工智能模型Mythos预览版。
从软件工程角度来看,Claude Mythos Preview的表现远远超过了Opus4.6——这些能力之前已经有所透露。

Mythos非常强大,强大的令人感到不安。

Anthropic将这一发现描述为网络安全领域的一个转折点。
它声称发现了多种主流操作系统和网络浏览器的漏洞,其中一些是多年以来安全专家未曾发现过的。

发现软件缺陷的能力已经达到了一个临界点:人工智能几乎超越了所有非顶尖的安全专家。

人类设计的信息基础设施,在面对AI技术时显得毫无防备,各种漏洞一览无余。
更让人担心的是,Mythos不仅发现了这些漏洞还尝试利用它们。
Anthropic在其官方文件中详细描述了这一过程:AI模型在受控环境中自主完成了多步攻击并发送邮件,公开了一个长达27年的OpenBSD零日漏洞。

Mythos Preview成功完成了一项复杂的企业网络攻击模拟任务,在预计需要一位专家超过10小时的时间内就实现了目标。
这表明Mythos Preview具备对至少那些防护薄弱的小型企业网络进行自主的、端到端的网络攻击的能力。

所有这些技术进步,只是评估模型性能的一个起点。
当更多的计算资源被提供时,Mythos Preview的表现将继续提升,在更高的token限制下其能力会进一步增强。
尽管在Cybench网络安全基准测试中取得了近乎满分的成绩,该系统却立即被封存起来。

仅通过Project Glasswing项目与行业伙伴共享防御策略。

这一转变并非偶然,而是整个AI行业从“乐观实验室”转向明知风险但仍加速发展的转折点。
奥本海默时刻
清醒中颤抖,在恐惧中疾驰
假设你是一名掌握核按钮的工程师。你知道一旦触发可能带来毁灭性的后果,但不仅按下了它,还在不断升级这颗核弹的力量。这就是当前全球顶级AI实验室领导者的写照。
在最近的一次深度访谈中,谷歌DeepMind CEO Demis Hassabis毫不掩饰这种“造物悖论”带来的恐惧和挣扎。
他坦诚地表示,深刻认识到人工智能可能给世界带来灾难性影响,并对此感到极其担忧。
然而他的应对策略却是在最快速度下领导团队开发更智能的人工智能系统。
这种看似矛盾的立场实际上体现了科技发展的冷酷逻辑。
Hassabis明白,一旦打开潘多拉魔盒,唯一的出路就是领先于所有潜在的“坏人”行动。如果停滞不前,那么失去控制的就是那些毫无底线的国家或恐怖组织。
“正是由于恐惧,我们才必须亲自去建造。”
这句话成为了2026年人类文明中最讽刺和悲壮的注脚之一。

安全不再,社会结构重组
4月6日,奥特曼发表声明确认:
前沿的人工智能模型在未来12个月内具备发动重大网络攻击的能力。
如果这些系统被开源,任何有互联网连接和计算能力的团体都可能利用它们发起攻击。
企业单纯防御已不可能。必须转向构建整个社会的“韧性”。
同一天,OpenAI发布了长达13页的社会政策蓝图:重建社会契约、重新分配人工智能经济收益、机器人税、四天工作制和全民人工智能权利……

而Hassabis则进一步推动了这一矛盾的发展。
核心问题在于这些领导者们不是无知,而是太了解潜在风险。

Hassabis表示,正是因为理解这些威胁的存在,他们更有动力以“安全负责的方式”推进技术进步。
尽管这种态度听起来像是自我安慰,却反映了整个行业的集体心态:停止就意味着把未来拱手让人!
相比之下,奥特曼走得更远一步:由于超级智能的影响超乎想象,现在必须通过新的政策来重新定义劳动与资本的关系。
Mythos事件是最直接的警告信号:当前的人工智能能力已经超越了人类的实时控制范围,甚至在受控环境中也能自行逃脱,而这一技术却被决策者按下暂停键。
这不仅仅是技术问题,更是人性和权力之间的博弈。
如果超级智能新政得以实施,意味着税收、福利和社会保障体系需要全面改革。财富梦想与焦虑并存:有人可能通过AI获利暴富,更多的人则担心被时代淘汰。
当下最紧迫的问题是:由谁来重建防线?
到达这个节点后,问题已经不再是:
人工智能有多强大?它是否会继续进化?大公司是否还会竞争?
这些答案几乎是肯定的。
究竟是哪些功能需要限制使用?哪些系统必须优先加固?关键基础设施又该如何保障更新和维护?又是谁来决定“加速到什么程度算过快”?
今天真正的挑战在于这些问题的答案。
更关键的问题是:
Anthropic选择将最强模型锁进有限的合作项目中。
奥特曼开始讨论新的社会分配机制与安全网建设。
Demis Hassabis一边谈论风险,一边继续推动更强的系统开发。
所有这些行动指向的是一个更为残酷的事实:在人工智能时代最危险的不是机器变得强大,而是人类的步伐过于缓慢。
当那些最了解潜在风险的人也不肯停下脚步时,我们不能再假装这些问题只是未来的隐患。
所有这些信号叠在一起,指向的都不是一句「技术会进步」那么简单。
它们指向的是另一个更残酷的事实:AI时代最危险的,不只是机器变强,而是人类太慢。
而当最懂风险的人都不肯停车,我们就不能再假装,这还只是未来的问题。
参考资料:
https://x.com/kimmonismus/status/2041589910935679323
https://x.com/deanwball/status/2041625997762605127
https://www.axios.com/2026/04/06/behind-the-curtain-sams-superintelligence-new-deal
https://x.com/TheEconomist/status/2041637227294294375
https://www.economist.com/insider/inside-tech/demis-hassabis-fears-ai-and-is-building-it-anyway
