
新智元报道
近日,关于 Anthropic 的下一代旗舰模型 Mythos 强大的网络安全功能引发了广泛关注与讨论,奥特曼对此也有所行动,计划内测 OpenAI 具备强大网络攻防能力的 AI。
4月9日的消息显示,OpenAI 正在筹备一款具备极强网络安全性能的产品,并仅限于少数合作伙伴使用。

https://x.com/axios/status/2042244222292529371
这背后真正值得关注的是,AI 在网络安全领域可能已经迈过一个重要的门槛。
如果你持续关注 AI 发展,会发现这个领域的变化越来越微妙。
早些年,人们谈论的主要是模型能否撰写文案、制作幻灯片或编写代码。
随着时间推移,大家开始讨论自动化执行任务和调用工具的能力。
如今,话题转向了 AI 是否能自主发现并利用漏洞。
这些问题听起来像是安全专家内部会议上的议题,而不是普通人关心的话题。
然而,如果答案指向“是”,这将不再是一个小圈子内的新闻。
它关乎基础设施的安全级别。
漏洞不仅影响个人电脑,还关系到水厂、电网、医院和银行等关键设施的运行安全。
过去这些系统主要依靠顶级安全专家和技术机构进行维护。
现在模型开始参与到这个过程中来。
它们不仅能找出漏洞,还能生成详细的利用方案,并提出修补建议。
此前,人们认为发现漏洞和实施攻击之间存在很大的差距。
但现在这种差异正在被技术的进步逐渐抹平。
Anthropic 则采取了不同的策略来应对这一挑战。
最近,他们推出了一项名为 Project Glasswing 的封闭计划,让少量科技公司和安全机构使用一个名为 Claude Mythos Preview 的模型版本。
该公司表示,这个模型太强大,不适合立即公开。
Anthropic 公布的一些测试结果显示了模型在大规模开源项目中发现高危漏洞的能力,甚至可以跨多个漏洞编写复杂的利用代码。
这种能力不仅限于专业的安全研究人员,即使是没有正式背景的内部工程师也能完成复杂任务。
OpenAI 也采取了相应的措施,在今年二月发布了 GPT-5.3-Codex,并启动了一个名为 Trusted Access for Cyber 的计划。
此计划旨在为从事正当防御研究的机构提供 API 信用额度,同时承诺这是迄今为止最具网络安全能力的模型版本。
这种情况让 AI 公司处于一种非常微妙的位置:一方面在开发更强的功能,另一方面又试图限制这些功能的传播范围。
比如说,他们像军火商一样开始担心自己的产品可能会落入不法分子手中。
你敢信?
从安全公司的角度来看,这种做法是有道理的。无法预测模型是否会成为攻击工具。
现在的问题是,AI 的能力已经强大到可以对现有系统构成威胁的程度。
这种技术的发展趋势让整个行业感到紧张和不安。
从某种意义上来说,这标志着一个新时代的到来。
在这个新阶段,不同层级的安全防护将变得更加重要。
普通用户可以使用基础的 AI 功能,而顶级企业和安全机构则可以获得更深层次、更有防御价值的能力。
这种多层次的应用策略可能会导致技术权力更加集中化。
但从长远来看,在模型已经能够自主寻找漏洞和编写利用方案的情况下,将这些能力优先提供给防守方是有必要的。
当前的局势提醒我们,AI 的竞争不再仅仅是界面设计和用户体验的竞争。
它正在深入到系统底层、浏览器核心乃至关键基础设施等领域。
OpenAI 和 Anthropic 这两次动作可能是对未来发展趋势的一个重要信号。
你说他们做错了吗?也不能这么讲。
站在安全公司的角度,这种限制非常合理。你总不能把能自动找零日(0Day,指未公开的全新漏洞)、自动写利用链的东西,像聊天机器人一样直接公开。
尤其 Anthropic 自己都说了,Mythos 已经在各大操作系统、主流浏览器、关键基础软件里找到了成千上万的高危漏洞。
连内部沙箱都被它想办法突破过。
那种感觉不是「模型更聪明了」,而是「能力的社会后果开始外溢了」。
但另一面也很现实。
这种东西一旦被证明存在,就不可能再回去了。
SANS 的 Rob Lee 说:「你已经没法阻止模型去做代码枚举,也没法阻止它在老旧代码库里找缺陷,因为这种能力现在已经存在了。」
Palo Alto Networks 的高管也差不多是一个判断,今天你挡住一家,几周或者几个月后,别的模型也会追上来。

https://www.axios.com/2026/04/09/openai-new-model-cyber-mythos-anthopic
这才是真正让人后背发凉的地方。
不是某一家公司太强。
是这个门槛一旦被跨过去,全行业都会陆续跟上。
而且更有意思的是,安全圈里很多人已经开始用一个老概念来理解这波变化,责任披露。
软件世界几十年来一直在吵一个问题,发现漏洞之后,是立刻公开,还是先私下通知厂商修补,等补丁打完再披露。
现在 AI 模型的发布,也越来越像这个逻辑了。
不是做不做出来的问题,而是先给谁,什么时候给,怎么控节奏,怎么避免它先落到最坏的人手里。
这是不是一个特别奇怪的时代切片?
以前我们怕 AI 太笨,现在我们怕它太会干活。
而且最讽刺的是,真正把这件事推到公众面前的,还不是黑客真的用它打爆了什么系统,而是模型公司自己先害怕了。
这就像地震还没来,地质学家先开始疯狂加固楼板。
!了 转 反
说到这块,还有一个容易被忽略的点。
很多人看到 Axios 最初的标题,以为 OpenAI 是准备把还没发布的旗舰模型先只给小圈子试用,像 Anthropic 对 Mythos 那样,对大众暂缓开放。
但后面 Axios 通过进一步求证 OpenAI,自己修正了表述。
OpenAI 这次准备给特定合作伙伴开放的,不是那个尚未发布的新旗舰模型 Spud,而是一款独立的网络安全产品。

https://x.com/axios/status/2042244444724904190
这个区别挺重要的,因为它说明 OpenAI 现在的思路,未必是把下一代通用旗舰整个锁起来,而更像是把最危险、最敏感、最接近攻防边界的那部分能力,先包装成专门的安全产品,只放给经过筛选的防守方。
这反而更说明问题了。
AI 公司已经开始接受一个现实,未来最前沿的模型能力,不会再以同一种方式流向所有人。
有些能力会被做成大众产品,有些能力会被塞进封闭计划,有些能力甚至会长期停留在少数机构手里。
模型还是那个模型,但世界会开始分层。
普通用户拿到的是好用、顺滑、足够强的那一层。
顶级企业和安全机构拿到的是更深、更危险、也更有防御价值的那一层。
再往里,可能还有连合作伙伴都接触不到的内部能力。
某种意义上,这有点像 AI 时代的核扩散治理,也有点像另一种版本的北京折叠。
你表面上看到的,是大家都在用 AI。
真正决定攻防平衡的,却可能是那一层你看不见、摸不着、只在少数白名单里流动的能力。
这是好事啊?
这件事短期内一定会让人不安,甚至会让技术权力变得更集中。
但从更现实的角度看,在一个模型已经能自己找洞、自己写利用链的时间点上,先把能力交给防守方,总比所有人一起裸奔要好。
只是这件事也提醒我们,AI 竞赛已经不是谁的聊天更自然,谁的界面更丝滑了。
真正的比赛,正在往系统底层走。
往浏览器走,往内核走,往云平台走,往关键基础设施走。
往那些平时没人会在意,但一旦出事就全社会一起抖一下的地方走。
而 OpenAI 和 Anthropic 这两次一前一后的动作,可能就是一个信号。
AI 不只是开始替人工作了。
AI 开始进入人类最古老、也最敏感的博弈里了:防守和进攻,披露和封锁,开放和分级,效率和失控。
参考资料:
https://www.axios.com/2026/04/09/openai-new-model-cyber-mythos-anthopic

