根据 Axios 的报道,知情人士透露,OpenAI 正在开发一款拥有高级网络安全功能的模型,并计划仅限于少数公司使用,这与 Anthropic 对其 Mythos 模型采取的策略相似。

Anthropic 在周二宣布,由于对 Mythos 预览版可能被用于黑客攻击表示担忧,该公司只允许经过严格筛选的科技和网络安全企业访问该模型。
这一趋势反映出 AI 技术在自主性和网络攻击方面的能力已经达到一个关键点。鉴于其潜在的危害性,开发人员选择谨慎行事,不愿将这些工具公开发布。
此前,OpenAI 在推出具备强大网络安全功能的 GPT-5.3-Codex 模型之后,在今年 2 月启动了“网络安全可信访问”试点项目。受邀企业可以使用拥有更高级别安全权限或更强能力的新模型来加速合法防御工作的开展。当时,该公司承诺向参与者提供大约一亿美元(约合人民币六千八百四十三万六千元)的 API 额度。
从整体趋势来看,政府官员和网络安全专家近年来一直警告称,一旦落入不法分子手中,AI 模型可能会自主破坏关键基础设施如水力设施、电网及金融系统。如今,这种能力似乎已经显现出来。
对此,业内顶尖安全专家们持有共识:面对这样的情况,AI 公司别无选择。SANS 研究所首席 AI 官 Rob T. Lee 表示,“模型的代码枚举和漏洞发现功能无法被阻止”。Palo Alto Networks 首席安全情报官 Wendi Whitmore 则认为,在几周或几个月内,拥有类似能力的新模型将出现在公开领域。
Aisle 公司首席执行官 Stanislav Fort 认为,如果企业担忧的是模型编写新漏洞利用代码的能力而非最初发现漏洞的能力,则限制前沿模型的发布更具意义。
另一方面,尽管 Anthropic 表示不会向公众发布 Mythos 预览版,但若能制定出有效的安全措施,他们可能会考虑其他 Mythos 系列模型的公开发布;而关于 OpenAI 未来版本是否会广泛开放的问题仍然未知。
