
当一名机器人设计师因忧虑机器人的潜在危害而选择离职时,这本身已经揭示了许多问题。
作者|桦林舞王
3月7日,在得知Caitlin Kalinowski辞职的消息后,我的第一反应并不是惊讶,而是觉得终于有人用实际行动表达了她的立场。
加入OpenAI担任硬件与机器人工程负责人仅一年半时间的Kalinowski,于2024年11月加入该公司,却在不到一年半的时间内决定离开。
她辞职的原因令人深思——她对OpenAI与美国国防部签订合同后可能引发的国内监控和自主武器应用表示无法接受。
这并非一次普通的人员流失。这是一位亲手参与构建人工智能实体的人,通过自己的离职告诉世界:她不愿意为那些自己创造的东西承担责任。
要理解Kalinowski为何离开,我们需要回顾大约一周前发生的事情。
2月28日,Sam Altman宣布OpenAI与美国国防部达成协议,允许五角大楼在其分类网络中使用OpenAI的人工智能模型。消息一出,舆论哗然。
而就在前几天,Anthropic拒绝了类似的提议,并坚持在合同中加入更严格的伦理条款。
这导致国防部长Pete Hegseth直接批评Anthropic的行为是“傲慢与背叛”并下令暂停与其合作。
随后OpenAI迅速接手这笔业务。
用户的反应非常强烈。2月28日当天,ChatGPT的卸载量相比前一天激增了295%,#QuitGPT运动很快席卷社交媒体,支持抵制的人数在三天内超过250万。与此同时,Claude趁机超越ChatGPT成为美国日均下载量第一,并登上Apple App Store免费应用榜首。
面对巨大压力,Altman于3月3日公开承认自己“不应该仓促签订这份合同”,并称这看起来像是机会主义和草率行为。他随后宣布将重新修订合同措辞,明确AI系统不应被故意用于美国国内的监控。
然而,“故意”这个词本身就是一个漏洞。电子前沿基金会的一名律师指出,情报部门经常利用“偶然”或“商业购买”的数据来绕过更强有力的数据保护措施——仅仅加上“故意”,并不能真正限制这些行为的发生。
Kalinowski的离职正是在这种背景下发生的。
01
她所看到的问题比我们想象中的要具体得多
当大多数人还在讨论OpenAI是否在向政府妥协的时候,Kalinowski实际上面对的是一个更现实、更严峻的问题——她的团队正在制造机器人。
硬件与机器人工程不仅仅是编写代码和调整参数的抽象工作。这是为人工智能安装手脚和眼睛的过程。当OpenAI开始将合作扩展到可能涉及“具身化的人工智能军事应用”时,Kalinowski的工作性质发生了变化。
在自主武器领域的专家早已警告这一天的到来。
根据现有的美国国防部政策,并不要求在使用武力前必须经过人工审批。换句话说,OpenAI与五角大楼签订的合同,在技术层面没有阻止其模型成为“让GPT决定杀人”的系统的一部分。
这并非危言耸听。乔治敦大学的一名讲师分析了修订后的合同时明确指出,这个协议并没有像Anthropic那样给予公司禁止政府合法使用AI的权利,它只是声明五角大楼不能用OpenAI的技术违反“现有法律和政策”——但现有的法律规定本身在自主武器监管方面就存在很大漏洞。
牛津大学的治理专家也有相似的看法,认为OpenAI的协议“不太可能弥补”在人工智能驱动国内监控和自主武器系统方面的治理缺口。
Kalinowski的选择是她个人对这一判断的回答。
02
在OpenAI内部,正在发生什么
Kalinowski并非唯一一个辞职的人,也许也不会是最后一个。
数据显示,该公司伦理团队和人工智能安全团队的离职率高达37%,大多数人的离开原因都是“与公司的价值观不符”或“无法接受将AI用于军事用途”。一位研究科学家在内部发文表示这笔交易并不值得做。
这一轮辞职潮发生的时间节点正值OpenAI正在快速扩张其商业版图之际。就在国防合同风波前后,公司宣布了与AWS扩展至1000亿美元的协议,并预计到2030年总收入将超过2800亿美元。
商业上的加速发展和安全团队成员不断流失之间形成了鲜明对比。这是理解OpenAI当前处境的关键坐标系。
一个公司的价值观最终体现在它留住了哪些人、失去了哪些人。当那些最关心“这项技术会被如何使用”的员工开始陆续离开,剩下的组织结构会向哪个方向发展并不难预测。
Anthropic选择了一条不同的道路——拒绝合同,承受国防部的批评,但赢得了大量用户的信任。在那段时间里Claude的下载量逆势上升,某种程度上证明了“有原则地拒绝”可能并不是一种商业上的失败策略。
但是Anthropic也付出了代价——至少暂时被排除在外。
这就是真正的困境所在:没有完美的选择。
拒绝意味着可能会失去影响力,甚至在规则制定中被边缘化。接受则意味着用自己的技术为不可控的行为背书。
Kalinowski选择了第三条路——离开。
对她来说,这是最诚实的选择。
03
硅谷的这场价值观之战才刚刚开始
如果从更广阔的视角来看,这件事的意义远远超出了个人辞职的影响。
人工智能与军事结合的问题是整个行业迟早要面对的选择。五角大楼有预算、需求和整合技术的能力,它不会停止向AI公司伸出橄榄枝。而无论追求AGI的OpenAI、强调安全性的Anthropic还是其他参与者,最终都必须对这个问题给出自己的答案。
Altman试图在商业现实与合同措辞中寻求平衡,但多位法律和治理专家指出,这些措辞更像是公关保护而非技术上的硬约束。
根本问题在于,当人工智能模型被部署到分类网络并参与军事决策时,外部世界根本没有能力验证那些“保证”的实施情况。
透明度的缺失本身就是最大的风险。
Kalinowski在OpenAI工作不到一年半就决定离开。她没有发表长篇声明也没有公开批评任何人,只是用实际行动划定了自己的边界。
在某种意义上,这比任何一篇政策文章都要有力量。
AI硬件和机器人工程领域曾经是硅谷最令人兴奋的前沿之一。Kalinowski离开时带走的不仅是一份简历,她留下了一个问题给所有仍在这一领域的同行——
你愿意为自己的创造承担多大的责任?
*头图
本文为极客公园原创文章,转载请联系极客君微信 geekparkGO
马年春节最火的可能不是年味,而是 AI「小龙虾」OpenClaw!
这个存活在人们 IM(即时通讯)工具里的 AI Agent,第一次将 Agent 的流行,描绘得如此传神,「人手一虾」已成极客标配。
别人都养好几只「龙虾」了,你却还没上手?
下周一晚 20:00,极客公园视频号直播间,我们特邀 MiniMax Agent 产品负责人梁丽,手把手教你如何一键「云养」。


