最近,美以两国对伊朗采取的军事行动中,人工智能(AI)技术被广泛应用于战场,引发了全球对于该技术武器化的深刻忧虑。据英国广播公司(BBC)于3月3日的报道,在OpenAI与美国军方达成合作协议之后,大量用户开始卸载其旗下的应用ChatGPT。为回应这一情况,OpenAI不得不对协议内容进行重大调整,并明确禁止任何一方利用这项技术来监视美国公民。

图片显示了OpenAI和美军合作的消息(图片与正文内容无关)。
上周,由于担心自己的大型语言模型Claude可能会被用于监控和个人武装系统的发展,另一家人工智能企业Anthropic公司拒绝配合美国国防部的相关项目并遭到屏蔽。就在第二天,OpenAI宣布已和五角大楼达成了合作协议,并声称该协议的安全措施比以往的任何AI部署都要严格。
这一快速行动被视为一种市场投机行为,在合作消息公布之后的一个月内,ChatGPT的卸载率从原来的9%激增到超过20%,增幅约为两倍。
面对来自公众和媒体的巨大压力,OpenAI的首席执行官萨姆·奥尔特曼在社交平台X上发布声明表示歉意,并承认自己此前的行为既不谨慎也不负责任。他承诺将增加额外的安全限制条款,明确禁止任何一方利用其技术来监控美国公民。
正当国际社会关注美以对伊朗空袭中使用的AI技术时,有报道称Anthropic的技术已被整合进Palantir与五角大楼联合开发的作战系统内,用于提升情报分析能力和辅助决策过程。在中东地区的冲突背景下,这种高效性引发了人们对人类主导决策可能被削弱的担忧。
英国纽卡斯尔大学政治地理学高级讲师克雷格·琼斯指出,效率的提高伴随着巨大的伦理风险。英国《卫报》引述Palantir英国业务负责人路易斯·莫斯利的话说,大型语言模型可能会产生错误信息甚至编造内容。北约特遣部队Maven的数据主管古斯塔夫则强调,在使用AI技术的过程中,始终有人工监督机制在发挥作用。
据报道,就在与美国国防部签署合作协议之后,OpenAI正在考虑将其人工智能解决方案部署到北约的非机密网络中,并计划为此签订合同。
