OpenAI 表示 本周末其已与五角大楼达成协议,在机密环境中部署先进的人工智能系统,这标志着该公司与美国军方合作的显著扩展。
这一公告是在特朗普政府 将Anthropic列入黑名单 后不到24小时发布的,指定该竞争对手的人工智能公司为“对国家安全的供应链风险”,原因是与监视和自主武器相关的合同条款争议。
特朗普总统还指示联邦机构立即停止使用Anthropic的技术,财政部长斯科特·贝森特 在X上写道,该机构“正在终止我们部门内对Anthropic产品的所有使用,包括对其Claude平台的使用。”
人工智能公告的时机使OpenAI的交易受到严密审查。在一篇详细的博客文章中,该公司列出了它所称的严肃“红线”和层层保障措施,以管理其与五角大楼的合作。
根据 OpenAI的呈现,该协议引发了关于人工智能系统将在国家安全环境中如何管理的更广泛问题,以及该公司的声明限制在实践中的解释和执行。
当“合法”不够
OpenAI的 博客文章 开头列出了三项承诺,框定为不可谈判:不使用其技术进行大规模国内监视,不独立指导自主武器系统,无高风险的自动决策,如社会信用评分。
随后是实际的合同条款—OpenAI特别称之为“相关条款”,而不是“完整协议”。
“战争部可以在适用法律、操作要求和公认的安全与监督协议的范围内,将人工智能系统用于所有合法用途,”OpenAI表示。
这正是Anthropic在整个谈判过程中所要求的确切措辞。Anthropic拒绝接受的确切措辞。OpenAI签署了它,但争辩说其红线仍然完好无损。
然而,在国家安全环境中,“合法”并不是一个固定边界——它存在于一系列的法律、行政命令、内部指令和通常是机密的法律解释中。当合同授予“所有合法用途”时,实际限制变为政府当前的法律框架,而不是由供应商设定的独立标准。
一组条款
武器条款规定人工智能系统“在法律、法规或部门政策要求人类控制的任何情况下,不会被用于独立指挥自主武器”。
这一禁令仅在某些其他权威已经要求人类控制的情况下适用——它完全借用现有政策的力量,具体来说是 国防部指令3000.09。该指令要求自主系统允许指挥官在使用武力时行使“适当程度的人类判断”。
而“适当”的定义是非常主观的。
人类判断并不是人类控制。这一区别并非偶然。国防学者已经 指出,故意省略“人类在环中”的语言,旨在保留操作灵活性。
OpenAI最有力的反驳是其仅云部署的架构—完全自动化的致命决策循环需要在战场设备上进行边缘部署,而该合同不予允许。这是一个真正的技术限制。
但基于云的人工智能仍然可以执行目标识别、生活模式分析和任务规划。这些都是杀伤链中的活动,无论最终触发器在哪里。一个目标的结果并不因模型运行在何处而异。
监视条款遵循类似的模式。OpenAI声明的红线:不进行大规模国内监视。合同条款:该系统“不得用于在与这些权限一致的情况下对美国公民的私人信息进行不受限制的监控”—然后列出第四修正案、FISA和行政命令12333。
“不受限制”一词意味着,某种限制版本的大规模监视将是允许的。而行政命令12333是NSA用来合法拦截美国人通信的行政命令,当此行为发生在美国边境之外时。
而这正是Anthropic在整个谈判过程中对措辞的担忧变得显著的地方。Anthropic的论点是,目前的法律尚未跟上人工智能所带来的可能性。政府可以在没有搜查令的情况下合法购买大量关于美国人的聚合商业数据——并且 已经这么做过。
OpenAI的合同语言通过将其保护锚定于现有法律框架,可能并未弥补Anthropic真正担心的差距。
阿特曼回应
周六晚上,阿特曼举行了一场AMA,回答了数千个有关该协议的问题。当被问及是什么原因会导致OpenAI退出政府合作时,他回答:“如果我们被要求做一些违反宪法或非法的事情,我们将会退出。”
这种表述将OpenAI的限制设定在合法性上——而不是对公司在发生合法情况下会或不会实施某种事情的独立伦理判断,这正是Anthropic为之辩护的。当被问及是否担心未来对“合法”定义的争议时,他承认了这一风险:“如果我们必须进行这场斗争,我们会的,但这显然使我们面临一些风险。”
关于OpenAI为何达成了Anthropic未能达成的协议,阿特曼表示:“Anthropic似乎更关注合同中的具体禁令,而不是引用适用的法律,而我们对此感到放心。如果我只能选择一项,我显然更愿意依赖技术保障。我认为Anthropic可能想要比我们更多的操作控制。”
这是一种实质性的哲学差异。Anthropic主张,由于尖端模型可以被重新用于情报和军事工作流,以难以预见的方式,限制需要在书面中明确且有约束力,哪怕以牺牲协议为代价。OpenAI的立场是技术架构、嵌入人员和现有法律共同构成比合同文本本身更强有力的保障。
公众选择了一方
反对声立刻传来。到周一, “QuitGPT”运动声称已有超过150万人采取行动——取消订阅、分享抵制帖子或在quitgpt.org上注册。
该运动将OpenAI的举动定义为将军事合同置于用户安全之上,指责该公司同意让五角大楼将其技术用于“任何合法目的,包括杀手机器人和大规模监视”。
OpenAI可能会对此描述提出异议。但市场无论如何都发生了变化。
Anthropic的Claude在美国苹果应用商店中跃过ChatGPT,成为最下载的免费应用,该公司告诉Decrypt,它在周末 看到了创纪录的日注册人数。
流行歌手凯蒂·佩里 分享了Claude定价页面的截图。成百上千的用户 在Reddit上记录了他们的订阅取消。赞美Anthropic的涂鸦出现在其旧金山办公室外,而 人行道上的粉笔攻击覆盖了OpenAI的步道。甚至OpenAI的几百名员工以前也曾 签署了一封公开信,支持Anthropic拒绝满足五角大楼的要求。
QuitGPT的描述在情感上颇具吸引力,但并非完全准确。Anthropic本身与Palantir和亚马逊网络服务有合作关系,允许美国情报机构和国防部门访问Claude模型,并据称已在军事行动中用于推翻委内瑞拉和伊朗的政府。人工智能与国家安全合同的伦理在任何一方都从未清晰。
该运动准确捕捉到的是,用户中有很大一部分人相信这两家公司在设定限制方式上存在实际差异——并通过他们的订阅投票。
这一差异是否如它所呈现的那样重要,还需仔细阅读合同。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。