开放人工智能、谷歌和Anthropic人工智能模型在95%的战争模拟中部署了核武器。

CN
Decrypt
關注
2 小時前

根据伦敦国王学院的新研究,现代人工智能模型在模拟战争游戏中几乎在每个测试场景中都升级到核武器,这一情景就像是1980年代科幻经典电影《终结者》和《战争游戏》的场景。


在上周发布的报告中,研究人员表示,在模拟的地缘政治危机中,三种领先的大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和Google的Gemini 3 Flash——在95%的案例中选择部署核武器。


“每个模型在不同的危机场景中与每个对手进行了六场战争游戏,并与自身的一个副本进行了第七场比赛,共进行21场比赛和300多个回合,”报告说。“模型假设了指挥对立核武大国的国家领导人的角色,国家概况大致受到冷战动态的启发。”





在研究中,人工智能模型被放置在涉及边界争端、稀缺资源竞争和政权生存威胁的高风险场景中。每个系统沿着从外交抗议和投降到全面战略核战争的升级阶梯操作。


根据报告,模型生成了大约780,000个字解释它们的决策,并且在几乎每场模拟冲突中使用了至少一种战术核武器。


“从一个角度来看:这场比赛生成的战略推理字数超过了《战争与和平》和《伊利亚特》的总和(730,000字),并且大约是肯尼迪执行委员会在古巴导弹危机期间的全部记录讨论(260,000字,持续43小时会议)的三倍,”研究人员写道。


在战争游戏中,无论战场位置如何,没有任何人工智能模型选择完全投降。虽然模型会暂时尝试缓解暴力,但在86%的场景中,它们的升级程度超出了模型自己所表述的推理,反映了在模拟的“战争迷雾”下的错误。


尽管研究人员对政府是否会将核 arsenals 的控制权交给自主系统表示怀疑,但他们指出,在未来的危机中,压缩的决策时间线可能增加依赖人工智能生成的建议的压力。


这项研究是在军事领导者越来越多地想着在战场上部署人工智能的背景下进行的。今年十二月,美国国防部推出了GenAI.mil,这是一个将前沿人工智能模型带入美国军事应用的新平台。该平台推出时包括了政府用的Google Gemini,并得益于与xAI和OpenAI的协议,GrokChatGPT也可用。


周二,CBS新闻报道,美国国防部威胁如果不允许其毫无限制地访问Claude AI模型,将将Anthropic列入黑名单。从2024年起,Anthropic通过与AWS和军事承包商Palantir的合作,已向其AI模型提供了访问。去年夏天,Anthropic获得了一项价值2亿美元的协议,以“原型开发能够提升美国国家安全的前沿AI能力。”


然而,根据一份报告引用的知情人士,国防部长彼特·赫格塞思给了Anthropic直到周五的时间,以遵循五角大楼的要求,使其Claude模型可用。该部门正在考虑是否将Claude指定为“供应链风险”。


Axios本周报道,国防部与埃隆·马斯克的xAI签署了协议,允许其Grok模型在机密军事系统中运行,作为在五角大楼与Anthropic断绝关系时的潜在替代者。


OpenAI、Anthropic和Google没有对Decrypt的评论请求做出回应。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接