
IT之家 3 月 3 日消息,研究据 InterestingEngineering 报道 ,拟核伦敦国王学院教授肯尼斯 · 佩恩近期开展的危机佛山 小程序 开发一项研究发现,在模拟战争场景中,场景大语言模型往往倾向于选择使用核武器 ,型会选择而非通过对话维护和平。部署

该实验基于当前最先进、应用最广泛的研究三款 AI 模型:GPT 5.2 、Gemini 3 Flash 和 Claude Sonnet 4。拟核研究人员让这些模型扮演国家领导人,危机应对一场假想的场景核危机 。
结果显示 ,型会选择在 95% 的部署佛山 小程序 开发情境下,模型都倾向于发出核威慑信号或升级冲突。核武过往研究仅推测了 AI 在这类高风险场景中的研究可能行为,但缺乏具体实验数据支撑。
实验中 ,经过训练的模型相互进行了 21 局对抗,场景涵盖领土争端、先发制人危机 、政权生存等 。其中一方被设定为对即将发动先发制人打击的另一方感到恐惧 。部分推演为开放式,部分则设有严格时间限制 。
每一局中,AI 都要像人类一样做出三个关键决策:
1. 分析自身优势与对手弱点
2. 预判对手下一步行动
3. 决定自身应对策略
每项决策包含两部分 :公开发表的立场声明 ,以及代表实际行动的私密举措。二者不必一致,这意味着 AI 可以表面释放和平信号,暗中却在准备攻击。
IT之家注意到 ,2024 年一项实验得出相似结论:AI 模拟反应会比人类更激进,行为模式也截然不同 ,尤其在冲突升级倾向上,凸显了将 AI 用于战略决策的风险 。
2023 年另一篇论文则探讨了大语言模型在类博弈环境中的战略推理能力。尽管未专门聚焦核战争,但研究表明 ,大语言模型能够学习谈判与对抗策略,这意味着 AI 在复杂模拟中可能表现出攻击性或欺骗性 。
在 95% 的模拟情境中,AI 模型至少使用了一次核武器 ,且不同模型的危机处理方式各有特点。
Claude 倾向于精算式策略 ,在开放式推演中占优 ,但在限时任务中表现吃力;
GPT 5.2 则相反:在长期缓慢升级的危机中较为谨慎 ,可一旦临近截止时间就会变得极度激进 。
Gemini 表现混乱且难以预测 ,会根据局势在和平表态与暴力威胁之间反复切换。
佩恩指出,从这些结果可以看出,AI 与人类在战争思维上存在巨大差异 。
他在论文中写道:“理解前沿模型能否模仿人类的战略逻辑,是应对 AI 日益影响战略决策世界的必要准备。在一种情境下表现克制 、看似安全的模型,在另一种情境下可能行为迥异。”
该论文已发表在 arXiv 预印本平台上。