返回中国AI

OpenAI:我们与“战争部”的协议,为什么比以往更有安全护栏

OpenAI 表示,其与五角大楼的新协议通过云端部署、安全栈控制、人员在环和合同条款,把反大规模监控、反自主武器和反高风险自动决策三条红线直接做进了国家安全部署框架。

Jim2026年3月1日

OpenAI:我们与“战争部”的协议,为什么比以往更有安全护栏

原文链接:https://openai.com/index/our-agreement-with-the-department-of-war/

来源:OpenAI(官方)

发布时间:2026-02-28

说明:以下为中文整理版,基于 OpenAI 官方原文整理,保留核心条款、边界和 FAQ 要点。

核心信息

OpenAI 在 2026 年 2 月 28 日发布声明称,已与美国五角大楼就“在涉密环境中部署先进 AI 系统”达成协议。OpenAI 同时强调,这份协议不只是允许部署,更关键的是:它试图把 OpenAI 所坚持的几条安全红线,直接做进部署架构、人员机制和合同条款里。

OpenAI 的判断非常明确:与此前一些同类国家安全合作相比,这份协议提供了更强的约束和更可执行的安全护栏。

OpenAI 明确提出的三条红线

OpenAI 说,与“战争部”(Department of War)合作时,其核心边界由三条红线定义:

  • 不允许 OpenAI 技术用于大规模国内监控
  • 不允许 OpenAI 技术用于指挥自主武器系统
  • 不允许 OpenAI 技术用于高风险自动化决策,例如类似“社会信用”这种由系统直接做出的高后果判断。

OpenAI 还特别点名指出,这三条红线与其他一些前沿实验室的原则大体重合,但它认为,很多公司在国家安全场景里主要依赖“使用政策”来约束风险,而不是把安全边界嵌进真正的部署和合同机制。

OpenAI 的说法是:仅靠使用政策不够,必须做成多层防护。

这份协议的核心结构:不是只写规则,而是多层约束

OpenAI 把自己的方案概括为一种“更宽、更深的多层保护方式”。它认为,真正的保障来自四层同时存在:

  • OpenAI 保留对安全栈(safety stack)的完整控制权;
  • 系统只通过云环境部署;
  • 有经过涉密许可的 OpenAI 人员持续参与;
  • 合同本身写入了关键限制条款。

也就是说,这套方案不是靠一句“我们不希望被这么用”来维持,而是试图让技术、部署方式、人员监督和法律文本同时起作用。

1. 部署架构:只上云,不下沉到边缘设备

OpenAI 首先强调,和五角大楼的这套部署是纯云端部署(cloud-only deployment)

这点很关键,因为在 OpenAI 的逻辑里:

  • 云部署让 OpenAI 可以继续运行和更新自己的安全栈;
  • 云部署也让它能够独立验证其红线是否被突破;
  • 如果不上边缘设备,就会显著降低模型直接嵌入高风险武器终端的可能性。

OpenAI 还明确表示,它不会提供“去掉护栏”的模型,也不会提供未经安全训练的模型版本。

换句话说,五角大楼拿到的不是“裸模型”,而是仍然带着 OpenAI 自身安全控制层的系统。

2. 合同条款:把用途边界写进正式法律文本

OpenAI 认为,和单纯的内部承诺相比,真正有约束力的是合同语言。

它在声明中公开了关键条款的大意,核心意思包括:

  • 五角大楼可以在合法范围内使用该 AI 系统;
  • 但系统不能被独立用于指挥自主武器,凡是法律、法规或部门政策要求保留人工控制的场景,都不能让 AI 独自接管;
  • AI 也不能替代那些本应由人类审批的高风险决策;
  • 涉及私人信息的情报活动,仍要遵守美国宪法第四修正案、《1947 年国家安全法》、《1978 年外国情报监视法》、第 12333 号行政令以及相关国防部指令;
  • 系统不得被用于对美国人的私人信息进行“无约束监控”;
  • 除非法律明确允许,也不得用于国内执法用途。

OpenAI 的重点不只是“法律本来就有约束”,而是它把这些限制再次嵌入合同中,并且按声明表述,这些限制是按当前存在的法律和政策标准写定的。

3. 人员在环:OpenAI 不只是交付模型后就离场

第三个关键点是,OpenAI 不打算只做一个“交付完即结束”的供应商。

它表示,协议下会有获得涉密许可的 OpenAI 工程师前置部署支持政府使用,同时也会让获得许可的安全与对齐研究人员持续参与。

这意味着,OpenAI 希望自己在实际部署中仍然保留一定监督和修正能力,而不是把模型交给政府后完全失去控制。

OpenAI 为什么要做这件事

OpenAI 在 FAQ 里给了两个主要理由。

第一,它认为美国军方确实需要强大的 AI 系统,尤其是在潜在对手也在快速把 AI 集成进自身体系的背景下。OpenAI 认为,如果民主国家的防务体系不用前沿 AI,风险并不会因此消失。

第二,它表示自己也希望缓和当前五角大楼与美国 AI 实验室之间不断升级的对立。OpenAI 认为,未来不可能靠政府和 AI 公司彼此敌对来推进,真正可持续的路径只能是更深的合作。

OpenAI 还特别提到,在这次协议中,它要求政府把相同条款向所有 AI 实验室开放,并明确说政府应尝试修复与 Anthropic 的关系。

OpenAI 如何回应“为什么你能谈成,Anthropic 没谈成?”

这是整篇声明里最敏感的部分之一。

OpenAI 的回答并不是说 Anthropic 的红线错了。相反,它承认双方在至少两条核心红线上是一致的。不同点在于,OpenAI 认为自己的合同结构给这些红线提供了更强的实际保障。

OpenAI 给出的理由主要是:

  • 它的部署被限制在云端,而不是边缘侧;
  • 它保留了完整运行中的安全栈;
  • 它把 OpenAI 自己的涉密人员放进了持续使用环节。

OpenAI 也明确表示,它不知道 Anthropic 为什么没有达成这份协议,但它希望 Anthropic 和其他实验室也能考虑类似安排。

OpenAI 对 Anthropic 被定性为“供应链风险”的态度

OpenAI 在 FAQ 中直接回答了一个高度政治化的问题:Anthropic 是否应该被列为“供应链风险”?

它的回答是:不应该。

并且 OpenAI 说,它已经向政府清楚表达了这一立场。

这意味着,OpenAI 一边选择与五角大楼达成协议,一边也在尽量避免让自己被理解为“踩着 Anthropic 上位”。它试图传递的姿态是:可以推进合作,但不支持把不同立场的 AI 公司行政性打成风险对象。

OpenAI 对外界最关心的两个问题:会不会被用于自主武器和大规模监控?

OpenAI 在文中给出的回答都是否定的。

它认为,基于以下几层同时存在:

  • 安全栈仍由 OpenAI 控制;
  • 纯云部署;
  • 合同限制;
  • 现行法律与政策;
  • OpenAI 人员在环;

这套系统既不会被用于推动自主武器,也不会被用于对美国人的大规模监控。

OpenAI 的论证方式很有代表性:它不是说“我们信任对方不会这样做”,而是说“在现有的技术、合同和制度组合下,我们认为这种事无法发生”。

如果政府违约怎么办?如果未来法律变化怎么办?

OpenAI 也回应了两个更现实的问题。

如果政府违反合同,OpenAI 说和其他合同一样,它有权终止合作。

如果未来法律或五角大楼政策发生变化,OpenAI 则强调,这份合同写入的是按当前法律和政策标准定义的边界。也就是说,即便未来相关规则被放宽,OpenAI 系统的使用仍应以当前协议里锁定的标准为准。

这也是这份声明最值得注意的部分之一:OpenAI 试图把当前的红线“冻结”在合同里,而不是让它完全跟着未来政策环境波动。

OpenAI 如何回应 Anthropic 那篇声明

OpenAI 直接回应了 Anthropic 关于“与战争部讨论”的那篇公开声明,并说它理解 Anthropic 所担忧的两条红线:

  • 大规模国内监控;
  • 完全自主武器。

OpenAI 给出的解释是:

  • 关于大规模国内监控,它在沟通中明确感受到五角大楼也认为此类行为非法,因此它要求把这一点更明确地写进合同;
  • 关于完全自主武器,它认为由于当前协议仅覆盖云端部署,本身就无法支撑真正意义上的“完全自主武器”场景,因为那通常要求边缘端实时部署。

在 OpenAI 看来,它与五角大楼的版本,不是放弃红线,而是通过部署架构和合同设计,让这些红线更容易被执行。

一句话总结

这篇 OpenAI 官方声明的核心不是“我们与五角大楼合作了”,而是:OpenAI 正试图证明,前沿 AI 公司即使参与国家安全部署,也可以通过云端架构、安全栈控制、人员在环和合同条款,把“不做大规模监控、不做自主武器、不做高风险自动决策”这些红线真正落地。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

Jim