Fortune:OpenAI 正与五角大楼谈判,试图在 Anthropic 之后补位
Fortune 报道称,OpenAI 正与五角大楼讨论让模型进入更敏感系统,同时坚持将“反监控、反自主武器”等红线写入合同。

Fortune:OpenAI 正与五角大楼谈判,试图在 Anthropic 之后接入机密系统
原文链接(Fortune):https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/
补充交叉来源(Axios):https://www.axios.com/2026/02/27/altman-openai-anthropic-pentagon
Fortune 作者:Sharon Goldman
发布时间:2026-02-27 5:43 PM ET

图片说明:OpenAI CEO Sam Altman. Prakash Singh / Bloomberg / Getty Images
核心信息
Fortune 报道称,Sam Altman 在一次面向 OpenAI 员工的全员会上表示,OpenAI 正在与美国五角大楼推进一项潜在协议,目标是让 OpenAI 的模型和工具进入更敏感的政府与军事使用场景。这份合同据称尚未正式签署,但双方已出现“可成形的协议框架”。
这场内部沟通发生在 Anthropic 与五角大楼冲突公开化之后:就在同一周,Anthropic 因坚持对大规模监控和自主武器的限制条款,与美国政府关系迅速恶化,并面临合同终止和联邦体系清退。
OpenAI 提出的交易条件
根据 Fortune 与 Axios 披露,OpenAI 试图达成的并不是“无条件让渡控制权”,而是一套带有明确边界的合作安排。核心点包括:
- 由 OpenAI 自行构建“安全栈”(safety stack):也就是技术、政策和人工审核叠加构成的控制层。
- 如果模型拒绝执行某项任务,政府不会强迫 OpenAI 解锁该任务。
- OpenAI 保留对模型部署方式的控制权:包括使用哪些模型、部署到哪里、如何更新技术防护。
- 模型原则上只部署在云环境,而不是“边缘系统”:这意味着尽量避免直接嵌入飞机、无人机等高风险终端。
- 政府愿意把 OpenAI 的“红线”写进合同:包括不将 AI 用于自主武器、国内大规模监控,以及不让 AI 参与关键决策拍板。
如果这一框架成立,意味着五角大楼在与 OpenAI 的谈判里,至少在形式上比对 Anthropic 更愿意接受模型公司的边界设置。
这和 Anthropic 冲突有什么关系
这篇报道最值得注意的地方在于:OpenAI 并没有在原则上和 Anthropic 切割。相反,Altman 表示 OpenAI 认同几乎同样的红线。
Fortune 和 Axios 都指出,OpenAI 内部传达的信息是:
- 不支持用 AI 做国内大规模监控;
- 不支持 AI 驱动自主致命武器;
- 高风险自动化决策必须保留人类在环;
- 但同时,OpenAI 仍然希望与五角大楼达成可执行合作,而不是彻底对抗。
也就是说,OpenAI 的策略不是放弃红线,而是尝试把红线“合同化”和“工程化”,以便在原则与商业机会之间找到可操作的中间地带。
为什么 OpenAI 可能比 Anthropic 更容易谈成
Fortune 报道里提到,OpenAI 内部有人认为,Anthropic 与政府关系破裂,不仅是条款问题,也和双方沟通方式恶化有关。报道称,政府方面对 Dario Amodei 的公开表态和博客内容明显不满,认为其做法让关系更快走向对立。
OpenAI 则更强调“降级冲突”(de-escalate):
- Altman 在内部表态,希望帮助缓和当前局势;
- OpenAI 认为问题的核心并不一定是“AI 到底怎么用”,而是“谁来控制这些边界”;
- 公司希望证明:即使坚持红线,也能通过更灵活的合同结构与持续监控机制,与政府共存。
从这个角度看,OpenAI 更像是在告诉五角大楼:我们不反对合作,但我们想把合作设计成一个可持续、可迭代、可审计的系统。
仍然存在的敏感分歧
尽管报道看上去释放了“谈得拢”的信号,但真正棘手的矛盾并没有消失。
Fortune 披露,OpenAI 内部承认最难处理的一点仍是**“境外监控”**。公司方面担心 AI 驱动的监控会伤害民主制度,但同时也承认,国家安全机构普遍认为,如果完全没有对外监测能力,他们就无法履行职责。
报道还提到,会议上有人引用情报判断称,中国已经在利用 AI 模型针对海外异见人士。这说明 OpenAI 正在面对一个非常现实的难题:
- 如果它坚持最严格的安全边界,可能失去国家安全合作机会;
- 如果它允许更宽泛的国际情报用途,又可能触碰自己最在意的治理红线。
这也是为什么 Altman 强调,真正难点不是一句口号式的“反对监控”,而是如何把原则落地为一套能在现实国家竞争中运行的制度安排。
这件事意味着什么
这篇 Fortune 报道传递出的最大信号是:美国政府并没有因为与 Anthropic 破裂就放弃前沿 AI 军事合作,相反,它正在迅速寻找替代方案。
而 OpenAI 显然希望成为这个替代者,但前提是:
- 它能保住自己定义的核心红线;
- 它能把这些红线写进正式合同;
- 它能说服政府接受“模型供应商在部署中仍保有一部分控制权”。
如果这笔交易成形,它将成为一个很强的先例:以后 AI 公司不再只是出售模型,而是出售“模型 + 安全控制框架 + 持续监督权”。
一句话总结
OpenAI 不是在放弃 Anthropic 式的安全边界,而是在尝试证明:即使保留这些边界,也依然可以与五角大楼做成生意。
Jim