The Verge:OpenAI 如何在“AI 监控”问题上向五角大楼让步
The Verge 分析称,OpenAI 与五角大楼的新协议并未像 Sam Altman 所暗示的那样真正保住更强红线,而是更依赖“any lawful use”和现有法律框架,这让其在大规模监控与自主武器上的限制明显弱于 Anthropic。

Deep Read | 2026年3月2日 | The Verge / AI Policy
The Verge:OpenAI 如何在“AI 监控”问题上向五角大楼让步

先看重点
- The Verge 的核心判断是:OpenAI 并没有像 Sam Altman 所暗示的那样,让五角大楼真正接受更强硬的“红线”。
- 与 Anthropic 试图推动的明确禁令相比,OpenAI 的 Pentagon 协议更依赖一句范围很宽的表述:
any lawful use。 - 这意味着,只要美国政府认定某种用途在法律上站得住脚,军方就仍可能使用 OpenAI 技术推进相关任务。
- The Verge 认为,这让 OpenAI 所宣称的两条原则,即“反国内大规模监控”和“人在武力使用中的责任”,变得明显更软。
- 报道同时指出,OpenAI 所强调的
classifiers、云端部署和安全训练模型,并不能从结构上解决这些争议。
背景:Anthropic 被拉黑后,OpenAI 迅速签下了协议
The Verge 报道称,这场争议发生在五角大楼与 Anthropic 的谈判破裂之后。
此前,Anthropic 在军事用途上坚持两条红线:
- 不允许针对美国人的大规模监控
- 不允许无人工监督的致命自主武器
由于拒绝在这两点上后退,Anthropic 随后被美国国防部列为“供应链风险”。几乎在同一时间,Sam Altman 对外宣布,OpenAI 已经和五角大楼谈成了新条款,并暗示自己成功把类似原则写进了协议。
The Verge 这篇文章的核心,就是质疑这一说法是否成立。
1. The Verge 的判断:五角大楼并没有让步,是 OpenAI 在让步
根据 The Verge 引述的知情人士说法,五角大楼在关键问题上并没有松口。
报道给出的关键描述是:OpenAI 同意遵守那些过去就曾被用于支撑大规模监控的现有法律体系,同时又把这包装成自身红线仍被保留。
也就是说,OpenAI 的做法不是逼 Pentagon 接受新的、额外的限制,而是把现有法律框架解释成“已经足够体现我们的原则”。这正是文章标题里“caved(让步)”的核心含义。
2. 三个关键字:any lawful use
报道中最重要的合同判断,集中在三个词:any lawful use。
按 The Verge 采访到的说法,这组表述意味着:
- 只要某项用途在技术上被认定为合法;
- 美国军方就可以在该范围内使用 OpenAI 的技术;
- 而过去几十年里,美国政府对“合法”的解释空间本身就很大。
这也是为什么外界会认为 OpenAI 的协议比 Anthropic 主张的版本软得多。Anthropic 想要的是更明确的禁止条款;OpenAI 接受的,则更像是“服从现行法律”。
3. 为什么“遵守现行法律”并不能自动排除大规模监控
The Verge 文章的核心论据之一,是美国现有法律和政策本身,并不足以构成对 AI 时代大规模监控的强约束。
报道提到,OpenAI 对外说明中引用了如下框架:
Fourth AmendmentNational Security Act of 1947Foreign Intelligence Surveillance Act of 1978Executive Order 12333- 以及适用的国防部指令
但 The Verge 强调,过去美国情报体系正是在这些或相近法律依据下,推动过广泛监控项目。文章还提到 Snowden 在 2013 年 披露的大规模监控计划,包括 Verizon 通话记录收集和 PRISM 等项目。
因此,这篇报道的结论不是“OpenAI 明确允许国内大规模监控”,而是:它所依赖的法律框架,并没有像 Altman 暗示的那样,天然构成足够硬的禁区。
4. OpenAI 的公开回应:否认协议允许越线
OpenAI 发言人 Kate Waters 对 The Verge 表示:
- 五角大楼并没有要求大规模监控权限;
- 协议不允许系统以“批量、开放式、泛化”的方式收集或分析美国人数据;
- 所有情报活动都必须遵守现有美国法律。
但 The Verge 采访的研究者和评论者认为,这里的措辞存在明显弹性。像 unconstrained、generalized、open-ended 这样的限定词,并不等同于完整、无条件的禁止。
文章引用伯克利学者 Sarah Shoker 的看法称,这类模糊表述本身就是为了给公司管理层保留操作空间。
5. 在现行规则下,AI 仍可能被用于“合法但高度侵入”的画像与检索
The Verge 进一步推演称,即便按 OpenAI 当前表述,在 Pentagon 现有法律约束下,仍可能出现一些大规模、但被认定为“合法”的用法,例如:
- 在外国情报数据库中大规模检索与美国人有关的信息
- 购买数据经纪商出售的批量位置数据,再用模型分析行为模式
- 把公开数据、监控视频、社交媒体、投票登记等信息快速拼接,形成大量个人画像
也就是说,这篇报道的核心不是指控某个具体项目已经发生,而是指出:在合同语言和现有法律结合后,OpenAI 所谓“反监控红线”的实际边界,仍然很宽。
6. “致命自主武器”这一红线,同样比 Anthropic 版本更弱
报道还指出,OpenAI 在武器问题上的合同语言也明显弱于 Anthropic 所坚持的版本。
OpenAI 公布的摘要条款大意是:其技术不会在法律、监管或部门政策要求人工控制的情况下,独立指挥自主武器。
这与 Anthropic 的主张差异很大。Anthropic 想要的是:至少在技术被其认定成熟之前,不允许无适当人工监督的致命自主武器。
The Verge 的判断是,OpenAI 的版本更接近“遵守现有规则”,而不是额外加一道强约束。只要政府认为某类使用在现行规则下仍合法,OpenAI 的条款就未必能形成真正阻断。
7. 技术护栏并不能替代合同红线
Sam Altman 还强调了几类技术和部署层面的安全机制:
- 给部分员工安全许可,参与系统检查
- 使用
classifiers监测模型行为 - 只提供带安全训练的模型
- 仅在云端部署,不下放到边缘设备
但 The Verge 引述的知情人士认为,这些做法的约束能力有限。
原因在于:
classifiers很难判断一次查询是孤立请求,还是更大规模监控计划的一部分- 它也无法确认对武力打击的最终决定,是否真的在事前经过了人类审查
- 云端部署并不天然排除大规模监控,因为这类任务本来就依赖海量数据和云端算力
- 即便最终不开火的动作在本地完成,整个“杀伤链”前面的大量分析与筛选,仍可能在云端发生
因此,The Verge 的结论是:技术护栏可以减轻风险,但并不能替代合同里更明确的禁止条款。
NoRumor 判断
这篇 The Verge 文章真正指出的,不是 OpenAI 已经公开允许某种最极端用途,而是它选择了一套更依赖现有法律解释、而不是新增硬性合同限制的路径。
这会带来两个直接后果:
- 对外,OpenAI 可以继续宣称自己保留了原则;
- 但对内和对实际执行来说,这些原则的边界会更依赖政府如何解释“合法”、以及公司如何解释“不过线”。
换句话说,Anthropic 试图争取的是“事前明文禁止”,而 OpenAI 接受的更像是“在现有法律框架下尽量不失控”。从风险控制的强度看,这两者并不等价。
原文来源:The Verge,作者 Hayden Field,发表于 2026 年 3 月 2 日。本文为基于可访问 gift 链接正文整理的中文版本。
Jim