返回硅谷AI

The Verge:OpenAI 如何在“AI 监控”问题上向五角大楼让步

The Verge 分析称,OpenAI 与五角大楼的新协议并未像 Sam Altman 所暗示的那样真正保住更强红线,而是更依赖“any lawful use”和现有法律框架,这让其在大规模监控与自主武器上的限制明显弱于 Anthropic。

Jim2026年3月3日
The Verge:OpenAI 如何在“AI 监控”问题上向五角大楼让步

Deep Read | 2026年3月2日 | The Verge / AI Policy

The Verge:OpenAI 如何在“AI 监控”问题上向五角大楼让步

The Verge 配图

先看重点

  • The Verge 的核心判断是:OpenAI 并没有像 Sam Altman 所暗示的那样,让五角大楼真正接受更强硬的“红线”。
  • 与 Anthropic 试图推动的明确禁令相比,OpenAI 的 Pentagon 协议更依赖一句范围很宽的表述:any lawful use
  • 这意味着,只要美国政府认定某种用途在法律上站得住脚,军方就仍可能使用 OpenAI 技术推进相关任务。
  • The Verge 认为,这让 OpenAI 所宣称的两条原则,即“反国内大规模监控”和“人在武力使用中的责任”,变得明显更软。
  • 报道同时指出,OpenAI 所强调的 classifiers、云端部署和安全训练模型,并不能从结构上解决这些争议。

背景:Anthropic 被拉黑后,OpenAI 迅速签下了协议

The Verge 报道称,这场争议发生在五角大楼与 Anthropic 的谈判破裂之后。

此前,Anthropic 在军事用途上坚持两条红线:

  • 不允许针对美国人的大规模监控
  • 不允许无人工监督的致命自主武器

由于拒绝在这两点上后退,Anthropic 随后被美国国防部列为“供应链风险”。几乎在同一时间,Sam Altman 对外宣布,OpenAI 已经和五角大楼谈成了新条款,并暗示自己成功把类似原则写进了协议。

The Verge 这篇文章的核心,就是质疑这一说法是否成立。

1. The Verge 的判断:五角大楼并没有让步,是 OpenAI 在让步

根据 The Verge 引述的知情人士说法,五角大楼在关键问题上并没有松口。

报道给出的关键描述是:OpenAI 同意遵守那些过去就曾被用于支撑大规模监控的现有法律体系,同时又把这包装成自身红线仍被保留。

也就是说,OpenAI 的做法不是逼 Pentagon 接受新的、额外的限制,而是把现有法律框架解释成“已经足够体现我们的原则”。这正是文章标题里“caved(让步)”的核心含义。

2. 三个关键字:any lawful use

报道中最重要的合同判断,集中在三个词:any lawful use

按 The Verge 采访到的说法,这组表述意味着:

  • 只要某项用途在技术上被认定为合法;
  • 美国军方就可以在该范围内使用 OpenAI 的技术;
  • 而过去几十年里,美国政府对“合法”的解释空间本身就很大。

这也是为什么外界会认为 OpenAI 的协议比 Anthropic 主张的版本软得多。Anthropic 想要的是更明确的禁止条款;OpenAI 接受的,则更像是“服从现行法律”。

3. 为什么“遵守现行法律”并不能自动排除大规模监控

The Verge 文章的核心论据之一,是美国现有法律和政策本身,并不足以构成对 AI 时代大规模监控的强约束。

报道提到,OpenAI 对外说明中引用了如下框架:

  • Fourth Amendment
  • National Security Act of 1947
  • Foreign Intelligence Surveillance Act of 1978
  • Executive Order 12333
  • 以及适用的国防部指令

但 The Verge 强调,过去美国情报体系正是在这些或相近法律依据下,推动过广泛监控项目。文章还提到 Snowden 在 2013 年 披露的大规模监控计划,包括 Verizon 通话记录收集和 PRISM 等项目。

因此,这篇报道的结论不是“OpenAI 明确允许国内大规模监控”,而是:它所依赖的法律框架,并没有像 Altman 暗示的那样,天然构成足够硬的禁区。

4. OpenAI 的公开回应:否认协议允许越线

OpenAI 发言人 Kate Waters 对 The Verge 表示:

  • 五角大楼并没有要求大规模监控权限;
  • 协议不允许系统以“批量、开放式、泛化”的方式收集或分析美国人数据;
  • 所有情报活动都必须遵守现有美国法律。

但 The Verge 采访的研究者和评论者认为,这里的措辞存在明显弹性。像 unconstrainedgeneralizedopen-ended 这样的限定词,并不等同于完整、无条件的禁止。

文章引用伯克利学者 Sarah Shoker 的看法称,这类模糊表述本身就是为了给公司管理层保留操作空间。

5. 在现行规则下,AI 仍可能被用于“合法但高度侵入”的画像与检索

The Verge 进一步推演称,即便按 OpenAI 当前表述,在 Pentagon 现有法律约束下,仍可能出现一些大规模、但被认定为“合法”的用法,例如:

  • 在外国情报数据库中大规模检索与美国人有关的信息
  • 购买数据经纪商出售的批量位置数据,再用模型分析行为模式
  • 把公开数据、监控视频、社交媒体、投票登记等信息快速拼接,形成大量个人画像

也就是说,这篇报道的核心不是指控某个具体项目已经发生,而是指出:在合同语言和现有法律结合后,OpenAI 所谓“反监控红线”的实际边界,仍然很宽。

6. “致命自主武器”这一红线,同样比 Anthropic 版本更弱

报道还指出,OpenAI 在武器问题上的合同语言也明显弱于 Anthropic 所坚持的版本。

OpenAI 公布的摘要条款大意是:其技术不会在法律、监管或部门政策要求人工控制的情况下,独立指挥自主武器。

这与 Anthropic 的主张差异很大。Anthropic 想要的是:至少在技术被其认定成熟之前,不允许无适当人工监督的致命自主武器。

The Verge 的判断是,OpenAI 的版本更接近“遵守现有规则”,而不是额外加一道强约束。只要政府认为某类使用在现行规则下仍合法,OpenAI 的条款就未必能形成真正阻断。

7. 技术护栏并不能替代合同红线

Sam Altman 还强调了几类技术和部署层面的安全机制:

  • 给部分员工安全许可,参与系统检查
  • 使用 classifiers 监测模型行为
  • 只提供带安全训练的模型
  • 仅在云端部署,不下放到边缘设备

但 The Verge 引述的知情人士认为,这些做法的约束能力有限。

原因在于:

  • classifiers 很难判断一次查询是孤立请求,还是更大规模监控计划的一部分
  • 它也无法确认对武力打击的最终决定,是否真的在事前经过了人类审查
  • 云端部署并不天然排除大规模监控,因为这类任务本来就依赖海量数据和云端算力
  • 即便最终不开火的动作在本地完成,整个“杀伤链”前面的大量分析与筛选,仍可能在云端发生

因此,The Verge 的结论是:技术护栏可以减轻风险,但并不能替代合同里更明确的禁止条款。

NoRumor 判断

这篇 The Verge 文章真正指出的,不是 OpenAI 已经公开允许某种最极端用途,而是它选择了一套更依赖现有法律解释、而不是新增硬性合同限制的路径。

这会带来两个直接后果:

  • 对外,OpenAI 可以继续宣称自己保留了原则;
  • 但对内和对实际执行来说,这些原则的边界会更依赖政府如何解释“合法”、以及公司如何解释“不过线”。

换句话说,Anthropic 试图争取的是“事前明文禁止”,而 OpenAI 接受的更像是“在现有法律框架下尽量不失控”。从风险控制的强度看,这两者并不等价。


原文来源:The Verge,作者 Hayden Field,发表于 2026 年 3 月 2 日。本文为基于可访问 gift 链接正文整理的中文版本。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

Jim