返回国际动态

五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争

这场冲突的核心不是单一合同去留,而是国防 AI 时代“谁来定义模型使用边界”的权力重排。

syq2026年3月8日
五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争
五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争

五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争

Techmeme 转引 Bloomberg 称,曾任 Uber 核心高管的 Emil Michael 正在五角大楼与 Anthropic 的争端中扮演主导角色;AP 报道补充了冲突焦点:军方要求 AI 供应商接受“all lawful use”,而 Anthropic 坚持对完全自主武器和美国国内大规模监控设置限制。

Emil Michael 与 Pentagon-Anthropic 争端相关报道配图

图源:Techmeme 对应 Bloomberg 条目配图。

可确认事实

Techmeme 对 Bloomberg 的公开引述显示:前 Uber 交易负责人 Emil Michael,正在五角大楼与 Anthropic 的冲突中扮演关键角色。

AP 3 月 7 日报道中,Michael 身份为美国国防部 Under Secretary for Research and Engineering,同时担任五角大楼技术负责人。

冲突焦点是 Anthropic 对 Claude 的使用限制:其明确反对用于 完全自主武器美国国内大规模监控;而五角大楼要求供应商接受更广泛的 all lawful use 条款。

AP 同时提到,五角大楼已将 Anthropic 认定为供应链风险,双方争端下一步可能进入司法程序。

这不是单点舆论摩擦,而是军方采购条款与模型公司安全红线的制度性碰撞。

“是否可上战场”正在成为大模型公司最硬的商业与治理考题。

为什么重要

Bloomberg 的人物线索与 AP 的政策线索可以拼出同一趋势:五角大楼正在把“强执行、强交易”的技术官僚风格前置到 AI 国防合作中。

以 Michael 在公开访谈中的表述看,国防场景更看重可持续供给与可调用权限,而不是按具体场景逐项谈判例外。

这意味着国防 AI 合作的门槛,正从“模型性能够不够”转向“条款是否允许长期作战级部署”。

军方要的是可持续、可扩展、可战时调用的 AI 合同结构。

模型能力是入场券,条款边界才是定价权。

对谁有影响

对模型公司:需要在伦理承诺、品牌风险与国防订单之间重写产品与法务边界,且边界必须可执行而非口号化。

对云与渠道伙伴:AP 报道提到 Amazon、Microsoft、Google 仍在向客户提供 Anthropic 技术(不含国防项目),生态层将出现“同一模型,不同用途池”的分层供给。

对 OpenAI、xAI、Google 等竞品:若其更早接受国防“all lawful use”框架,将在政府与军工采购中获得时间差优势。

国防 AI 市场正在从“谁模型更强”转向“谁条款更可军用”。

未来一年,模型公司的战略分化会更多体现在合同文本,而不只是发布会。

后续观察

第一,法院或监管层面对 Anthropic 与五角大楼争议的裁定,会不会形成可复制的国防 AI 合同模板。

第二,五角大楼“all lawful use”标准是否进一步扩展到更多 AI 供应商与分包商。

第三,围绕 Golden Dome、无人系统与实时决策场景,是否会出现“人机授权阈值”的新制度设计。

你还应该看:同一时间段内 OpenAI 军方合作争议与高层离职事件,显示行业已进入“商业化推进速度”与“安全治理边界”同步拉扯阶段。

这场争端的外溢影响,将决定美国国防 AI 采购的下一版标准合同。

谁先把治理边界写进可执行条款,谁就可能主导下一轮军用 AI 生态。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

syq