五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争
这场冲突的核心不是单一合同去留,而是国防 AI 时代“谁来定义模型使用边界”的权力重排。

五角大楼为何起用前 Uber 高管 Emil Michael:Anthropic 冲突背后的 AI 军用路线之争
Techmeme 转引 Bloomberg 称,曾任 Uber 核心高管的 Emil Michael 正在五角大楼与 Anthropic 的争端中扮演主导角色;AP 报道补充了冲突焦点:军方要求 AI 供应商接受“all lawful use”,而 Anthropic 坚持对完全自主武器和美国国内大规模监控设置限制。

图源:Techmeme 对应 Bloomberg 条目配图。
可确认事实
Techmeme 对 Bloomberg 的公开引述显示:前 Uber 交易负责人 Emil Michael,正在五角大楼与 Anthropic 的冲突中扮演关键角色。
AP 3 月 7 日报道中,Michael 身份为美国国防部 Under Secretary for Research and Engineering,同时担任五角大楼技术负责人。
冲突焦点是 Anthropic 对 Claude 的使用限制:其明确反对用于 完全自主武器 与 美国国内大规模监控;而五角大楼要求供应商接受更广泛的 all lawful use 条款。
AP 同时提到,五角大楼已将 Anthropic 认定为供应链风险,双方争端下一步可能进入司法程序。
这不是单点舆论摩擦,而是军方采购条款与模型公司安全红线的制度性碰撞。
“是否可上战场”正在成为大模型公司最硬的商业与治理考题。
为什么重要
Bloomberg 的人物线索与 AP 的政策线索可以拼出同一趋势:五角大楼正在把“强执行、强交易”的技术官僚风格前置到 AI 国防合作中。
以 Michael 在公开访谈中的表述看,国防场景更看重可持续供给与可调用权限,而不是按具体场景逐项谈判例外。
这意味着国防 AI 合作的门槛,正从“模型性能够不够”转向“条款是否允许长期作战级部署”。
军方要的是可持续、可扩展、可战时调用的 AI 合同结构。
模型能力是入场券,条款边界才是定价权。
对谁有影响
对模型公司:需要在伦理承诺、品牌风险与国防订单之间重写产品与法务边界,且边界必须可执行而非口号化。
对云与渠道伙伴:AP 报道提到 Amazon、Microsoft、Google 仍在向客户提供 Anthropic 技术(不含国防项目),生态层将出现“同一模型,不同用途池”的分层供给。
对 OpenAI、xAI、Google 等竞品:若其更早接受国防“all lawful use”框架,将在政府与军工采购中获得时间差优势。
国防 AI 市场正在从“谁模型更强”转向“谁条款更可军用”。
未来一年,模型公司的战略分化会更多体现在合同文本,而不只是发布会。
后续观察
第一,法院或监管层面对 Anthropic 与五角大楼争议的裁定,会不会形成可复制的国防 AI 合同模板。
第二,五角大楼“all lawful use”标准是否进一步扩展到更多 AI 供应商与分包商。
第三,围绕 Golden Dome、无人系统与实时决策场景,是否会出现“人机授权阈值”的新制度设计。
你还应该看:同一时间段内 OpenAI 军方合作争议与高层离职事件,显示行业已进入“商业化推进速度”与“安全治理边界”同步拉扯阶段。
这场争端的外溢影响,将决定美国国防 AI 采购的下一版标准合同。
谁先把治理边界写进可执行条款,谁就可能主导下一轮军用 AI 生态。
syq