Anthropic 内部备忘录外泄:Amodei 将 OpenAI 五角大楼合作称为“安全作秀”
The Information 披露的内部备忘录显示,Anthropic 与 OpenAI 在国防合作上的分歧已经公开化,争议核心从模型安全叙事延伸到政治关系与政府采购偏好。

Anthropic 内部备忘录外泄:Amodei 将 OpenAI 五角大楼合作称为“安全作秀”
据 The Information 可见摘要,Anthropic CEO Dario Amodei 在内部沟通中批评 OpenAI 与美国国防部合作,并指白宫对 Anthropic 不满;事件折射 AI 公司与政府合作的政治与安全博弈。

图源:The Information(付费内容页面可见配图)。
事件要点
根据 The Information 可见摘要,Anthropic CEO Dario Amodei 在一份周五内部备忘录中,将 OpenAI 与美国国防部的合作称为“safety theater(安全作秀)”。
同一摘要还提到,Amodei 认为特朗普政府对 Anthropic 的不满,部分来自公司没有进行“dictator-style praise(独裁者式赞美)”。
这让原本围绕“谁更安全”的模型竞争,进一步外溢到 政治沟通 与 政府关系 层面。
核心冲突已不只是技术路线,而是“安全叙事 + 政治关系 + 采购通道”的综合博弈。
AI 军事合作进入公开舆论阶段后,头部实验室之间的分歧正在快速制度化。
为什么这条消息重要
OpenAI 与 Anthropic 此前都强调“安全优先”,但此次外泄内容表明,两家公司对“与政府尤其国防系统如何合作”的边界认知并不一致。
当“安全”被双方同时占用为正当性话语后,真正决定合作落地的变量,会转向 交付能力、政府信任 与 政治可接受性。
这意味着未来美国 AI 大单竞争,可能不再是单纯模型评分,而是“谁能在华盛顿持续可合作”。
在高敏感政府场景,技术领先并不自动等于采购领先。
产业竞争正从“模型能力战”转向“模型+组织关系战”。
对市场的直接影响
短期看,这类争议会抬高市场对 政策风险 与 客户集中度 的关注,尤其是与国防、情报、关键基础设施相关的 AI 合同。
中期看,头部模型公司可能会更明确地区分“商用安全叙事”和“政府安全叙事”,并在合规、审计和对外口径上进一步分层。
对生态伙伴而言,选型逻辑也会变化:除了模型表现,还会看供应商在政府端的稳定性与舆情抗压能力。
这不是一条孤立新闻,而是 AI 国家级采购规则正在成形的信号。
未来的大合同,拼的是长期可治理能力,而不只是一次演示效果。
信息边界说明
该链接为 The Information 付费页面,当前可直接核验的信息主要来自公开标题、可见摘要与页面元数据。
本文采用 保守翻译整理:保留可确认信息,并对行业影响做有限推演;未把付费墙后不可见细节写成既定事实。
如后续获得全文,可在同版式下升级为“全文细节版”。
当前版本可用于快速发布与社媒分发,但不替代全文复核稿。
先发“可确认事实 + 结构化解读”,再迭代深度版,是当前最稳妥的生产策略。
Jim