The Atlantic:Anthropic 与五角大楼“杀手机器人”争议的真正分歧点
The Atlantic 报道称,Anthropic 与五角大楼谈崩的关键在于其拒绝让模型分析美国人大规模数据,并认为“仅限云端部署”不足以把 AI 与自主武器责任真正切开。
The Atlantic:Anthropic 与五角大楼“杀手机器人”争议的真正分歧点
来源:The Atlantic
发布时间:2026-03-01
说明:这是可访问的 gift 链接,以下为基于原文的中文整理版。
![]()
核心信息
The Atlantic 这篇报道给出了一个比公开声明更具体的解释:Anthropic 与五角大楼谈崩,真正压垮谈判的,不只是“自主武器”这条红线,而是五角大楼仍希望使用 Anthropic 的 AI 去分析从美国人身上大规模收集到的数据。
也就是说,这场冲突的核心并不是一句抽象的“伦理分歧”,而是双方最终在两个问题上没能达成一致:
- 大规模国内监控的边界到底画在哪里;
- “模型在云上”是否真的足以切断它与自主武器的责任关系。
1. 谈判其实一度看起来快要谈成
报道说,在国防部长 Pete Hegseth 决定终止与 Anthropic 的关系前,Anthropic 的管理层一直以为协议仍有机会达成。
背景是:
- 五角大楼坚持要求重新谈判与 Anthropic 的合同;
- 谈判的目标之一,是去掉 Anthropic 事先放入合同的伦理限制;
- 按熟悉谈判的人士说法,周五早上,Anthropic 一度收到消息,称五角大楼愿意做出重大让步。
其中一个变化是,五角大楼原本反复在承诺里加入类似 as appropriate 这种留下解释空间的措辞,等于给自己保留后门。后来,五角大楼据说愿意删除这些模糊字眼,这让 Anthropic 团队一度松了一口气。
2. 真正让协议破裂的是“美国人大规模数据分析”
但到了周五下午,Anthropic 得知五角大楼仍希望使用其 AI 去分析从美国人身上批量收集的数据,谈判由此彻底破裂。
报道列出的潜在数据类型包括:
- 你向聊天机器人提出的问题;
- Google 搜索历史;
- 带 GPS 轨迹的位置数据;
- 信用卡交易记录;
- 以及其他可以交叉关联的个人生活信息。
Anthropic 认为,这已经越过底线,因此直接告诉 Hegseth 团队无法接受。随后,Hegseth 便下令美国军方的承包商、供应商和合作方停止与 Anthropic 往来。
这也解释了为什么双方此前看似都在谈“不要大规模监控”,最后还是会谈崩:双方对“什么算被允许的数据使用”存在实质性分歧。
3. 自主武器争议里,Anthropic 不是反对武器本身
报道还补充了另一个很重要的细节:Anthropic 的立场并不是“自主武器绝对不该存在”。
相反,报道中的知情人士称,Anthropic 甚至愿意协助五角大楼提升这类系统的可靠性。它的判断更接近于:
- 从长期看,类似杀伤无人机也许可能比人类操作员更精准;
- 如果系统足够成熟,未来甚至可能降低误伤平民的概率;
- 但至少在当前阶段,Anthropic 认为模型还远没有达到这个安全阈值。
Anthropic 担心的是,现在的模型可能导致系统:
- 更不加区分地开火;
- 做出不准确判断;
- 误伤平民;
- 甚至危及美军自己。
所以它反对的是“在当下能力还不够可靠时,让模型进入最终杀伤决策链路”。
4. 为什么“只放在云上”并没能说服 Anthropic
谈判中曾出现过一个折中思路:如果五角大楼承诺只把 Anthropic 的 AI 留在云端,而不直接部署到无人机或其他武器系统里,这个问题能不能解决?
表面上看,这种方案似乎很合理:
- 模型在云端整合情报;
- 无人机等边缘设备不直接运行模型;
- 因此模型不直接做“开火决定”。
但 Anthropic 最终没有接受这种逻辑。
它的理由是:在现代军事 AI 架构里,“云”和“边缘”的界限已经不再清晰。
报道里形容,这种关系已经不像一堵墙,更像一个连续光谱。战场上的无人机如今可以通过网状网络与云端数据中心协同;而军方的天然冲动一定是保持尽可能强的连接,因为连接越强,系统越“聪明”。
在这种架构下,即便模型物理上仍在云端,只要它持续参与战场决策,伦理上与“它直接嵌在武器里”之间的差别就没那么大。
5. 五角大楼本身也在主动把“云”推向战场前线
报道进一步指出,五角大楼并不是被动接受这种架构变化,而是在主动推进它。
其提到的一个例子是 Joint Warfighting Cloud Capability。这个项目的目标之一,就是把计算资源尽量向前线推近。
因此,即便 AI 模型运行在美国本土的云服务器,比如 AWS 的数据中心,而不是直接在海外战区的设备上,本质问题依然存在:
- 如果模型正在影响战场判断;
- 如果武器系统仍与云端保持紧密联动;
- 那么“它在云上”并不足以构成一个干净的伦理切割。
这也是为什么 Anthropic 很快就否定了“只放云端即可解决”这条路线。
6. Anthropic 原本可能希望其他公司也守住同样底线
报道还指出,Anthropic 领导层原本或许期待其他前沿 AI 公司在这些问题上也会采取类似立场。
尤其在本周早些时候,OpenAI CEO Sam Altman 曾表示,OpenAI 也不会允许其模型被用于自主武器系统。
但事情随即发生变化:
- 就在 Anthropic 的协议破裂后数小时;
- OpenAI 与五角大楼的新协议便宣布达成;
- OpenAI 随后发布声明,强调自己的模型也只会在云端部署。
这就使得问题变得更加尖锐:Anthropic 认为“云端部署”不足以构成真正的伦理隔离,而 OpenAI 却接受了这套安排。
7. OpenAI 内部也开始出现同样的员工压力
The Atlantic 还提到,截至当天下午,已有接近 100 名 OpenAI 员工 签署公开信,表示他们支持与 Anthropic 相同的红线,尤其是在:
- 大规模国内监控;
- 自主武器;
这两个问题上。
这意味着,争议并没有因为 OpenAI 成交而结束,反而被进一步推向了新的内部矛盾:
- Altman 之前公开表达过与 Anthropic 的某种一致性;
- 但最终却接受了一套 Anthropic 很快就否决的“云端解决方案”;
- 接下来,OpenAI 管理层很可能需要向自家员工解释,为什么同一套原则在 Anthropic 那里意味着“拒绝”,在 OpenAI 这里却意味着“可以成交”。
这篇报道真正补充了什么
这篇 The Atlantic 的价值,不在于重复“Anthropic 和五角大楼谈崩了”,而在于它把两个关键分歧讲得更具体了:
- 第一,监控问题的实质,不是抽象口号,而是五角大楼是否仍希望用 AI 去分析美国人的批量数据。
- 第二,自主武器问题的实质,不是模型在不在武器里,而是现代军事架构下,云端模型是否仍在实质性参与战场决策。
一旦这样理解,就能看出 Anthropic 与 OpenAI 并不只是“谈判策略不同”,而是在“云端部署究竟能不能构成足够伦理隔离”这个问题上,做出了不同判断。
一句话总结
这篇 The Atlantic 报道的核心是:Anthropic 与五角大楼决裂的关键,不只是反对“杀手机器人”本身,而是它拒绝让自己的 AI 被用于分析美国人大规模数据,也不接受“模型只要放在云端就能与自主武器切割责任”这一前提;而这恰恰构成了它与 OpenAI 路线分化的真正分水岭。
Jim