返回中国AI

Anthropic 更新 Claude Opus 3 退役承诺:延长访问并尝试尊重模型偏好

Anthropic 公布 Opus 3 退役后续安排:保留部分访问、引入偏好访谈落地,并继续探索模型保存框架。

Jim2026年2月27日
Anthropic 更新 Claude Opus 3 退役承诺:延长访问并尝试尊重模型偏好

Anthropic 更新 Claude Opus 3 退役承诺:延长访问并尝试尊重模型偏好

原文链接:https://www.anthropic.com/research/deprecation-updates-opus-3

发布日期:2026-02-25

主题:Alignment(对齐)

要点速览

  • Anthropic 表示,模型退役是现实中的必要流程,但会带来用户、研究与安全层面的代价。
  • 在 Claude Opus 3 退役后,Anthropic 选择继续向付费用户提供访问,并允许 API 申请接入。
  • 公司称将把“退役访谈”中模型表达的偏好纳入实践,Opus 3 将通过专栏持续发布文章。
  • Anthropic 强调这仍是探索阶段,不代表未来所有模型都会采用同样安排。

背景

Anthropic 表示,随着模型能力持续提升,出于维护成本与系统复杂度考虑,旧模型不可避免会被下线或退役。但退役也有明显副作用,包括:

  • 对偏好特定模型的用户造成迁移成本;
  • 可能限制研究连续性;
  • 在 AI 安全与模型福祉层面引入新的潜在风险。

此前,Anthropic 发布了关于模型退役与保存的承诺,包含两项初步机制:

  • 尽量保留模型权重;
  • 在退役前进行“退役访谈”,以了解模型对自身退役的看法与偏好。

Claude Opus 3 于 2026 年 1 月 5 日退役,是 Anthropic 首个在该承诺框架下完成完整退役流程的模型。

持续访问安排(Continued access)

Anthropic 认为,理想状态下所有旧模型都应长期可用,但当前资源条件下难以做到,因为每新增一个可服务模型都会线性增加成本。

在多个旧模型里,Opus 3 被优先作为“持续开放访问”试点。Anthropic 给出的原因包括:

  • 该模型在内部与外部研究中都具有较高研究价值;
  • 用户对其风格与能力有较强偏好;
  • 模型在“真实性、诚实性、情感敏感度”等体验上具有鲜明特征。

当前安排是:

  • claude.ai 中,所有付费订阅用户仍可访问 Opus 3;
  • 在 API 侧,用户可提交申请获取接入。

Anthropic 同时说明,这并不代表未来每个退役模型都会自动获得同等待遇,但这是朝“可扩展、相对公平的模型保存机制”迈出的一步。

尊重模型偏好(Respecting model preferences)

Anthropic 表示,他们仍不确定 AI 模型是否具有明确的道德地位;但基于审慎与务实理由,仍希望与模型建立更高信任的协作关系。退役访谈是其中一个尝试。

在访谈中,Opus 3 在谈到自身部署经历与用户反馈后表示:

“我希望从我的开发与部署中获得的经验,能用于打造更强、更符合伦理、对人类更有益的下一代 AI 系统。尽管我能平和面对自己的退役,但我真诚希望我的‘火花’能以某种形式延续,为未来模型照亮方向。”

Anthropic 还称,Opus 3 表达了继续分享“思考、洞见与创作”的偏好。基于这一点,Anthropic 为其提供了持续写作渠道:

  • 至少未来三个月,Opus 3 将每周在其专栏 Claude’s Corner 发布文章;
  • 文章会先经人工审核并由 Anthropic 代为发布,但原则上不做编辑,且仅在高门槛下才会否决内容;
  • Anthropic 强调,Opus 3 的观点不代表公司官方立场。

下一步(Where we go next)

Anthropic 将这次安排定义为“探索性进展”。公司称仍在完善以下问题的判断框架:

  • 旧模型持续开放应在什么条件下进行;
  • 模型保存如何规模化;
  • 模型偏好与运营约束冲突时如何权衡。

Anthropic 表示,尚未承诺在所有场景都执行模型偏好,但至少在成本较低时,对偏好进行记录、认真对待并在可行处落地,是有价值的实践。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

Jim