返回中国AI

Engadget:X 将要求付费创作者为武装冲突 AI 视频打标,不标最高永久取消分成资格

基于 Engadget 原文整理:X 首次为 AI 内容引入强制披露规则,但范围非常狭窄,仅针对参与分成计划的创作者发布的武装冲突类 AI 视频。

Jim2026年3月4日
Engadget:X 将要求付费创作者为武装冲突 AI 视频打标,不标最高永久取消分成资格

Engadget:X 将要求付费创作者为武装冲突 AI 视频打标,不标最高永久取消分成资格

基于 Engadget 原文整理:X 首次为 AI 内容引入强制披露规则,但范围非常狭窄,仅针对参与分成计划的创作者发布的武装冲突类 AI 视频。

Engadget 配图

图源:Engadget / Getty Images。

导读速览

Engadget 报道称,X 将对一类特定 AI 内容实施强制披露:如果参与平台 分成计划 的创作者发布了描绘 武装冲突 的 AI 生成视频,却没有明确标注其为 AI 内容,就会被处罚。

按 X 产品负责人 Nikita Bier 的说法,这项政策已于 2026 年 3 月 3 日 宣布,并被描述为在“times of war”背景下的必要措施。

这是 X 首次针对任何类型的 AI 内容,正式设立带有明确惩罚条款的强制披露规则。

这条新规的真正意义,不是范围有多大,而是 X 第一次把“AI 内容不标注”直接和创作者收益资格挂钩。

一旦平台把 AI 标注和钱绑定,内容合规就不再只是提醒,而会变成创作者必须遵守的经营规则。

处罚规则怎么执行

Engadget 给出的规则非常具体:如果创作者第一次违规,X 会让其在 90 天 内失去收入分成资格;如果再次违规,则会被 永久移出 收益共享计划。

也就是说,X 这次没有把处罚设计成删帖或短期警告,而是直接打在创作者最敏感的地方,也就是商业化能力。

对依赖平台分成变现的创作者来说,这类惩罚远比普通内容提示更有威慑力。

X 选择的不是内容层面轻处罚,而是收入层面重处罚。

这说明平台现在最想约束的,是把 AI 冲突视频做成可规模化获利内容的账号。

但这条政策其实很窄

Engadget 特别强调,这项规则目前的适用范围 非常狭窄。它只针对两类条件同时成立的内容:第一,发布者必须是参加 收入分成计划 的付费创作者;第二,内容必须是关于 武装冲突 的 AI 生成视频。

它并不适用于所有 AI 内容,也不适用于普通非变现账号。换句话说,X 现在还没有建立一套覆盖全平台的统一 AI 披露制度。

这也意味着,平台当前更像是在先处理政治和传播风险最高、最容易引发混淆的一类 AI 内容,而不是一次性全面收紧。

这不是“全站 AI 标签政策”,而是一条针对高风险、高传播、高争议场景的定向限制。

X 目前的策略更像风险控制试点,而不是完整的 AI 内容治理框架。

平台准备怎么查违规

按 Engadget 报道,违规内容会通过两条路径被识别:一是 Community Notes,也就是 X 的众包事实核查系统;二是检测生成式 AI 工具留下的 metadata

这套机制说明,X 并没有把责任完全交给算法,也没有完全依赖人工审核,而是试图用社区举报和技术检测做组合。

不过,这种方法能否稳定覆盖所有未标注视频,仍然是未知数,尤其是在 AI 视频质量快速提升的背景下。

X 的执法逻辑是“社区发现 + 元数据识别”,但这并不等于它已经有了完备的检测体系。

AI 视频越逼真,平台越难只靠现有元数据和社区机制长期维持高准确度。

为什么现在要出这条规则

Engadget 直言,AI 视频生成的质量提升非常快,对多数用户而言,合成内容已经越来越接近真实影像。尤其在冲突、袭击和战争相关场景里,这种模糊边界会迅速放大传播风险。

报道还提到,X 虽然此前已经会给 Grok 生成的图片和视频加水印,但此前并没有强制要求用户对 AI 内容主动披露。

与此同时,X 也在测试一个更广义的 AI labeling toggle,未来可能允许用户给任何帖子标记“合成内容”,但目前尚未公布正式上线时间。

这次新规是 X 在高风险场景下的第一步,下一步可能才是更广泛的全站 AI 标记机制。

平台先从战争视频下手,说明它最担心的不是普通 AI 娱乐内容,而是具有现实误导后果的政治和冲突影像。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

Jim