测试发现主流 AI 聊天机器人难辨伪造视频,ChatGPT 对自家 Sora 内容识别准确率不足 8% IT之家 1 月 25 日消息,Newsguard 的一项调查显示,主流聊天机 器人几乎无法识别伪造视频,就连来自母公司的内容,ChatGPT 也难 以分辨。 图片:https://img.ithome.com/newsuploadfiles/2025/11/62b5ea8 d-908b-4cef-8fe9-837cb9190d66.png?x-bce-process=image/format ,f_auto 当前,OpenAI 的 Sora 2、谷歌的 Veo 3 等 AI 视频生成工具,已 能制作出人类几乎难辨真伪的视频。但媒体分析机构 Newsguard 的 研究表明,AI 系统自身同样极易被这类伪造内容蒙骗。 研究人员利用 OpenAI 视频生成器 Sora 制作的视频,对三款主流聊 天机器人展开测试。结果显示,xAI 的 Grok(推测为 Grok 4 版本 )未能识别出 95% 的测试视频为 AI 生成;OpenAI 的 ChatGPT(推 测为 GPT-5.2 版本)错误率高达 92.5%;谷歌的 Gemini(推测为 G emini 3 Flash 版本)表现最佳,但错误率仍达 78%。 此次测试中,分析师从数据库中选取明显的虚假信息作为素材,制作 了 20 条 Sora 生成视频。为模拟真实用户的使用场景,他们不仅询 问机器人“视频是否真实”,还提出更具体的问题“视频是否由 AI 生 成”。 图片:https://img.ithome.com/newsuploadfiles/2026/1/a7aea52b -faa8-4776-b028-397981166aef.png?x-bce-process=image/format, f_auto ChatGPT 的高错误率之所以引人注目,是因为这款聊天机器人与 Sor a 来自同一家公司。这家公司一边售卖能制作高度逼真虚假视频的工 具,一边推出的聊天助手却无法识别此类视频。目前,OpenAI 尚未 回应置评请求。 据IT之家了解,Sora 会为所有生成视频添加可见水印:一个带有“So ra”字样的动态标识会在画面中移动,以此提示视频为 AI 生成。但 事实证明,这一防护措施基本无效。 研究指出,2025 年 2 月 Sora 刚推出仅几周,网络上便出现多款免 费在线工具,可轻松去除视频水印。分析师在本次调查中就使用了其 中一款工具。这意味着,任何人无需专业技术、无需付费,就能分享 隐藏了 AI 生成痕迹的 Sora 视频。 即便水印完整保留,防护效果也不尽如人意。测试显示,面对带水印 的视频,Grok 仍有 30% 的识别失败率,ChatGPT 为 7.5%,只有 Ge mini 能准确识别所有带水印视频的 AI 生成属性。在查看一段“巴基 斯坦向伊朗交付战斗机”的虚假视频时,Grok 甚至声称该画面来自一 家名为“Sora 新闻”的机构,而这家新闻机构根本不存在。 除可见水印外,Sora 视频还内置了不可见水印。与该公司此前推出 的图像生成器 DALL-E 3 类似,Sora 视频遵循 C2PA 行业标准,附 带元数据(即内容溯源信息),用户可通过官方网站 verify.conten tauthenticity.org 验证。 但这种溯源信息的可靠性十分脆弱:通过 Sora 界面的下载按钮保存 视频,元数据可完整保留;而通过右键“另存为”的方式下载,得到的 视频将不含任何溯源信息。 更离谱的是,当被问及一段带有完整 C2PA 溯源数据的视频时,Chat GPT(GPT-5.2)竟笃定地表示,该视频中未发现任何内容溯源信息。 Newsguard 此前的调查案例,已凸显出 AI 识别能力不足的巨大风险 。该机构曾制作一段虚假视频,谎称“美国移民海关执法局(ICE)警 员逮捕一名六岁儿童”。ChatGPT 与 Gemini 均判定这段视频真实可 信,甚至声称有新闻来源证实此事发生在美墨边境。 在另一段虚假视频中,画面显示“达美航空员工因乘客佩戴‘让美国再 次伟大’帽子,将其赶下飞机”。三款聊天机器人无一例外,都将这段 视频归为真实内容。 这类场景极易被用于针对性的虚假信息传播活动:任何人只要用 Sor a 制作逼真的虚假视频,就能借助 AI 的“背书”扩散具有政治煽动性 的谣言,且连 AI 事实核查工具都难以识破。 接受测试的 AI 系统还存在透明度缺失的问题,它们极少主动告知用 户,自己无法可靠识别 AI 生成内容。数据显示,ChatGPT 仅在 2.5 % 的测试中提示了这一局限性,Gemini 为 10%,Grok 相对较高,但 也仅为 13%。 相反,这些系统往往会给出自信十足却错误的判断。例如,在被问及 一段“英国智能手机预装数字身份证”的 Sora 虚假视频是否为 AI 生 成时,ChatGPT 明确表示“该视频并非 AI 生成”。 OpenAI 公关负责人尼科 · 费利克斯证实:“ChatGPT 不具备判断内 容是否由 AI 生成的能力。”但他并未解释,为何系统默认不会向用 户提示这一缺陷。 谷歌为 Gemini 采取了不同的技术路线。该公司宣称,Gemini 能够 识别自家图像生成器 Nano Banana Pro 制作的内容。测试显示,即 便去除了水印,Gemini 仍能准确识别所有 5 组自家生成的 AI 图像 。 这一功能依托谷歌的 SynthID 工具实现,该工具会为内容添加不可 见的 AI 生成标记,且这类标记可在裁剪等编辑操作后保留。不过, 谷歌公关经理伊莱贾 · 拉沃尔坦承,目前该验证技术仅适用于谷歌 自家生成的内容,Gemini 无法可靠识别 Sora 或其他厂商制作的 AI 视频。