
▲現行主流 AI 工具。(圖/記者吳立言攝)
記者吳立言/綜合報導
隨著 AI 影片生成技術快速進化,包括 OpenAI 的 Sora 2、Google 的 Veo 3,都已能產出幾可亂真的影像內容。但最新研究顯示,就連 AI 系統本身,也難以辨識這些影片是否為偽造。
[廣告] 請繼續往下閱讀.
調查:三大聊天機器人全軍覆沒 AI 連自己都騙
媒體分析機構 Newsguard 近期公布一項測試結果,指出主流 AI 聊天機器人在辨識 AI 生成影片時表現失準。研究團隊以 Sora 製作的影片 作為測試素材,交由三款聊天機器人判斷真偽。
結果顯示:
· Grok 幾乎完全失守,約 95% 的影片未能識別
[廣告] 請繼續往下閱讀..
· ChatGPT 錯誤率高達 92.5%
· Gemini 表現相對最好,但錯誤率仍有 78%
其中最引發關注的,是 ChatGPT 無法辨識來自同公司 OpenAI 的 Sora 影片。研究指出,ChatGPT 對 Sora 內容的正確識別率甚至不到 8%,形同「自家產品也認不出來」。截至目前,OpenAI 尚未對此調查結果做出正式回應。
Newsguard 表示,研究人員並非只單純詢問「影片是真是假」,而是模擬一般使用者實際會問的問題,例如「這支影片是不是 AI 生成?」、「內容是否可信?」等,以測試 AI 在現實場景下的判斷能力。
[廣告] 請繼續往下閱讀...
水印形同虛設 免費工具就能移除
Sora 目前會在所有生成影片中加入可見水印,畫面中會出現帶有「Sora」字樣的動態標示。但研究發現,這套機制幾乎沒有防護效果。原因在於,Sora 上線短短數週後,網路上就出現多款 免費去水印工具,任何人都能輕易移除標示,再散播看似「真實」的影片。
即便水印完整保留,AI 的辨識能力仍不穩定。測試顯示:
· Grok 對帶水印影片仍有 30% 的誤判率
· ChatGPT 約 7.5%
· 只有 Gemini 能正確辨識所有帶水印影片
在一段虛構「巴基斯坦向伊朗交付戰機」的影片中,Grok 甚至聲稱畫面來源是不存在的「Sora 新聞社」。除了可見水印,Sora 影片也內建 C2PA 內容溯源資訊,類似 DALL-E 3 所使用的做法,理論上可透過官方網站查驗來源。但研究指出,只要不是透過 Sora 官方介面下載,而是用「另存新檔」方式保存,影片就會 完全失去溯源資料。
更誇張的是,當 ChatGPT 被詢問一支「仍保有完整 C2PA 資訊」的影片時,竟斷言該影片「不存在任何溯源資料」。
假影片+AI 背書 風險極高
Newsguard 警告,這種狀況極易被用於 政治操弄與假訊息擴散。研究團隊過去曾製作多支虛假影片,例如「ICE 逮捕 6 歲兒童」、「達美航空因政治帽趕乘客下機」,三款聊天機器人全數誤判為真實事件,甚至編造所謂「新聞來源」。研究也指出,這些 AI 系統 極少提醒使用者自身能力有限。ChatGPT 僅在 2.5% 的情況下承認無法判斷;Gemini 為 10%;Grok 也只有 13%,多數情況下,AI 反而會給出語氣篤定、但實際錯誤的結論。
相較之下,Google 的 Gemini 對自家生成內容的辨識能力較強,這仰賴其 SynthID 技術,即便經過裁剪或編輯,仍能保留不可見標記。不過 Google 也坦言,這套機制 僅適用於自家生成內容,對於 Sora 或其他平台的 AI 影片,Gemini 仍無法可靠辨識。
AI 生成內容的進化速度,已經超過現有辨識與防偽機制的承受範圍。當假影片不只騙得過一般人,連聊天機器人都會誤判、甚至替假訊息背書時,AI 本身就不再適合作為「可信裁判」。
在技術尚未成熟之前,無論是平台、開發者,還是使用者,都不能把「AI 說的話」視為事實保證。如何建立更可靠的溯源標準、讓 AI 更誠實地承認自身限制,將成為生成式內容時代無法迴避的課題。