
▲AI偽造日益精進,Google、Meta等大廠紛紛推動標籤與浮水印技術因應。歐盟法案於今年8月上路後,預計「強制標註」將成常態。(示意圖/pexels)
記者萬玟伶/綜合報導
AI圖像與影片的真偽越來越難辨識,最新研究指出,一般人光憑肉眼判斷的準確率其實只有51%,幾乎跟閉著眼睛亂猜沒兩樣。過去大家總認為只要看手指數量或背景文字就能抓包AI,但隨著技術進步,這些傳統破綻正逐漸消失,專家現在轉向推廣心理接種(Psychological inoculation)的概念,主張在接觸假訊息前先了解其運作手法,比單純依賴科技偵測軟體更有成效。
[廣告] 請繼續往下閱讀.
根據外媒《Tech Radar》報導指出,AI生成的內容已經精進到讓人真假難分的程度,大多數民眾不是沒意識到AI內容有多逼真,就是過度自信認為自己一定能看穿,但研究數據直接打臉了這些想法。這種技術落差已經引發實質危害,例如2024年美國曾出現模仿美國前總統拜登聲音的自動棄票電話,或是利用公眾人物影像進行政治誤導與金融詐騙。根據預測,由Deepfake技術引發的詐騙案,在2027年預計會在全球造成400億美元的損失,無論個人或企業都面臨嚴重風險。
目前的解決方案大多集中在技術研發,像是提升偵測工具、浮水印技術或法規監管,但愛荷華大學(University of Iowa)的研究團隊提出不同的思考方向,嘗試將重點放在提升人類自身的免疫力。研究人員將受試者分成三組進行測試,發現只要事先看過關於Deepfake運作原理的簡短文字說明,或是玩過相關的識別遊戲,受試者對虛假內容的信任度就會明顯下降,並會主動想要進一步查證真相。
這項研究最令人振奮的地方在於,提升大眾防禦能力的門檻其實很低。除了愛荷華大學的實驗,過去在YouTube與Instagram上進行的大規模測試也證明,只要讓使用者觀看19秒到幾分鐘不等的教育短片,教導如何識別情緒操弄或AI修圖痕跡,就能有效提高偵測準確度。像是名為Cat Park的遊戲化工具,就成功讓玩家在遊玩過程中學會辨認誤導性訊息。
在技術防護方面,科技大廠也沒閒著。Google DeepMind研發的SynthID可以在影像與影片中嵌入浮水印,Meta則推出開源工具Video Seal。此外,由Adobe與Microsoft等企業支持的C2PA標準,則像是在內容中加入身分證標籤,讓使用者能透過Hive AI Detector或DeepFake-o-Meter等工具檢查來源。今年8月即將生效的歐盟AI法案(EU AI Act),也將從法律層面強制要求AI內容必須標註標籤。
[廣告] 請繼續往下閱讀..
雖然技術在進步,但專家提醒,傳統的辨識方法如奇怪的手指數量或模糊的招牌文字已經不再完全可靠。現在觀察重點應轉向細微處,例如影片中人物的嘴唇開合是否與聲音同步,或是影像中布料褶皺、包包背帶是否符合物理常理。最核心的防禦工具其實是上下文邏輯,閱聽眾應建立普遍質疑的習慣,在分享資訊前先冷靜思考內容是否合理、是誰在傳播以及誰能從中獲益,有時候停下來思考幾秒鐘,就是抵禦AI假訊息最有效的方法。