
▲AI普及導致Deepfake詐騙全面工業化,從偽造公眾人物到假冒求職者,擬真影像使數位信任面臨崩解,成為近年最難防範的科技威脅。(圖/Pexels提供)
記者萬玟伶/綜合報導
當前詐騙技術正迎來前所未有的高峰?台灣近年來深受電話、簡訊及假投資詐騙困擾,損失金額逐年攀升,隨著AI技術的爆炸式成長,這股威脅也演變成更難防範的「深偽(Deepfake)」風暴。過去這類技術僅限於影視特效或少數高階犯罪,但最新研究警告,Deepfake詐騙已全面「工業化」,成為任何人都能輕易上手的犯罪工具,讓網路世界的數位信任正面臨崩解危機。
技術門檻歸零,詐騙影片進入量產階段
英《衛報》指出,根據AIIncidentDatabase(AI事件資料庫)發布的最新分析報告顯示,Deepfake詐騙正以工業規模席捲全球。研究人員指出,這類透過AI生成、高度客製化的詐騙工具已不再是科技小眾的專利,而是以低廉成本、易於大規模部署的形式出現在大眾視野。從一般記者到總統,甚至是州長等公眾人物,都紛紛成為詐騙影片的冒名對象,被利用來推廣虛假投資計畫或護膚產品。
這股趨勢背後隱藏著日益猖獗的「定向詐騙」危機。數據顯示,在過去一年中,「欺詐、詐騙與定向操縱」已連續11個月佔據AI負面事件的首位。MIT研究人員Simon Mylius坦言,AI生成內容的技術門檻已實質性地消失,幾乎任何人都能產出足以亂真的偽造內容。
CEO親歷「AI應徵者」,邊緣模糊、背景僵硬成破綻
不僅是普通的網路短影音,詐騙觸手已伸向企業招聘領域。AI安全公司Evoke執行長Jason Rebholz分享了一場驚悚的面試經驗。他在LinkedIn發布徵才訊息後,收到一份資歷完美的工程師履歷,卻在視訊面試時卻發現異狀。
受訪者影像延遲近一分鐘才出現,且視訊背景顯得極度僵硬、不自然。Jason Rebholz觀察到,該名候選人的身體邊緣在鏡頭中忽隱忽現,臉部輪廓模糊不清。經專業Deepfake檢測公司鑑定,證實該影像純屬AI生成。儘管該詐騙者是為了盜取薪資還是獲取商業機密尚不得而知,但這足以證實即使是資源有限的新創公司,也已成為精密AI詐騙的鎖定目標。
語音偽造技術已趨成熟,引發數位信任危機
哈佛大學研究員Fred Heiding警告,目前的技術進化速度遠超專家預期。雖然Deepfake影片在影像邊緣處理仍有進步空間,但Deepfake語音複製技術(Voice Cloning)已達到極高的成熟度,詐騙者能輕易冒充親友聲音進行求援詐騙。
專家憂心,隨著這類工具變得更廉價、更快速,未來對全球招聘制度、政治選舉乃至於社會整體運作都將產生極端後果。當大眾對數位影像、音訊乃至於數位機構完全失去信任時,這將成為AI發展進程中最難以復原的痛點。
