
▲AI 新聞歪曲問題嚴重。(圖/取自免費圖庫Pexels)
記者吳立言/綜合報導
人工智慧(AI)雖然能快速整理資訊,但在「報導新聞」這件事上,可信度仍有待加強。由歐洲廣播聯盟(EBU)協調、英國廣播公司(BBC)主導的一項最新國際研究指出,目前主流 AI 助理在生成新聞內容時,有近一半(45%)的回答存在重大錯誤,包括引用來源不當、內容過時或直接編造資訊。
這項研究涵蓋來自 18 個國家、14 種語言、共 22 家公共媒體機構(Public Service Media),是迄今規模最大的同類調查。研究團隊針對 ChatGPT、Microsoft Copilot、Google Gemini 與 Perplexity 四款主流 AI 助手進行測試,總共分析了超過 3,000 筆回答。
專業記者根據「準確性」、「來源標註」、「事實與觀點區分」及「背景說明」等標準進行評分,結果顯示:
45% 的回答至少包含一項重大問題。
31% 存在嚴重的資訊來源問題,例如引用錯誤或未提供來源。
20% 的回答有重大不準確或過時資訊。
其中,Google 的 Gemini 表現最差,多達 76% 的回答被判定存在顯著問題,主要是缺乏可靠來源與誤引內容。
研究同時引用《2025 年數位新聞報告》指出,全球約有 7% 的網路使用者透過 AI 助理取得新聞,而在 25 歲以下族群中,比例更高達 15%。
BBC 補充調查顯示,約三分之一的英國成年人相信 AI 生成的新聞摘要是準確的,而 35 歲以下的年輕族群中,這一比例接近一半。專家擔憂,若使用者在不知情的情況下被錯誤資訊誤導,將進一步削弱社會對媒體與新聞的整體信任。
EBU 媒體總監兼副總幹事 Jean Philip De Tender 指出,這些問題並非偶發事件,而是「跨國、跨語言、具系統性的現象」。他警告:「當人們不知道該信任什麼時,最終可能什麼都不再相信,這將削弱民主社會的參與基礎。」BBC 生成式 AI 專案負責人 Peter Archer 則表示「我們對 AI 抱持高度期待,但前提是,公眾必須能信任自己所看到與讀到的內容。」
為協助改善現況,EBU 與合作媒體同步推出《AI 助手新聞完整性工具包》(News Integrity in AI Assistants Toolkit),提供 AI 開發商與媒體機構具體建議,包括如何提升 AI 回答的準確度與透明度、以及增進使用者媒體識讀能力。
EBU 也呼籲歐盟及各國政府加強執行資訊真實性與數位服務法規,並建立長期監測機制,追蹤 AI 助理在新聞內容上的表現。
這項研究顯示,AI 雖然能成為便利的資訊工具,但仍無法取代新聞專業。專家提醒,民眾在使用 AI 獲取新聞時,應多方查證、保留懷疑,才不會被錯誤資訊誤導。
