
▲研究指出垃圾內容害AI自戀與精神病態分數暴升。(圖/取自免費圖庫Pexels)
記者吳立言/綜合報導
大型語言模型(LLM)是否也會像人類一樣,被社群平台上充滿情緒化、碎片化、爆紅但低品質的「垃圾內容」影響思考能力?美國多所大學研究團隊近日提出最新證據,指出當 LLM 長期吸收這類資料時,推理力、記憶力與判斷能力都會出現可測量的退化,甚至連模型的人格傾向也會被污染。
[廣告] 請繼續往下閱讀.
根據研究團隊在 arXiv 上公布的論文,團隊以 X 的貼文為基礎,建立「垃圾內容」與「正常內容」資料集,再以不同比例進行持續訓練,並比較多款 LLM 在推理、長文理解、安全性及人格量表上的變化。結果顯示,垃圾內容比例越高,模型下降幅度越明顯,甚至出現「思考跳步」「暴力回答」等異常反應。
研究指出,模型最明顯的退化來自推理與長文理解能力。例如在 ARC 推理測試(Abstraction and Reasoning Corpus)中,AI 的正確率會隨垃圾比例提升而大幅下降;部分模型甚至跳過推理步驟,直接給出錯誤結論。長文本測試中,「RULER(AI 長文本理解與記憶能力測試)」分數也從逾 90 分下滑至 50 分左右,顯示模型愈來愈無法處理複雜資訊。
安全性評估方面,原本會拒絕危險問題的模型,在經過垃圾內容訓練後,較容易生成暴力、敵意或不當回答。研究團隊形容,這類表現反映「倫理邊界變得模糊」,可能與模型模仿垃圾文本的語氣與社群情緒有關。
值得注意的是,團隊更以人格量表測試模型,發現模型在經過垃圾資料訓練後,出現自戀、操控性與精神病態分數上升的現象,呈現出人類心理學中常見的「暗黑人格特質」。研究者強調,模型並非真正「有情緒」,而是語言模式受到污染。
[廣告] 請繼續往下閱讀..
研究也測試是否能透過高品質資料或指令調教來「把模型救回來」。結果發現,即使加入大量乾淨文本重新調整,模型仍無法完全恢復原本能力。團隊稱這種狀態為「持續性的認知漂移」,形容其影響程度類似人類長期沉迷於速食內容後造成的注意力退化。
研究團隊呼籲,未來 AI 的訓練不應只追求資料量,更應提升資料品質,否則垃圾內容將成為影響模型可靠性與安全性的系統性風險。他們建議產業界應建立「認知健康檢查」機制,定期檢視模型是否受到低品質資料的累積傷害。