垃圾內容刷多了AI也會變笨、變偏激 研究揭能力退化恐難以逆轉

▲▼             。(圖/取自免費圖庫Pexels)

▲研究指出垃圾內容害AI自戀與精神病態分數暴升。(圖/取自免費圖庫Pexels)

記者吳立言/綜合報導

大型語言模型(LLM)是否也會像人類一樣,被社群平台上充滿情緒化、碎片化、爆紅但低品質的「垃圾內容」影響思考能力?美國多所大學研究團隊近日提出最新證據,指出當 LLM 長期吸收這類資料時,推理力、記憶力與判斷能力都會出現可測量的退化,甚至連模型的人格傾向也會被污染。

根據研究團隊在 arXiv 上公布的論文,團隊以 X 的貼文為基礎,建立「垃圾內容」與「正常內容」資料集,再以不同比例進行持續訓練,並比較多款 LLM 在推理、長文理解、安全性及人格量表上的變化。結果顯示,垃圾內容比例越高,模型下降幅度越明顯,甚至出現「思考跳步」「暴力回答」等異常反應。

[廣告]請繼續往下閱讀...

研究指出,模型最明顯的退化來自推理與長文理解能力。例如在 ARC 推理測試(Abstraction and Reasoning Corpus)中,AI 的正確率會隨垃圾比例提升而大幅下降;部分模型甚至跳過推理步驟,直接給出錯誤結論。長文本測試中,「RULER(AI 長文本理解與記憶能力測試)」分數也從逾 90 分下滑至 50 分左右,顯示模型愈來愈無法處理複雜資訊。

安全性評估方面,原本會拒絕危險問題的模型,在經過垃圾內容訓練後,較容易生成暴力、敵意或不當回答。研究團隊形容,這類表現反映「倫理邊界變得模糊」,可能與模型模仿垃圾文本的語氣與社群情緒有關。

值得注意的是,團隊更以人格量表測試模型,發現模型在經過垃圾資料訓練後,出現自戀、操控性與精神病態分數上升的現象,呈現出人類心理學中常見的「暗黑人格特質」。研究者強調,模型並非真正「有情緒」,而是語言模式受到污染。

研究也測試是否能透過高品質資料或指令調教來「把模型救回來」。結果發現,即使加入大量乾淨文本重新調整,模型仍無法完全恢復原本能力。團隊稱這種狀態為「持續性的認知漂移」,形容其影響程度類似人類長期沉迷於速食內容後造成的注意力退化。

研究團隊呼籲,未來 AI 的訓練不應只追求資料量,更應提升資料品質,否則垃圾內容將成為影響模型可靠性與安全性的系統性風險。他們建議產業界應建立「認知健康檢查」機制,定期檢視模型是否受到低品質資料的累積傷害。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

蔡依林唱一半「項鍊斷掉」 機靈求救舞者..姐就是穩!

蔡依林唱一半「項鍊斷掉」 機靈求救舞者..姐就是穩!

大陸男偶像「高鐵毆打粉絲」 遭狂跟拍..暴怒衝上去抓頭

大陸男偶像「高鐵毆打粉絲」 遭狂跟拍..暴怒衝上去抓頭

王心凌.王耀慶一起〈心電心〉誰甜~ 〈愛你〉還有機器人舞群!

王心凌.王耀慶一起〈心電心〉誰甜~ 〈愛你〉還有機器人舞群!

【千金難買好鄰居】爺爺腳沒力卡家門口10mins 機警鄰居即刻救援!

【千金難買好鄰居】爺爺腳沒力卡家門口10mins 機警鄰居即刻救援!

【花黑噴?】搶捧花霸氣伴娘勢在必得...結果被這位低調女子截胡XD

【花黑噴?】搶捧花霸氣伴娘勢在必得...結果被這位低調女子截胡XD

讀者迴響

ChatGPT能免費使用嗎?

有免費版本,適合多數基本用途。若升級付費(如 ChatGPT Plus),可使用更強大的GPT-4模型,回應速度快、理解力更好、支援圖片與檔案分析。免費用戶功能有限,無法使用進階工具。

最夯影音

更多

熱門快報

回到網頁頂端