▲辛頓警告AI恐將超越人類理解。(圖/YT@60minutes)
記者吳立言/綜合報導
被譽為「人工智慧教父」的辛頓(Geoffrey Hinton),今年稍早接受美國新聞節目 60 Minutes 專訪,深入談論人工智慧(AI)的發展原理、潛在風險與他個人的反思。儘管這場訪談距今已約四個月,但在生成式 AI 能力持續躍進的背景下,相關觀點近期再度被頻繁引用,也讓當時的警告顯得更具現實意義。
長期孤軍研究,奠定深度學習基礎
辛頓在節目中回顧自己自 1970 年代投入人工神經網路研究的歷程。當年主流學界多半不看好以神經網路模擬人腦運作的方向,但他仍選擇長期投入,最終奠定現代深度學習的技術基礎。這項貢獻也讓他在 2019 年與其他兩位學者共同獲得圖靈獎,被視為 AI 發展史上的關鍵人物。
不是寫規則,而是設計學習方式
談到 AI 的學習方式,辛頓強調,人類並非為機器逐條撰寫行為規則,而是設計「學習演算法」,再透過回饋與試錯機制,讓系統自行調整內部連結。他形容,這更像是在制定演化的規則,而非編寫一份完整的操作說明書。隨著模型與大量資料互動,最終形成的神經網路結構高度複雜,甚至連設計者本身,也難以完全理解其內部運作。
AI 是否真的「理解」世界?
對於 AI 是否具備理解與推理能力,辛頓在訪談中表態相當明確。他認為,近年大型語言模型在多步推理與規劃任務上的表現,已超越單純的文字接龍。他也以 GPT-4 解決複雜邏輯問題的案例為例,指出這類系統已展現出某種程度的理解與決策能力。
最大憂慮:AI 可能脫離人類控制
不過,辛頓同時也對 AI 的長期風險表達深切憂慮。他指出,未來若 AI 能自行撰寫並修改程式碼,甚至優化自身結構,將可能逐步擺脫人類原本設定的控制框架。此外,AI 若全面吸收人類歷史中的政治、心理與權術知識,可能在說服與操縱人類行為上展現極高效率,進而影響民主制度與社會秩序。
在社會層面,辛頓也點出多項潛在衝擊,包括就業結構劇烈變動、假訊息擴散、演算法偏見,以及自主武器系統進入戰場的風險。他警告,當 AI 在智慧與決策能力上全面超越人類時,帶來的將不只是產業調整問題,而是攸關整體人類社會存續的挑戰。
沒有保證安全的答案
對於未來該如何因應,辛頓坦言,目前看不到一條能「保證絕對安全」的明確道路。他呼籲各國政府應更積極介入監管,特別是在軍事應用領域,應透過國際條約限制自主武器的發展,並投入更多研究理解 AI 的行為與風險。
儘管這場專訪播出已有數月,但隨著 AI 技術持續加速演進,辛頓當時提出的多項警告並未隨時間淡化,反而在現實發展中不斷被重新檢視,也讓這場訪談至今仍具高度討論與參考價值。
