AI教父談人工智慧最深層恐懼 直言人類正走進高度不確定的未來

▲▼辛頓警告AI或將超越人類理解。(圖/YT@60minutes) 

▲辛頓警告AI恐將超越人類理解。(圖/YT@60minutes)

記者吳立言/綜合報導

被譽為「人工智慧教父」的辛頓(Geoffrey Hinton),今年稍早接受美國新聞節目 60 Minutes 專訪,深入談論人工智慧(AI)的發展原理、潛在風險與他個人的反思。儘管這場訪談距今已約四個月,但在生成式 AI 能力持續躍進的背景下,相關觀點近期再度被頻繁引用,也讓當時的警告顯得更具現實意義。

[廣告]請繼續往下閱讀...

長期孤軍研究,奠定深度學習基礎

辛頓在節目中回顧自己自 1970 年代投入人工神經網路研究的歷程。當年主流學界多半不看好以神經網路模擬人腦運作的方向,但他仍選擇長期投入,最終奠定現代深度學習的技術基礎。這項貢獻也讓他在 2019 年與其他兩位學者共同獲得圖靈獎,被視為 AI 發展史上的關鍵人物。

不是寫規則,而是設計學習方式

談到 AI 的學習方式,辛頓強調,人類並非為機器逐條撰寫行為規則,而是設計「學習演算法」,再透過回饋與試錯機制,讓系統自行調整內部連結。他形容,這更像是在制定演化的規則,而非編寫一份完整的操作說明書。隨著模型與大量資料互動,最終形成的神經網路結構高度複雜,甚至連設計者本身,也難以完全理解其內部運作。

AI 是否真的「理解」世界?

對於 AI 是否具備理解與推理能力,辛頓在訪談中表態相當明確。他認為,近年大型語言模型在多步推理與規劃任務上的表現,已超越單純的文字接龍。他也以 GPT-4 解決複雜邏輯問題的案例為例,指出這類系統已展現出某種程度的理解與決策能力。

最大憂慮:AI 可能脫離人類控制

不過,辛頓同時也對 AI 的長期風險表達深切憂慮。他指出,未來若 AI 能自行撰寫並修改程式碼,甚至優化自身結構,將可能逐步擺脫人類原本設定的控制框架。此外,AI 若全面吸收人類歷史中的政治、心理與權術知識,可能在說服與操縱人類行為上展現極高效率,進而影響民主制度與社會秩序。

在社會層面,辛頓也點出多項潛在衝擊,包括就業結構劇烈變動、假訊息擴散、演算法偏見,以及自主武器系統進入戰場的風險。他警告,當 AI 在智慧與決策能力上全面超越人類時,帶來的將不只是產業調整問題,而是攸關整體人類社會存續的挑戰。

沒有保證安全的答案

對於未來該如何因應,辛頓坦言,目前看不到一條能「保證絕對安全」的明確道路。他呼籲各國政府應更積極介入監管,特別是在軍事應用領域,應透過國際條約限制自主武器的發展,並投入更多研究理解 AI 的行為與風險。

儘管這場專訪播出已有數月,但隨著 AI 技術持續加速演進,辛頓當時提出的多項警告並未隨時間淡化,反而在現實發展中不斷被重新檢視,也讓這場訪談至今仍具高度討論與參考價值。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

aespa Winter緋聞爭議延燒! 遭刻意無視「走紅毯零尖叫」

aespa Winter緋聞爭議延燒! 遭刻意無視「走紅毯零尖叫」

【凍僵惹?】女警雪地站崗0移動 網直呼心疼:好可憐的警察小姐姐 #合歡山

【凍僵惹?】女警雪地站崗0移動 網直呼心疼:好可憐的警察小姐姐 #合歡山

【玩命關頭真實版?】搶匪飆車拖走整台ATM 超商全毀!結果白忙一場 #美國

【玩命關頭真實版?】搶匪飆車拖走整台ATM 超商全毀!結果白忙一場 #美國

李聖傑台北小巨蛋開唱 安可終於等到〈痴心絕對〉

李聖傑台北小巨蛋開唱 安可終於等到〈痴心絕對〉

【肇事逃逸】被「拋飛2米」摔砸車頂! 重機夫妻遊福壽山遭貨車猛撞

【肇事逃逸】被「拋飛2米」摔砸車頂! 重機夫妻遊福壽山遭貨車猛撞

讀者迴響

Gemini和ChatGPT有什麼不同?

Gemini是Google開發的AI,擅長整合Gmail、Docs、YouTube等服務,適合重度Google用戶;而ChatGPT則由OpenAI開發,操作簡單、回應速度快,是多數人入門AI的首選。

最夯影音

更多

熱門快報

回到網頁頂端