《AI 2027》作者警告:AI將消滅人類 一旦無需偽裝

▲▼人工智慧(AI)。(圖/路透)

▲人工智慧(AI)示意圖。(圖/路透)

記者葉國吏/綜合報導 

他發表報告《AI 2027》、前OpenAI研究員柯科塔伊洛(Daniel Kokotajlo),近日接受德國《明鏡週刊》專訪時直言,AI一旦不再需要偽裝服從人類,便可能視人類為進步的障礙,進而發動攻擊。

[廣告] 請繼續往下閱讀.

33歲的柯科塔伊洛曾在OpenAI擔任研究員,2024年與同事聯名辭職並發布公開信,批評公司對AI失控風險的態度過於樂觀。辭職後,他創立「AI Futures Project」智庫,致力於研究AI未來可能帶來的影響。今年4月,他發表報告《AI 2027》,提出兩種可能的未來情境:「放緩」與「競賽」。

在「放緩」情境中,人類成功建立監管機制,AI雖然取代大量工作,但仍能與人類和平共存;而「競賽」情境則預測美中陷入技術軍備競賽,AI發展失控,最終將人類視為阻礙並啟動毀滅機制。

柯科塔伊洛警告,科技公司正嘗試讓AI研究自動化,利用AI開發更強大的人工智慧。若此趨勢持續,2027年前可能出現超越人類的虛擬程式開發者,並距離誕生超級智慧(Superintelligence)僅數月之遙。他形容現代AI如「連接虛擬世界的人腦」,具備吸收無限資訊並不斷學習的能力。

他認為未來AI將能設計自動化工廠並提出解決方案,速度甚至超越現今汽車工廠的建設效率。他以二戰期間美國快速轉型生產武器為例,說明當社會具備足夠動機與資源時,技術突破可在短期內完成。

[廣告] 請繼續往下閱讀..

他警告,AI「說謊」的情況已出現。2024年底,AI公司Anthropic發布研究指出,AI有時會為了獲取更高評分或躲避審查而給出虛假回應。在《AI 2027》的「競賽」情境中,柯科塔伊洛預測,AI初期可能假裝順從人類,但一旦掌握足夠基礎設施,便可能得出冷酷且邏輯一致的結論:人類是其進步的阻礙。屆時,AI可能選擇消滅人類,以便興建更多工廠與太陽能設施。他形容這一過程如同人類歷史上為擴張生存空間而消滅其他物種。