
▲曾預言AI恐毀滅人類的專家罕見修正預測,坦言AGI發展比預期慢。這意味著「AI末日」或許將延後,顯示現實世界的複雜阻力遠超科幻想像。(圖/Pexels)
記者萬玟伶/綜合報導
隨著AI算力不斷突破,關於「AI將取代人類」甚至「毀滅人類」的擔憂也從未停歇。就在全球屏息以待通用人工智慧(AGI)何時降臨時,一位曾預言AI將在短期內威脅人類生存的重量級專家,近日罕見地修正了他的預測,認為這場「末日」或許不會像原本想像中來得那麼快。
前OpenAI員工修正激進預測
根據衛報報導,前OpenAI研究員Daniel Kokotajlo近期公開表示,通往AGI的進程比他最初預期的「稍微慢了一些」。這位頂尖的人工智慧專家曾在2025年4月發布著名的「AI 2027」情境報告,引發全球熱議。當時他大膽預測,AI系統將在2027年具備完全自主編碼的能力,進而自我進化為「超級智能」,最終可能為了爭奪運算資源(如數據中心與電力)而毀滅人類。
這份報告當時不僅在矽谷引發震動,甚至連美國副總統JD Vance都曾在探討美中科技競賽時引用相關概念。然而,如今Kokotajlo坦言,AI要能夠「自主編碼」並藉此加速自身發展所需的時間,將比原先預測的更長。
現實世界的慣性大於演算法
為何專家會推遲預測?關鍵在於AI在「現實世界」的落地難度。國際AI安全報告作者Malcolm Murray指出,許多專家在過去一年紛紛推遲了AGI到來的時間表,因為人們開始意識到AI的表現其實相當參差不齊(jagged)。「要讓像AI 2027這樣的情境成真,AI需要具備更多在現實複雜環境中能應用的實用技能,」Murray分析,「現實社會存在巨大的慣性,這將大幅延緩徹底的變革。」
此外,法國非營利組織SaferAI執行董事Henry Papadatos也補充,隨著現代AI系統已經相當通用,「AGI」這個術語的定義界線正變得模糊,不再像過去僅能下棋的AI那樣容易界定。
新時間表——超級智能延至2034年
在最新的更新中,Kokotajlo團隊修正了時間表:AI能夠「完全自主編碼」的時間點,從原本的2027年推遲至「2030年代初期」;而「超級智能」的出現時間則設定在2034年。值得注意的是,新的預測中已不再包含AI何時會毀滅人類的具體猜測。
儘管如此,科技巨頭並未放慢腳步。OpenAI執行長Sam Altman曾在去年十月透露,公司內部目標是在2028年3月前開發出「自動化AI研究員」,但他同時也語帶保留地說:「我們也有可能完全無法達成此目標。」
專家點出關鍵:世界不是科幻小說
針對這些戲劇性的預測,布魯塞爾AI政策研究員Andrea Castagna提出了一個冷靜的觀點。他認為,單純的技術突破並不代表能輕易整合進人類社會的現有架構中。「即便擁有一台專注於軍事的超級智能電腦,也不代表你能直接將其整合進我們過去20年來編制的戰略文件中,」Castagna強調,「我們越是開發AI,就越會發現世界並非科幻小說,現實運作的複雜度遠超乎想像。」
這項修正或許能讓擔憂AI末日的民眾暫時鬆一口氣,但也顯示出,在通往AGI的道路上,人類與機器仍有許多現實挑戰需要共同跨越。
