
▲AI可能毀滅全人類?相關討論引發話題。(圖/路透社,下同)
記者許力方/綜合報導
AI是否可能對人類構成毀滅性威脅?前OpenAI員工、知名AI專家丹尼爾科科塔伊洛(Daniel Kokotajlo)近期修正其先前提出的預測,AI發展速度較原先設想「稍微慢了一些」,超級AI出現的時間點可能需要再往後延。
「AI 2027」引發爭議
英國《衛報》報導,科科塔伊洛曾於今年4月發布名為「AI 2027」的模擬情境,推演人工智慧若持續失控發展,可能在2027年達到完全自主編碼,誕生超級AI,進而引發「智能爆炸」,AI代理人會不斷創造更智慧的自身版本,這種「超級智能」可能會在智取各國領導人後,最終在2030年代中期對人類文明造成毀滅性後果。
不過AI 2027的情境一度被美國政界人士提及,也遭部分學者批評過於誇張,形同科幻小說。科科塔伊洛團隊也表示這只是「最可能」的猜測。
專家指出現實慣性被低估
隨著更多實際觀察累積,科科塔伊洛團隊在最新更新中修正了這項預測,認為AI要真正具備完全自主編碼與研發能力,時間更可能落在2030年代初期,並將「超級智能」出現的預估點延後至2034年前後,但未再推測人類滅絕的具體時間。
科科塔伊洛:進展稍微慢了一些
科科塔伊洛在X平台上發文指出:「目前看來,事情的進展比AI 2027情境要慢一些。我們當時的預測已經比2027年更長,現在又延後了。」
科技大廠目前仍積極布局研究AI,OpenAI執行長奧特曼(Sam Altman)曾透露,公司內部目標是在2028年前打造自動化AI研究系統,但也坦言未必能如期達成。

