
▲OpenAI Town Hall with Sam Altman。(圖/YT@OpenAI)
記者吳立言/綜合報導
在人工智慧代理快速滲透日常工作與生活之際,OpenAI 執行長奧特曼(Sam Altman)近日於一場面向開發者的線上座談會中發出警告,指出社會正因 AI 帶來的高度便利性,而在缺乏完善安全機制的情況下,過度授權系統權限,恐怕「夢遊式」走向高風險未來。
奧特曼坦言,即便是他本人,也曾在明知風險的情況下,因為 AI 代理「看起來相當可靠」,而放寬原本設定的使用限制,甚至給予模型完整電腦存取權限。他認為,這種基於低故障率而快速累積信任的行為模式,正是當前 AI 發展中最值得警惕的隱憂。
全球安全基礎設施仍存在真空
奧特曼指出,隨著模型能力呈現指數級成長,安全基礎設施的建設速度明顯落後。部分安全漏洞或系統相容性問題,可能潛伏數月甚至更久才被發現,一旦在高度自動化的環境中被放大,後果恐難以收拾。
他強調,這種「信任快速累積、風險延後顯現」的不對稱現象,不僅是警訊,也是一項明確的產業機會。未來若能建立跨系統、跨模型的全局性安全與監管基礎設施,將成為 AI 時代不可或缺的核心配套。
生物安全不能只靠「封堵」
在談及 AI 對科學研究與生物科技的影響時,Altman 也提到潛在的濫用風險。他認為,單純透過封鎖技術或限制能力,並非長久之計。相較之下,社會應轉向建立具備快速回應能力的「韌性系統」,就如同防火法規的存在並非為了杜絕火災,而是降低災害發生時的衝擊。
對產業的降溫提醒
儘管 AI 在推理、規劃與自動化方面的可靠度持續提升,但人類不能因為系統「大多數時候運作良好」,就忽略極端情境下那「萬分之一」的毀滅性風險。
在 AI 能力飛速進化與人類審慎控制之間如何取得平衡,奧特曼認為,這將不只是 OpenAI 的課題,而是整個產業在 2026 年必須正面面對的核心問題。
