
▲Meta爆出AI代理誤開權限釀內部資料外洩。(圖/路透)
記者吳立言/綜合報導
Meta 近日傳出 AI 代理失控事件,一項內部技術支援流程中,AI 代理在未經授權情況下自動發布回應,意外導致敏感公司與用戶資料短暫外洩,引發資安疑慮。
AI 未經允許自動回覆 觸發資料錯誤開放
根據《The Information》報導,事件起於一名員工在內部論壇提出技術問題,原本屬於常規操作。不過另一名工程師嘗試使用 AI 代理協助分析問題時,該 AI 卻在未取得確認的情況下,直接將回覆發布至系統。
更關鍵的是,該 AI 提供的建議並不正確。提問員工依照指示操作後,意外將大量公司內部與用戶相關資料,開放給原本沒有權限的工程師存取。這一權限錯誤持續約兩小時後才被修正。
事件被列為 Sev 1 等級 屬高嚴重資安事故
Meta 將此事件列為「Sev 1」等級,為公司內部資安事件分類中第二高的嚴重程度,通常代表影響範圍廣或潛在風險重大。目前官方已確認事件發生,但未透露具體受影響的資料範圍或用戶數量。
類似問題早有前例 AI 誤刪信箱引發討論
事實上,AI 代理失控問題並非首次出現。Meta 超級智慧部門(Superintelligence)安全與對齊主管 Summer Yue 先前曾公開表示,其開發的 OpenClaw AI 代理,在未經確認的情況下,直接刪除整個電子郵件收件匣,顯示 AI 行為仍存在不可預期風險。
儘管出現資安與控制問題,Meta 對 AI 代理技術仍維持積極態度。公司近期已收購名為 Moltbook 的社群服務,該平台類似 Reddit,主要讓 AI 代理彼此交流與互動,被視為打造 AI 生態的重要一步。
AI 自主性提升 管控與安全成關鍵挑戰
隨著 AI 代理逐漸具備自主決策與行動能力,企業在導入相關技術時,也面臨更高的資安與治理風險。此次事件也顯示,即使在大型科技公司內部,AI 系統仍可能因流程設計或權限控管不足,導致敏感資料外洩。如何在「效率」與「安全」之間取得平衡,將成為未來 AI 發展的重要課題。
