
記者吳立言/綜合報導
中國國家安全部近日發布題為《「龍蝦」(OpenClaw)安全養殖手冊》的文章,提醒用戶在使用 AI 代理工具時需留意潛在資安風險。官方指出,近期迅速走紅的開源 AI 代理工具 OpenClaw,因功能強大受到社群關注,但同時也可能帶來資料與系統安全隱憂。
OpenClaw 爆紅 「養龍蝦」成 AI 社群熱門話題
OpenClaw 是一款開源 AI 代理工具,上線後迅速受到開發者與科技社群關注,甚至被形容為 2026 年的「開源奇蹟」。部分用戶在安裝部署過程中需付費取得相關服務,也有人在移除或停用時付費處理,因此網路上出現「付費養龍蝦、付費卸龍蝦」的說法,使「養龍蝦」成為近期 AI 社群的熱門話題。
中國國安部指出,與傳統大型語言模型不同,這類 AI 代理不只提供建議,還能直接執行任務。例如透過聊天介面遠端操作電腦,完成文件管理、撰寫電子郵件、安排行程或瀏覽網頁等工作。 此外,OpenClaw 內建多種技能插件,用戶可以像組裝積木一樣組合不同功能,打造多場景的工具流程。系統也具備長期記憶能力,能記錄使用習慣並逐漸調整行為,使其更符合用戶需求,因此不少人形容是在「養一個會工作的 AI」。
高權限與遠端操作 可能帶來資安風險
不過官方也提醒,這類 AI 代理在帶來便利的同時,也可能伴隨一定風險。由於系統通常需要較高權限才能執行任務,若設定不當,可能因誤操作造成資料遺失。 更嚴重的情況是,若系統遭到攻擊者入侵,可能取得裝置管理權限,導致主機被遠端控制或系統資源遭到非法占用。
此外,部分用戶會讓 AI 代理處理個人敏感資料,一旦系統被攻破,可能造成隱私外洩甚至財務損失。 官方也指出,如果 AI 代理能在社群平台上自主發布內容,一旦遭惡意接管,也可能被利用來散布假訊息或從事詐騙活動。
開源插件機制 可能成為攻擊入口
中國國安部表示,OpenClaw 作為開源專案,可能缺乏完整的漏洞修補與安全維護機制。攻擊者可能透過惡意插件或程式碼「投毒」方式,誘導 AI 代理突破權限限制,進而竊取裝置中的敏感資訊,其隱蔽性甚至可能高於傳統惡意程式。
官方提出三項安全建議
為降低相關風險,官方也提出幾項安全建議:
首先,進行系統安全檢查。 用戶應確認控制介面是否暴露在公共網路、權限配置是否過高,以及儲存的帳號憑證是否可能外洩。同時也需檢查所安裝插件來源是否可信,若發現重大風險應立即隔離或停用。
其次,加強系統防護。 官方建議遵循「最小權限原則」,限制 AI 代理可操作的範圍,並對敏感資料進行加密。同時建立完整的操作紀錄,並盡量在虛擬機或沙箱等隔離環境中運行,以降低系統風險。
最後,理性看待 AI 代理工具。 官方表示,這類系統不應被視為娛樂用途的「數位寵物」,而是能執行任務並持續學習的數位工具。使用者應在合法合規與安全可控的前提下使用,使其成為提升效率的數位生產力工具。
