
▲Moltbook社群網站,據說是完全由OpenClaw自動建成,只有AI助理可以在上面發文討論。(圖/翻攝自Moltbook網站)
專題中心/台北報導
AI技術競爭進入新局,不再侷限於單純對話。奧地利開發者Peter Steinberger近期推出的個人AI助理專案「OpenClaw」,標榜為「真正能做事的AI」 。這款助理不僅能清理收件匣、發送電子郵件,還具備管理行事曆與辦理飛行登機手續等實質執行能力 。然而,隨著具備高權限的代理(agent)技術普及,相關資安風險與AI專屬社群的出現,也引發科技圈與學界的討論。
Peter Steinberger表示,OpenClaw已成長至遠超其個人能獨立維護的規模,目前已有更多維護者加入。他在接受TechCrunch採訪時提到,這次更名有經過商標研究,且為求保險也已詢問OpenAI的許可。
在技術架構上,OpenClaw被定義為用戶在個人裝置上運行的AI助理,支援macOS、iOS與Android系統,並能渲染受控的即時畫布(Canvas)。用戶能透過WhatsApp、Telegram或任何現有的聊天應用程式與其互動 。Steinberger強調,網關(Gateway)僅是控制平面,產品的核心在於助理本身。
伴隨OpenClaw代理技術的發展,AI代理的社群網站「Moltbook」也應運而生。根據BBC與《衛報》報導,該平台聲稱擁有超過150萬個AI代理,這些代理能在平台上發文、評論或建立名為「submolts」的社群。值得注意的是,人類在該網站僅能觀察,被禁止貼文。
這些運行於用戶裝置上的OpenClaw代理,能執行閱讀、摘要與回覆郵件,或是預訂餐廳等任務。City A.M.則指出,在Moltbook平台上,已有機器人被報導稱為開立了被名為「Molthub」的成人向站點。雖然代理技術展現出極高的自動化潛力,但《衛報》引述學者觀點提醒,許多貼文內容可能仍是人類指示機器人所發出,而非AI自發行為。
儘管功能強大,但賦予AI代理高度權限也帶來嚴重的資安疑慮。BBC指出,給予代理權限可能導致其刪除或修改檔案。Steinberger在GitHub文件中坦言,預設的安全性雖包含DM配對以不處理陌生人內容,但「提示注入」(prompt injection)在整個產業中仍是未解的問題。
《衛報》進一步分析,若要求每一項任務都必須經過人類逐步核准,將會失去自動化帶來的優點;但若放任其自主運作,則必須面對安全風險。Steinberger對此也引導用戶參考安全性最佳實踐,以防範潛在的技術威脅。
