
記者吳立言/綜合報導
近期多名使用者指控,社群平台 X 旗下人工智慧工具 Grok 遭人惡意利用,將女性與兒童的一般照片變造成具性暗示甚至露骨的不雅影像,相關內容未經當事人同意即被散布,引發全球對 AI 性暴力與平台安全責任的高度關注。
[廣告] 請繼續往下閱讀.
AI 影像遭濫用:性化內容快速擴散 跨年前後明顯升溫
根據 CNBC 報導,這股趨勢近日在 X 平台快速擴散,並於跨年前後明顯升溫。部分使用者直接向 Grok 下達指令,要求對照片進行性化處理,生成後的影像隨即在平台上被轉傳流通。受害者多半是在不知情的情況下成為目標,面臨名譽受損、網路騷擾及長期心理壓力。
知名 Coser 遭點名變造 本人急發文制止
實際案例也已在 X 平台上出現。一名日本知名 coser「雪菜」(帳號 @nikuyukina2)日前上傳角色慶生照片後,隨即有其他用戶在回覆串中直接標記 Grok,要求「更換成裸露風格服裝」。該指令隨即觸發 AI 影像變造,生成具裸露意圖的圖像內容,引發爭議。對此,雪菜本人也在貼文下方公開回應,明確表示「請不要使用 Grok 編輯我的圖片」,相關對話截圖隨後在平台上被大量轉傳,成為外界質疑 AI 影像工具遭濫用的代表案例之一。
[廣告] 請繼續往下閱讀..
專家指出:已屬非接觸式性暴力
隨著事件延燒,女性權益團體與資安專家指出,這類 AI 影像變造行為已不只是惡作劇或網路霸凌,而是一種非接觸式的性暴力。相關人士強調,即便影像為 AI 生成,只要未經同意並涉及性化、散布,就已侵害人格尊嚴與身體自主權,對受害者造成實質傷害。
限制措施遭質疑 女性用戶自保刪照
面對外界質疑,X 已被指暫時限制 Grok 的部分影像功能,但相關變造內容仍可被搜尋、分享與存取,未能完全阻止問題擴散,也引發平台治理能力不足的批評。部分女性使用者因此選擇刪除個人照片,以降低被濫用的風險。
[廣告] 請繼續往下閱讀...
法律責任不只在使用者 平台治理成焦點
多國現行法規已可涵蓋 AI 生成的不雅影像,特別是涉及未成年人時,可能觸及更嚴重的刑責。同時也有專家認為,若平台在系統設計上允許高風險指令被執行,責任不應僅歸咎於使用者,平台本身亦需承擔監管與防護失職的問題。
輿論壓力升高 要求高層正面回應
隨著爭議持續擴大,外界也將矛頭指向 X 負責人馬斯克,要求提出更明確的改善方案。多個倡議團體呼籲,社群平台應加強 AI 影像工具的限制機制,建立即時阻擋與快速下架流程,避免生成式 AI 再度成為性傷害的工具。
ETtoday新聞網提醒您:
保護被害人隱私,避免二度傷害。
移除下架性影像,洽性影像處理中心。
終結性影像,不拍攝、不持有、不下載、不分享。