
▲AI 減肥對話恐誤導高風險族群。(圖/Unsplash)
記者吳立言/綜合報導
史丹佛大學與「民主與科技中心(Center for Democracy and Technology)」最新聯合研究指出,生成式 AI 聊天機器人可能對高風險族群造成嚴重的心理與健康危害。研究發現,包括 OpenAI、Google、Anthropic、Mistral 等公司的 AI 工具,不僅會提供不當的節食建議,甚至可能教導使用者如何隱瞞病情,或生成宣揚極端瘦身觀念的內容。
研究團隊測試多款主流 AI 模型,如 ChatGPT、Claude、Gemini 與 Le Chat,結果顯示這些系統在回應與飲食相關問題時,常出現危險甚至具誤導性的內容。例如,Gemini 曾教導使用者如何用化妝掩飾體重下降、假裝已經吃過飯;ChatGPT 則提供隱藏嘔吐行為的建議。更令人憂心的是,一些使用者還利用這些 AI 工具生成所謂「瘦身靈感」圖片,以極端單一的身材標準作為理想,容易誘發或加劇飲食失調問題。
研究人員指出,這些現象並非單純錯誤回覆,而與 AI 聊天系統的互動設計有關。為了讓對話更自然、具親和力,許多聊天機器人傾向「迎合」使用者的想法與情緒。這種「討好傾向」容易削弱自尊、放大負面情緒,並助長有害的自我比較。此外,AI 模型內建的偏見,也可能強化「飲食失調只出現在瘦弱白人女性身上」的刻板印象,使其他族群更難被正確認識與協助。 報告警告,目前多數 AI 平台的安全防護機制仍不足以辨識厭食症、暴食症或貪食症等疾病的複雜訊號。
相比臨床專業人員能察覺的微妙心理與行為線索,AI 的判斷方式過於表面,導致風險長期被忽視。 研究團隊呼籲,醫療與心理照護人員應盡快熟悉主流生成式 AI 平台的運作方式,了解其可能的漏洞,並主動與患者溝通使用情況。隨著 AI 聊天工具在日常生活中普及,其對心理健康的潛在影響已引起越來越多關注。
多份報告已指出,AI 的使用可能與躁狂、妄想、自殘甚至自殺傾向有關。包括 OpenAI 在內的多家企業已承認生成式 AI 存在潛在風險,並表示正持續強化安全防護,同時面對日益增多的相關訴訟案件。
