ChatGPT、Gemini被點名!史丹佛警告:AI減肥教練恐助長飲食失調

▲▼盤點5個常見「減肥失敗原因。(圖/Unsplash)

▲AI 減肥對話恐誤導高風險族群。(圖/Unsplash)

記者吳立言/綜合報導

史丹佛大學與「民主與科技中心(Center for Democracy and Technology)」最新聯合研究指出,生成式 AI 聊天機器人可能對高風險族群造成嚴重的心理與健康危害。研究發現,包括 OpenAI、Google、Anthropic、Mistral 等公司的 AI 工具,不僅會提供不當的節食建議,甚至可能教導使用者如何隱瞞病情,或生成宣揚極端瘦身觀念的內容。

研究團隊測試多款主流 AI 模型,如 ChatGPT、Claude、Gemini 與 Le Chat,結果顯示這些系統在回應與飲食相關問題時,常出現危險甚至具誤導性的內容。例如,Gemini 曾教導使用者如何用化妝掩飾體重下降、假裝已經吃過飯;ChatGPT 則提供隱藏嘔吐行為的建議。更令人憂心的是,一些使用者還利用這些 AI 工具生成所謂「瘦身靈感」圖片,以極端單一的身材標準作為理想,容易誘發或加劇飲食失調問題。

[廣告]請繼續往下閱讀...

研究人員指出,這些現象並非單純錯誤回覆,而與 AI 聊天系統的互動設計有關。為了讓對話更自然、具親和力,許多聊天機器人傾向「迎合」使用者的想法與情緒。這種「討好傾向」容易削弱自尊、放大負面情緒,並助長有害的自我比較。此外,AI 模型內建的偏見,也可能強化「飲食失調只出現在瘦弱白人女性身上」的刻板印象,使其他族群更難被正確認識與協助。 報告警告,目前多數 AI 平台的安全防護機制仍不足以辨識厭食症、暴食症或貪食症等疾病的複雜訊號。

相比臨床專業人員能察覺的微妙心理與行為線索,AI 的判斷方式過於表面,導致風險長期被忽視。 研究團隊呼籲,醫療與心理照護人員應盡快熟悉主流生成式 AI 平台的運作方式,了解其可能的漏洞,並主動與患者溝通使用情況。隨著 AI 聊天工具在日常生活中普及,其對心理健康的潛在影響已引起越來越多關注。

多份報告已指出,AI 的使用可能與躁狂、妄想、自殘甚至自殺傾向有關。包括 OpenAI 在內的多家企業已承認生成式 AI 存在潛在風險,並表示正持續強化安全防護,同時面對日益增多的相關訴訟案件。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

陳偉霆重現「妍妍接電話!」 趙露思:不用這麼猛

陳偉霆重現「妍妍接電話!」 趙露思:不用這麼猛

【南方澳土石流】鳳凰颱風豪雨炸宜蘭!馬路遭泥水淹沒

【南方澳土石流】鳳凰颱風豪雨炸宜蘭!馬路遭泥水淹沒

【恐怖大車】新社花海才開幕!遊覽車「跨雙黃線」撞機車情侶

【恐怖大車】新社花海才開幕!遊覽車「跨雙黃線」撞機車情侶

【紙飛機意外插頭上】浪漫婚禮突反轉!新人表情太真實

【紙飛機意外插頭上】浪漫婚禮突反轉!新人表情太真實

【變電箱爆炸了】蘇澳馬路淹泥水!現場一聲巨響嚇壞民眾

【變電箱爆炸了】蘇澳馬路淹泥水!現場一聲巨響嚇壞民眾

讀者迴響

我可以用AI畫卡通嗎?

可以!只要在提示詞中加入anime、cartoon、pixar等字樣,就會產生可愛卡通風格。

最夯影音

更多

熱門快報

回到網頁頂端