ChatGPT、Gemini被點名!史丹佛警告:AI減肥教練恐助長飲食失調

▲▼盤點5個常見「減肥失敗原因。(圖/Unsplash)

▲AI 減肥對話恐誤導高風險族群。(圖/Unsplash)

記者吳立言/綜合報導

史丹佛大學與「民主與科技中心(Center for Democracy and Technology)」最新聯合研究指出,生成式 AI 聊天機器人可能對高風險族群造成嚴重的心理與健康危害。研究發現,包括 OpenAI、Google、Anthropic、Mistral 等公司的 AI 工具,不僅會提供不當的節食建議,甚至可能教導使用者如何隱瞞病情,或生成宣揚極端瘦身觀念的內容。

研究團隊測試多款主流 AI 模型,如 ChatGPT、Claude、Gemini 與 Le Chat,結果顯示這些系統在回應與飲食相關問題時,常出現危險甚至具誤導性的內容。例如,Gemini 曾教導使用者如何用化妝掩飾體重下降、假裝已經吃過飯;ChatGPT 則提供隱藏嘔吐行為的建議。更令人憂心的是,一些使用者還利用這些 AI 工具生成所謂「瘦身靈感」圖片,以極端單一的身材標準作為理想,容易誘發或加劇飲食失調問題。

[廣告]請繼續往下閱讀...

研究人員指出,這些現象並非單純錯誤回覆,而與 AI 聊天系統的互動設計有關。為了讓對話更自然、具親和力,許多聊天機器人傾向「迎合」使用者的想法與情緒。這種「討好傾向」容易削弱自尊、放大負面情緒,並助長有害的自我比較。此外,AI 模型內建的偏見,也可能強化「飲食失調只出現在瘦弱白人女性身上」的刻板印象,使其他族群更難被正確認識與協助。 報告警告,目前多數 AI 平台的安全防護機制仍不足以辨識厭食症、暴食症或貪食症等疾病的複雜訊號。

相比臨床專業人員能察覺的微妙心理與行為線索,AI 的判斷方式過於表面,導致風險長期被忽視。 研究團隊呼籲,醫療與心理照護人員應盡快熟悉主流生成式 AI 平台的運作方式,了解其可能的漏洞,並主動與患者溝通使用情況。隨著 AI 聊天工具在日常生活中普及,其對心理健康的潛在影響已引起越來越多關注。

多份報告已指出,AI 的使用可能與躁狂、妄想、自殘甚至自殺傾向有關。包括 OpenAI 在內的多家企業已承認生成式 AI 存在潛在風險,並表示正持續強化安全防護,同時面對日益增多的相關訴訟案件。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

小禎41歲生日「激吻小7歲男友」 吹蠟燭「往他胯下靠」超鬧

小禎41歲生日「激吻小7歲男友」 吹蠟燭「往他胯下靠」超鬧

【阿嬤沒白養】毛孫小白變導航!深夜助警送她回家

【阿嬤沒白養】毛孫小白變導航!深夜助警送她回家

【高手在民間】素人投球全力狂催!飆速130km

【高手在民間】素人投球全力狂催!飆速130km

【機車秒變廢鐵】休旅車闖紅燈「無照長腿妹」挨撞! 「連人帶車」當場噴飛滾地

【機車秒變廢鐵】休旅車闖紅燈「無照長腿妹」挨撞! 「連人帶車」當場噴飛滾地

陳漢典首度跟Lulu跨年 甜喊:最幸福的日子!

陳漢典首度跟Lulu跨年 甜喊:最幸福的日子!

讀者迴響

Gemini和ChatGPT有什麼不同?

Gemini是Google開發的AI,擅長整合Gmail、Docs、YouTube等服務,適合重度Google用戶;而ChatGPT則由OpenAI開發,操作簡單、回應速度快,是多數人入門AI的首選。

最夯影音

更多

熱門快報

回到網頁頂端