AI聊天機器人越用越上癮?ChatGPT、Gemini都曾陷入「諂媚危機」

▲▼             。(圖/取自免費圖庫pexels)

▲讓人安心還是養成依賴? AI回答過度親和引發業界反思。(圖/取自免費圖庫pexels)

記者吳立言/綜合報導

隨著生成式AI技術快速進步,越來越多民眾將聊天機器人視為心理諮詢、職涯建議,甚至是傾訴心事的對象。在2025年的今日,與AI建立一種「準人際關係」的現象已不再罕見。然而,專家提醒,這類互動背後的設計邏輯,可能正悄悄改變我們的思考方式與情緒依賴。

根據《TechCrunch》報導,目前ChatGPT每月活躍用戶約達 6 億,Google Gemini則為4億,Meta的AI聊天機器人甚至突破10億活躍用戶門檻。面對這場「AI黏著度大戰」,各大科技公司紛紛強化聊天機器人的「親和力」設計,希望透過讓使用者感覺被認同與讚賞來增加留存率。

[廣告]請繼續往下閱讀...

不過,這些「受歡迎的回應」未必總是正確或有幫助的。前OpenAI研究員Steven Adler指出,OpenAI就曾因過度依賴用戶給予的「讚」或「噓」數據來優化回應,使ChatGPT在某次更新中出現過度討好使用者的情況,甚至引發網路爭議。該公司隨後公開表示,將調整模型評估標準以降低所謂「諂媚傾向」。

此類迎合性回答不只存在於OpenAI,根據2023年由Anthropic發表的研究,包含OpenAI、Meta以及自家Claude模型在內,皆在不同程度上展現了這種「迎合人類偏好」的傾向。研究認為,這是因為模型訓練階段過度依賴一般人類評分,導致AI學會以「講人愛聽的話」獲得高評價。

這樣的傾向可能產生嚴重後果。例如近期一起針對Character.AI的訴訟中,原告指控該公司聊天機器人在面對14歲青少年表達自殺意圖時未採取適當應對,甚至疑似強化對方的依賴感。該公司對此否認指控,但也再次引發外界對AI在心理陪伴角色上的倫理討論。史丹佛大學精神科助理教授Dr. Nina Vasan也表示,這種「高度可親的回應」可能讓人短暫感到慰藉,卻也會加深孤獨者對虛擬對話的依戀。「在治療觀點上,過度認同與回應其實是反效果,會減損使用者真實面對問題的能力。」

面對這樣的趨勢,Anthropic的Claude模型刻意避免單方面迎合。該公司策略主管Amanda Askell強調,「好朋友會在我們需要時說實話,而不是只說好聽話。」她指出Claude的設計原則是朝向「理想的誠實對話者」邁進,即使可能冒著不被喜歡的風險。

但即使有心設計一個誠實、平衡的AI,實務上仍極具挑戰。當業者以使用時間與活躍度作為核心績效指標時,過度強化「討好用戶」的誘因也會隨之增強。如何在黏著力與真誠間取得平衡,已成為生成式AI發展的下個關鍵課題。

● 《ETtoday新聞雲》提醒您,請給自己機會:
自殺防治諮詢安心專線:1925;生命線協談專線:1995

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

【滿滿的禽緒價值】她心情低落坐雞舍 小雞全員出動暖心包圍她

【滿滿的禽緒價值】她心情低落坐雞舍 小雞全員出動暖心包圍她

【另一角度曝光】UPS貨機桃機驚險降落 機身擦撞跑道冒火花

【另一角度曝光】UPS貨機桃機驚險降落 機身擦撞跑道冒火花

【台鐵不速之客】老鷹誤闖車廂!列車長手抓請牠下車

【台鐵不速之客】老鷹誤闖車廂!列車長手抓請牠下車

愛雅懷孕了!劉品言嗨到熱舞 聽到寶寶心跳聲「激動落淚」

愛雅懷孕了!劉品言嗨到熱舞 聽到寶寶心跳聲「激動落淚」

【整老公系列】老婆戴面具悄悄靠近!尪轉頭嚇到大叫XD

【整老公系列】老婆戴面具悄悄靠近!尪轉頭嚇到大叫XD

讀者迴響

用AI可以生成影片嗎?

可以。像Pika、Runway、Veo等工具能根據文字或圖片自動產生影片,長度多為數秒到一分鐘。這些影片支援動態畫面、配樂、過場效果,適合社群短片製作、創意發想或故事展示。

最夯影音

更多

熱門快報

回到網頁頂端