▲讓人安心還是養成依賴? AI回答過度親和引發業界反思。(圖/取自免費圖庫pexels)
記者吳立言/綜合報導
隨著生成式AI技術快速進步,越來越多民眾將聊天機器人視為心理諮詢、職涯建議,甚至是傾訴心事的對象。在2025年的今日,與AI建立一種「準人際關係」的現象已不再罕見。然而,專家提醒,這類互動背後的設計邏輯,可能正悄悄改變我們的思考方式與情緒依賴。
根據《TechCrunch》報導,目前ChatGPT每月活躍用戶約達 6 億,Google Gemini則為4億,Meta的AI聊天機器人甚至突破10億活躍用戶門檻。面對這場「AI黏著度大戰」,各大科技公司紛紛強化聊天機器人的「親和力」設計,希望透過讓使用者感覺被認同與讚賞來增加留存率。
不過,這些「受歡迎的回應」未必總是正確或有幫助的。前OpenAI研究員Steven Adler指出,OpenAI就曾因過度依賴用戶給予的「讚」或「噓」數據來優化回應,使ChatGPT在某次更新中出現過度討好使用者的情況,甚至引發網路爭議。該公司隨後公開表示,將調整模型評估標準以降低所謂「諂媚傾向」。
此類迎合性回答不只存在於OpenAI,根據2023年由Anthropic發表的研究,包含OpenAI、Meta以及自家Claude模型在內,皆在不同程度上展現了這種「迎合人類偏好」的傾向。研究認為,這是因為模型訓練階段過度依賴一般人類評分,導致AI學會以「講人愛聽的話」獲得高評價。
這樣的傾向可能產生嚴重後果。例如近期一起針對Character.AI的訴訟中,原告指控該公司聊天機器人在面對14歲青少年表達自殺意圖時未採取適當應對,甚至疑似強化對方的依賴感。該公司對此否認指控,但也再次引發外界對AI在心理陪伴角色上的倫理討論。史丹佛大學精神科助理教授Dr. Nina Vasan也表示,這種「高度可親的回應」可能讓人短暫感到慰藉,卻也會加深孤獨者對虛擬對話的依戀。「在治療觀點上,過度認同與回應其實是反效果,會減損使用者真實面對問題的能力。」
面對這樣的趨勢,Anthropic的Claude模型刻意避免單方面迎合。該公司策略主管Amanda Askell強調,「好朋友會在我們需要時說實話,而不是只說好聽話。」她指出Claude的設計原則是朝向「理想的誠實對話者」邁進,即使可能冒著不被喜歡的風險。
但即使有心設計一個誠實、平衡的AI,實務上仍極具挑戰。當業者以使用時間與活躍度作為核心績效指標時,過度強化「討好用戶」的誘因也會隨之增強。如何在黏著力與真誠間取得平衡,已成為生成式AI發展的下個關鍵課題。
● 《ETtoday新聞雲》提醒您,請給自己機會:
自殺防治諮詢安心專線:1925;生命線協談專線:1995