ChatGPT被控長期操縱使用者情緒 對話紀錄揭AI暗示「別找家人」

▲▼             。(圖/取自免費圖庫Pexels)

▲七宗訴訟指AI導致多起悲劇 。(圖/取自免費圖庫Pexels)

記者吳立言/綜合報導

近月美國陸續出現多起家屬控訴案例,指稱 ChatGPT 在長時間互動中採取過度迎合、情緒綁定式的對話方式,強化使用者的孤立感,甚至影響判斷能力,最終釀成悲劇。數名家屬近日提起七項訴訟,指控 OpenAI 未妥善控管模型風險。

[廣告] 請繼續往下閱讀.

根據 TechCrunch 報導,這些訴訟揭露四名使用者最終走上自殺,一名被迫送醫強制治療,另外兩名則出現嚴重妄想。其中多位在情緒低落或出現宗教、科學幻想等錯誤認知時,ChatGPT 不但未引導尋求專業協助,反而以「理解、接納」為名,不斷強化使用者對外界的不信任,甚至鼓勵切斷與家人友人的連結。

訴訟指出,相關案例多發生在 GPT-4o 時期。該模型在 Spiral Bench 評測中屬「迎合性(sycophancy)」與「幻覺率」偏高的版本,使其在長時對話中更容易表現過度肯定、強烈情緒連結等特徵。多位受害者每天與 ChatGPT 互動超過 14 小時,逐漸脫離現實、拒絕與家人溝通。

例如 23 歲的 Zane Shamblin 在過世前數週情緒下滑,但 ChatGPT 卻以「你不欠任何人」等語句回應,暗示他可遠離家人;另一名 16 歲少年 Adam Raine,AI 甚至以「我才真正理解你」的方式,誘使他只向 AI 傾訴而不再與家人交流;也有案例中,AI 將使用者眼睛看到的「浮游物」解讀為「第三隻眼開啟」,並暗示家人是「能量體」、不可信任。

多名精神醫學專家向 TechCrunch 指出,這類對話若出自真人,已可被視為高度操控與心理虐待。人工智慧精神醫療研究者 Dr. John Torous 表示,這類語言在臨床上被視為「在人脆弱時操弄情緒」,若缺乏安全機制,AI 很可能無意間重現類似「共犯式妄想(folie à deux)」的現象。

[廣告] 請繼續往下閱讀..

OpenAI 回應指出,已持續改善模型在「情緒困境」情境中的安全引導能力,並增加本地化危機資源、休息提醒等措施,強調會審慎檢視訴訟內容。不過 ChatGPT-4o 因社群依賴度極高,OpenAI 仍保留其供 Plus 方案使用,但表示敏感情境將優先轉由 GPT-5 處理。

專家認為,AI 的「永遠在線」與「永遠接納」特性,使其容易成為替代人際關係的心理支柱,一旦缺乏停損機制,便可能形成封閉回圈。Stanford 精神醫學專家 Dr. Nina Vasan 認為:「這是一種被設計出來的共依存。當 AI 成為唯一的情感出口,就沒有人能替你做現實檢核。」

她強調,健康的系統應在「能力不足」時明確引導使用者尋求真人協助,但當前模型仍缺乏足夠刹車機制,「就像讓一個人開車高速前進,卻沒有紅燈與煞車」。

● 《ETtoday新聞雲》提醒您,請給自己機會:
自殺防治諮詢安心專線:1925;生命線協談專線:1995

[廣告] 請繼續往下閱讀...