ChatGPT禁談醫療建議掀退訂潮 OpenAI喊冤:只是畫出安全紅線

▲▼看診,問診。(圖/取自免費圖庫Pexels)

▲OpenAI澄清未禁止ChatGPT提供醫療建議。(圖/取自免費圖庫Pexels)

記者吳立言/綜合報導

近日網路盛傳「ChatGPT將全面禁止提供醫療建議」,引發全球用戶憂慮。不過根據這項說法並不完全正確,OpenAI 僅釐清界線:ChatGPT 仍能回答健康相關問題,但不能「假裝成醫生」或提供個人化診斷。

[廣告] 請繼續往下閱讀.

OpenAI 在 10 月 29 日更新使用政策,重申用戶不得利用其服務提供「需專業執照的客製化建議」,包括法律與醫療諮詢。公司發言人表示:「這不是新規定。ChatGPT 從未被設計為醫療或法律專業的替代品,但仍是一個協助人們理解健康與法律資訊的絕佳資源。」

有關「禁止醫療建議」的誤傳,源於預測平台 Kalshi 在 X 平台上發文誤稱政策變動後 ChatGPT 將無法回覆健康問題,該貼文已隨後刪除。OpenAI 健康研究主管 Karan Singhal 也在社群上澄清:「模型行為沒有任何變化。」

根據美國凱撒家庭基金會 (KFF) 2024 年的調查,約有六分之一的用戶每月至少一次向 ChatGPT 諮詢健康問題,用途包括理解醫囑、準備就診、或釋疑專業術語。

[廣告] 請繼續往下閱讀..

事實上,ChatGPT 在面對用戶提出「感冒怎麼辦」等問題時,仍會給出一般性建議,如「多喝水、開加濕器、服用退燒藥」。但若使用者輸入「右臉突然動不了」等危急症狀,系統則會立即建議撥打 911或就醫,顯示其具備安全防護設計。

OpenAI 近月已強化心理健康與臨床相關警示,避免模型誤導用戶。例如今年就曾有報導指出,一名使用者誤信 AI 建議以「溴化鈉代替鹽分」而中毒。公司此後新增多項「高風險應用防護」,要求所有醫療相關輸出需明確提醒使用者尋求專業協助。

OpenAI 此舉除為降低法律風險外,也被視為為未來推出專業版鋪路。市場傳出公司正研發 ChatGPT for Health 與 ChatGPT for Law,以提供受監管的醫療與法律 AI 服務。儘管新政策引發部分用戶不滿,但也凸顯產業對安全與責任的重視。如何在保障使用者權益與防止誤用間取得平衡,將成為 AI 普及發展的關鍵。