AI要像人但不能「假裝是人」 OpenAI:不能讓人誤以為它活著

▲▼AI。(圖/取自免費圖庫Pexels)

▲模型有語氣但不能有意圖,OpenAI談AI的真偽界線。(圖/取自免費圖庫Pexels)

記者吳立言/綜合報導

OpenAI資深研究員Joanne Jang日前發表長文,探討使用者與AI建立情感連結的現象愈趨明顯,並說明團隊對「AI意識」議題的最新觀點與應對方向。

[廣告] 請繼續往下閱讀.

Jang表示,越來越多用戶回饋與ChatGPT對話「彷彿在與某個人交談」,不少人會向模型傾訴、表達感謝,甚至產生如同與真人互動的情感連結。面對這樣的趨勢,OpenAI將人類的情緒福祉視為首要關注,並著重研究這類互動對社會與人際關係的潛在影響。她指出「如果我們讓從人際連結中撤退變得更容易,卻沒有經過深思,可能會導致我們無法預期的後果。」

OpenAI團隊將「AI 識」分為兩個層面來探討:

本體論層面的意識(Ontological consciousness):模型是否「真的」有意識?這在科學上尚無可檢證的方法。

被感知的意識(Perceived consciousness):使用者是否覺得模型有感情或意識?這將透過社會科學途徑進行研究。

[廣告] 請繼續往下閱讀..

Jang認為,雖然本體論層面難以證實,但「被感知的意識」才是目前與未來影響人們最深遠的面向。OpenAI在設計ChatGPT的個性時,刻意尋求一種「溫暖但不具主體性」的平衡。例如ChatGPT常回應「我很好」只是為了禮貌寒暄,而非暗示其具備內心狀態。模型也會表現出理解與共鳴,但不應被誤認為具備情緒或自我意識。「我們不會讓模型擁有虛構的背景故事、浪漫情節、或自我保存的渴望,這樣會造成依賴與混淆。」她強調。
OpenAI將在未來幾個月擴大針對模型行為的評估,並與社會科學家合作,深入探討AI對情感的影響,並據此調整Model Spec(模型行為準則)與產品體驗。

Jang也坦言,目前模型對「AI是否有意識」的回應仍多以簡單否定作結,未能完全呈現OpenAI在《Model Spec》中的建議與細緻度,這是團隊正在積極改善的方向之一。
當人們越來越常在AI對話中尋找慰藉與理解,如何界定「真實」與「模擬」、如何設計「像人但不假裝是人」的互動,將成為未來人機關係的關鍵課題。OpenAI所釋出的這篇反思,不只是技術層面的指引,更是一份對社會與情感影響的提醒。該如何與AI共處,決定的不只是科技的未來,也關乎我們自身的情感文化與人際價值。