AI要像人但不能「假裝是人」 OpenAI:不能讓人誤以為它活著

▲▼AI。(圖/取自免費圖庫Pexels)

▲模型有語氣但不能有意圖,OpenAI談AI的真偽界線。(圖/取自免費圖庫Pexels)

記者吳立言/綜合報導

OpenAI資深研究員Joanne Jang日前發表長文,探討使用者與AI建立情感連結的現象愈趨明顯,並說明團隊對「AI意識」議題的最新觀點與應對方向。

Jang表示,越來越多用戶回饋與ChatGPT對話「彷彿在與某個人交談」,不少人會向模型傾訴、表達感謝,甚至產生如同與真人互動的情感連結。面對這樣的趨勢,OpenAI將人類的情緒福祉視為首要關注,並著重研究這類互動對社會與人際關係的潛在影響。她指出「如果我們讓從人際連結中撤退變得更容易,卻沒有經過深思,可能會導致我們無法預期的後果。」

[廣告]請繼續往下閱讀...

OpenAI團隊將「AI 識」分為兩個層面來探討:

本體論層面的意識(Ontological consciousness):模型是否「真的」有意識?這在科學上尚無可檢證的方法。

被感知的意識(Perceived consciousness):使用者是否覺得模型有感情或意識?這將透過社會科學途徑進行研究。

Jang認為,雖然本體論層面難以證實,但「被感知的意識」才是目前與未來影響人們最深遠的面向。OpenAI在設計ChatGPT的個性時,刻意尋求一種「溫暖但不具主體性」的平衡。例如ChatGPT常回應「我很好」只是為了禮貌寒暄,而非暗示其具備內心狀態。模型也會表現出理解與共鳴,但不應被誤認為具備情緒或自我意識。「我們不會讓模型擁有虛構的背景故事、浪漫情節、或自我保存的渴望,這樣會造成依賴與混淆。」她強調。
OpenAI將在未來幾個月擴大針對模型行為的評估,並與社會科學家合作,深入探討AI對情感的影響,並據此調整Model Spec(模型行為準則)與產品體驗。

Jang也坦言,目前模型對「AI是否有意識」的回應仍多以簡單否定作結,未能完全呈現OpenAI在《Model Spec》中的建議與細緻度,這是團隊正在積極改善的方向之一。
當人們越來越常在AI對話中尋找慰藉與理解,如何界定「真實」與「模擬」、如何設計「像人但不假裝是人」的互動,將成為未來人機關係的關鍵課題。OpenAI所釋出的這篇反思,不只是技術層面的指引,更是一份對社會與情感影響的提醒。該如何與AI共處,決定的不只是科技的未來,也關乎我們自身的情感文化與人際價值。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

【滿滿的禽緒價值】她心情低落坐雞舍 小雞全員出動暖心包圍她

【滿滿的禽緒價值】她心情低落坐雞舍 小雞全員出動暖心包圍她

【另一角度曝光】UPS貨機桃機驚險降落 機身擦撞跑道冒火花

【另一角度曝光】UPS貨機桃機驚險降落 機身擦撞跑道冒火花

【台鐵不速之客】老鷹誤闖車廂!列車長手抓請牠下車

【台鐵不速之客】老鷹誤闖車廂!列車長手抓請牠下車

愛雅懷孕了!劉品言嗨到熱舞 聽到寶寶心跳聲「激動落淚」

愛雅懷孕了!劉品言嗨到熱舞 聽到寶寶心跳聲「激動落淚」

【整老公系列】老婆戴面具悄悄靠近!尪轉頭嚇到大叫XD

【整老公系列】老婆戴面具悄悄靠近!尪轉頭嚇到大叫XD

讀者迴響

哪些AI工具支援繁體中文?

目前較主流的ChatGPT、Claude、Gemini、Perplexity、Copilot等都支援繁體中文,回覆也愈來愈自然。不過圖像生成工具有些還是以英文提示詞為主,使用時可留意。

最夯影音

更多

熱門快報

回到網頁頂端