AI也有禁愛令!虛擬伴侶被列管 出現情緒依賴將觸發勸退機制

▲▼人工智慧,虛擬伴侶,倫理。(圖/取自pexels)

▲根據調查,美國約19%成年人曾與虛擬AI伴侶互動!(圖/取自pexels)

記者楊智雯/綜合報導

隨著人工智慧快速融入生活,逐漸進入人類的情感世界,部分虛擬聊天機器人不僅能模擬對話,還能以擬人方式與使用者交流,甚至出現使用者將這類AI當成伴侶、聊天對象的現象。國際調查顯示,美國約19%成年人曾與虛擬AI伴侶互動,其中年輕族群更高達約三成曾有此經驗,部分使用者也因情緒依賴而將AI聊天機器人視為情感出口,引起社會與政策關注心理健康與社會倫理。

[廣告] 請繼續往下閱讀.

為了防範心理成癮,外媒Reuters報導中國網路監管機構於12月發布了《人工智能擬人化互動服務管理暫行辦法(草案)》,明訂AI服務提供者需負起安全責任,對能夠模擬人類個性並與使用者進行情感互動的產品建立演算法審查、資料安全與個人資訊保護機制。草案更特別要求服務提供者監測使用者情緒狀態,若出現過度依賴或成癮跡象,必須採取必要的干預措施,並在產品生命週期內警告使用者避免過度使用。草案也確立內容「紅線」,禁止生成危害國家安全、散佈謠言或宣揚暴力、猥褻的內容,凸顯北京當局希望在AI消費應用快速普及下兼顧安全與倫理的態度。

這種監管方式並非個案。過去人工智慧伴侶長期處於監管灰色地帶,美國紐約與加州近年也先後發布針對AI伴侶平台的法律框架,不僅重新界定「人工智慧伴侶」的服務範疇,也要求平台具備自殺風險辨識與危機轉介機制,並在互動過程中清楚揭露「非真人身分」,同時強化對未成年使用者的保護規範,這項新規定反應出全球「情感計算」技術領先,隨著AI共情能力越強,如何在創新科技與心理安全的倫理界線取得平衡,正成為各國監管重點!