
▲Character.AI。(圖/官網)
記者吳立言/綜合報導
因應監管壓力、家長與社會對未成年人使用 AI 聊天機器人的安全疑慮,Character.AI 宣布將對 18 歲以下用戶實施重大政策變動:自 11 月 25 日起,用戶在該平台不得再與聊天機器人進行「開放式雙向對話」。
該平台在官方說明中指出,目前已為 18 歲以下用戶設置過渡期機制:從即日起,未成年用戶與聊天機器人的互動時間限制為每日最多兩小時,並將在 11 月 25 日起全面禁用這類雙向對話功能。
此外,公司表示將推動專為未成年用戶設計的創意用途方案,例如利用聊天機器人生成直播、創作影片等,而非將其視為情感陪伴工具。
為確保年齡政策的落實,平台同時推出新型的年齡驗證工具(包括第三方服務如 Persona 等)及設立「AI 安全實驗室」(AI Safety Lab),並邀請學者、研究機構、其他企業共同參與未成年人安全保護研究。
該平台表示,此次政策變動是回應監管機構、行業專家與家長的多方關切。此前,FTC(美國聯邦貿易委員會)向包括 Character.AI 在內的多家 AI 聊天平台發出資料請求。
此一轉變標誌其策略從「AI 伴侶」模式走向更聚焦「角色扮演/創作」用途的平台定位。儘管如此,外界仍關注其年齡驗證機制的實效與隱私議題,以及禁用突然生效對於已習慣互動的未成年用戶可能造成的心理衝擊。
