研究員憂用戶「最私密對話」被拿來變現 於ChatGPT測試廣告當日請辭

▲▼OpenAI,ChatGPT。(圖/記者吳立言攝)

▲前OpenAI研究員憂用戶「私密對話」被拿來變現。(圖/記者吳立言攝)

記者吳立言/綜合報導

OpenAI 於 2 月 10 日開始測試在 ChatGPT 內導入廣告,一名研究員 Zoë Hitzig 也在同一天宣布離職,並公開在 X 平台發文質疑公司是否能抵擋商業化壓力,避免濫用使用者在對話中揭露的私密內容。在《紐約時報》專欄裡,她更直接把 OpenAI 的現況比作「重演 Facebook 的老路」,認為廣告壓力可能讓資料使用界線愈來愈模糊。

[廣告] 請繼續往下閱讀.

OpenAI 的廣告測試目前主要針對免費用戶與 Go 方案用戶,並強調廣告會清楚標示、且不會影響 ChatGPT 的回答內容;同時也已出現多個品牌參與測試。

對話資料成關鍵疑慮

Hitzig 指出,ChatGPT 長期累積的對話可能包含個人健康焦慮、關係困擾、信仰與價值觀等高度敏感資訊;在她看來,這類「私密人類思緒紀錄」一旦與廣告系統結合,將產生強烈誘因,把使用者的坦白轉化為可被精準影響與變現的資產。

[廣告] 請繼續往下閱讀..

信任與商業化拉鋸

AI 服務一旦走向廣告模式,產品目標可能從「幫使用者解題」逐步偏向「提高停留與互動」,進而擴大資料使用邊界與說明義務。對使用者而言,重點不只在「第一版廣告長什麼樣」,更在於後續迭代時,規範與監督能否跟得上商業誘因的推進。


關鍵字: OpenAI, ChatGPT, 廣告, 隱私, 商業化