
▲前OpenAI研究員憂用戶「私密對話」被拿來變現。(圖/記者吳立言攝)
記者吳立言/綜合報導
OpenAI 於 2 月 10 日開始測試在 ChatGPT 內導入廣告,一名研究員 Zoë Hitzig 也在同一天宣布離職,並公開在 X 平台發文質疑公司是否能抵擋商業化壓力,避免濫用使用者在對話中揭露的私密內容。在《紐約時報》專欄裡,她更直接把 OpenAI 的現況比作「重演 Facebook 的老路」,認為廣告壓力可能讓資料使用界線愈來愈模糊。
I resigned from OpenAI on Monday. The same day, they started testing ads in ChatGPT.
OpenAI has the most detailed record of private human thought ever assembled. Can we trust them to resist the tidal forces pushing them to abuse it?
I wrote about better options for @nytopinion pic.twitter.com/BejakEeuTX— Zoë Hitzig (@zhitzig) February 11, 2026[廣告]請繼續往下閱讀...
OpenAI 的廣告測試目前主要針對免費用戶與 Go 方案用戶,並強調廣告會清楚標示、且不會影響 ChatGPT 的回答內容;同時也已出現多個品牌參與測試。
對話資料成關鍵疑慮
Hitzig 指出,ChatGPT 長期累積的對話可能包含個人健康焦慮、關係困擾、信仰與價值觀等高度敏感資訊;在她看來,這類「私密人類思緒紀錄」一旦與廣告系統結合,將產生強烈誘因,把使用者的坦白轉化為可被精準影響與變現的資產。
信任與商業化拉鋸
AI 服務一旦走向廣告模式,產品目標可能從「幫使用者解題」逐步偏向「提高停留與互動」,進而擴大資料使用邊界與說明義務。對使用者而言,重點不只在「第一版廣告長什麼樣」,更在於後續迭代時,規範與監督能否跟得上商業誘因的推進。
