「一切都像假的」 OpenAI執行長嘆:社群不再真實、連真人也像AI

▲▼OpenAI執行長奧特曼(Sam Altman)。(圖/路透)

▲OpenAI執行長奧特曼(Sam Altman)。(圖/路透)

記者吳立言/綜合報導

OpenAI執行長、同時也是Reddit股東的奧特曼(Sam Altman)今日在 X平台發文表示,他在瀏覽Reddit的r/Claudecode討論區時,突然意識到當前的社群媒體充斥著大量看似「假」的內容,真假難辨。

[廣告] 請繼續往下閱讀.

奧特曼指出,該版近期充斥許多自稱轉用OpenAI Codex的用戶貼文,甚至有人打趣「不發文就不能轉用Codex嗎?」這讓他開始懷疑,這些讚美是否真出自真人,而非機器人。他進一步分析,這種「虛假感」來源可能包含:

真實用戶逐漸養成類似大型語言模型(LLM)的發言習慣

社群高黏著用戶彼此模仿,行為趨同

平台演算法為了刺激互動過度放大情緒化內容

[廣告] 請繼續往下閱讀..

創作者為了流量與分潤而被動「優化」表達方式

加上企業刻意操作(astroturfing)與機器人參與

他甚至坦言,因為OpenAI本身過去也曾遭遇「假草根運動(astroturfing)」攻擊,使他特別敏感。他直言「AI Twitter和AI Reddit現在看起來都很假,跟一兩年前完全不同。」

數據也顯示這樣的擔憂並非空穴來風。資安公司Imperva曾估算,2024年全球超過一半的網路流量並非真人,而是來自自動化程式或LLM。X 平台自家的Grok模型也透露,該平台上可能有數以億計的機器人帳號。

不過,奧特曼的發言或許另有伏筆。根據外媒報導,OpenAI曾考慮開發社群平台,挑戰X與Facebook。但即使真的問世,要做到「無機器人」幾乎是不可能的任務。阿姆斯特丹大學研究人員甚至實驗發現,即便社群成員全是AI機器人,仍會形成小圈子與同溫層。

社群「真假難辨」的疑慮,隨著AI工具滲透各領域而持續發酵。從學校、媒體到司法,如何辨識人機差異,將是未來各平台與用戶共同面對的課題。