不靠巨無霸!三星推出「超迷你AI大腦」推理能力贏過大型模型 科技界超震撼

▲▼ChatGPT,聊天,AI精神病。(圖/取自pexels)

▲三星推出一款只有700萬參數的超迷你AI模型Tiny Recursive Model(簡稱TRM),被學界視為「小而巧AI」的重要突破。(圖/取自pexels)

記者萬玟伶/綜合報導

人工智慧是不是一定要「越大越聰明」?三星最新研究給出了驚人答案:「不一定!」

[廣告] 請繼續往下閱讀.

根據國外媒體《AINEWS》的報導顯示,在各大科技公司還在競爭誰的AI模型參數更多、模型更巨大時,三星近期推出的一個超小AI模型Tiny Recursive Model(簡稱TRM),憑著只有700萬個參數的「迷你大腦」,竟然在許多高難度推理測試中表現超越多款大型語言模型(LLMs)!這個結果讓不少研究者驚呼,AI 可能走向「小而巧」的新時代。

這款名為Tiny Recursive Model(TRM)的新模型,由Samsung SAIL蒙特婁研究中心研究員Alexia Jolicoeur-Martineau研發。與動輒數百億甚至上兆參數的主流AI模型相比,TRM的體積可說是「小到不可思議」,但它在一系列高難度智能測試中的表現卻十分突出,不但在極限數獨挑戰中解題成功率接近九成,也能在30×30迷宮測試中找到有效路徑,更在測試AI抽象推理能力的重要基準ARC-AGI上擊敗多款知名大型模型,引起AI研究社群高度關注。

與現今許多AI模型依賴一次性推理不同,TRM採取一種更接近人類思考方式的策略。那就是,先推測一個答案,再不斷反思、修正,最多可以反覆思考16次。研究團隊形容,這就像一個會「自己改答案」的AI,遇到複雜問題時,即使第一次沒想準,也能逐漸調整推論步驟,讓結果更接近真相。這樣的運作方式,也避免了大型模型常見的推理錯位問題,也就是一旦前面一步出錯,後面答案就整個崩盤。

更令人意外的是,研究發現TRM的效果在網路層級更少時反而更強,也就是說,一個僅由兩層結構組成的超小模型比四層架構的版本更能正確解題,顯示參數與層數並不必然與推理能力成正比。研究團隊並未依賴先前模型所需要的複雜數學假設,而是直接讓模型在完整的遞迴過程中進行反向訓練,這項關鍵調整讓性能有明顯提升,也讓TRM成為目前同領域最具驚喜的模型之一。

[廣告] 請繼續往下閱讀..

這樣的成果不僅在學術與AI工程圈引發討論,也讓產業界看見AI發展可能正在出現轉向。在雲端成本與能源消耗愈來愈受重視的背景下,像TRM這樣的微型推理模型,有機會直接在手機、車載系統、穿戴設備或家庭電器中執行,不需依賴雲端超級伺服器,就能提供安全快速的智慧判斷。這樣的方向,也被視為邁向真正普及型AI的重要一步。

三星這項研究並未直接否定大型模型的重要性,但它提出一個足以改變產業想像的觀點:人工智慧的實力,可能不再只用參數規模衡量;未來的競賽,或許不是誰的模型更大,而是誰能讓AI思考得更精準、更節能,也更貼近人類的推理方式。

AI正在從「比誰算力強」的肌肉競賽,轉向「比誰思考好」的智慧競賽。從TRM的出現可以預見,一場關於AI能源效率、推理可信度與普及化應用的全新對話,才正要開始。