不靠巨無霸!三星推出「超迷你AI大腦」推理能力贏過大型模型 科技界超震撼

▲▼ChatGPT,聊天,AI精神病。(圖/取自pexels)

▲三星推出一款只有700萬參數的超迷你AI模型Tiny Recursive Model(簡稱TRM),被學界視為「小而巧AI」的重要突破。(圖/取自pexels)

記者萬玟伶/綜合報導

人工智慧是不是一定要「越大越聰明」?三星最新研究給出了驚人答案:「不一定!」

根據國外媒體《AINEWS》的報導顯示,在各大科技公司還在競爭誰的AI模型參數更多、模型更巨大時,三星近期推出的一個超小AI模型Tiny Recursive Model(簡稱TRM),憑著只有700萬個參數的「迷你大腦」,竟然在許多高難度推理測試中表現超越多款大型語言模型(LLMs)!這個結果讓不少研究者驚呼,AI 可能走向「小而巧」的新時代。

[廣告]請繼續往下閱讀...

這款名為Tiny Recursive Model(TRM)的新模型,由Samsung SAIL蒙特婁研究中心研究員Alexia Jolicoeur-Martineau研發。與動輒數百億甚至上兆參數的主流AI模型相比,TRM的體積可說是「小到不可思議」,但它在一系列高難度智能測試中的表現卻十分突出,不但在極限數獨挑戰中解題成功率接近九成,也能在30×30迷宮測試中找到有效路徑,更在測試AI抽象推理能力的重要基準ARC-AGI上擊敗多款知名大型模型,引起AI研究社群高度關注。

與現今許多AI模型依賴一次性推理不同,TRM採取一種更接近人類思考方式的策略。那就是,先推測一個答案,再不斷反思、修正,最多可以反覆思考16次。研究團隊形容,這就像一個會「自己改答案」的AI,遇到複雜問題時,即使第一次沒想準,也能逐漸調整推論步驟,讓結果更接近真相。這樣的運作方式,也避免了大型模型常見的推理錯位問題,也就是一旦前面一步出錯,後面答案就整個崩盤。

更令人意外的是,研究發現TRM的效果在網路層級更少時反而更強,也就是說,一個僅由兩層結構組成的超小模型比四層架構的版本更能正確解題,顯示參數與層數並不必然與推理能力成正比。研究團隊並未依賴先前模型所需要的複雜數學假設,而是直接讓模型在完整的遞迴過程中進行反向訓練,這項關鍵調整讓性能有明顯提升,也讓TRM成為目前同領域最具驚喜的模型之一。

這樣的成果不僅在學術與AI工程圈引發討論,也讓產業界看見AI發展可能正在出現轉向。在雲端成本與能源消耗愈來愈受重視的背景下,像TRM這樣的微型推理模型,有機會直接在手機、車載系統、穿戴設備或家庭電器中執行,不需依賴雲端超級伺服器,就能提供安全快速的智慧判斷。這樣的方向,也被視為邁向真正普及型AI的重要一步。

三星這項研究並未直接否定大型模型的重要性,但它提出一個足以改變產業想像的觀點:人工智慧的實力,可能不再只用參數規模衡量;未來的競賽,或許不是誰的模型更大,而是誰能讓AI思考得更精準、更節能,也更貼近人類的推理方式。

AI正在從「比誰算力強」的肌肉競賽,轉向「比誰思考好」的智慧競賽。從TRM的出現可以預見,一場關於AI能源效率、推理可信度與普及化應用的全新對話,才正要開始。

分享給朋友:

追蹤我們:

※ 本文版權所有,非經授權,不得轉載。 [ ETtoday著作權聲明 ]

推薦閱讀

熱門影音更多>>

謝和弦「以前滿喜歡館長」 已棄追..曝「中國千萬邀約」

謝和弦「以前滿喜歡館長」 已棄追..曝「中國千萬邀約」

遭調侃「奶奶過世被家寧要錢」 Andy走鐘獎台下苦笑跟唱

遭調侃「奶奶過世被家寧要錢」 Andy走鐘獎台下苦笑跟唱

「電話手勢看出世代差異」 EXO KAI遭受年齡爆擊XD

「電話手勢看出世代差異」 EXO KAI遭受年齡爆擊XD

【雞排呢?】台大大氣系學生放鴿子 400人白等:失望!

【雞排呢?】台大大氣系學生放鴿子 400人白等:失望!

【眼鏡蛇闖龍井圖書館】文青女被咬傷驚叫:溜進閱覽區了

【眼鏡蛇闖龍井圖書館】文青女被咬傷驚叫:溜進閱覽區了

讀者迴響

AI怎麼畫圖?

只要輸入簡單描述文字(例如「水晶風格的貓」),AI 工具如Midjourney、DALL·E、Bing Image Creator就能依據提示生成對應圖像。這類工具靠大量圖像資料訓練,能理解物件、風格與組合邏輯。

最夯影音

更多

熱門快報

回到網頁頂端