記者吳立言/綜合報導

▲Meta推出最新一代人工智慧模型「Llama 4」。(圖/路透)
Meta日前正式推出最新一代人工智慧模型「Llama 4」,涵蓋多款針對不同應用場景設計的模型,強調效能與多模態處理能力兼具。新模型採用「專家混合架構」(Mixture of Experts, MoE),並擴展至處理文本、圖片與影片等多種資料格式,並導入 WhatsApp、Messenger、Instagram及網頁版的Meta AI助理,顯現出Meta在生成式AI領域的積極布局。
Today is the start of a new era of natively multimodal AI innovation.
Today, we’re introducing the first Llama 4 models: Llama 4 Scout and Llama 4 Maverick — our most advanced models yet and the best in their class for multimodality.
Llama 4 Scout
• 17B-active-parameter model… pic.twitter.com/Z8P3h0MA1P— AI at Meta (@AIatMeta) April 5, 2025[廣告]請繼續往下閱讀...
Meta本次共釋出三款模型:輕量級的 Llama 4 Scout、進階版 Llama 4 Maverick,以及預覽中的超大型模型 Llama 4 Behemoth。

▲Meta釋出的Llama 4模型。(圖/Meta)
其中,Llama 4 Scout 可在單顆 Nvidia H100 GPU 上運作,支援長達「1,000萬 tokens 」的上下文視窗,並在多項基準測試中擊敗Google的 Gemma 3及 Mistral 3.1,成為中小型應用的理想選擇。至於 Llama 4 Maverick,則鎖定高階推理與編碼任務,表現媲美 GPT-4o 與 DeepSeek-V3,且在活躍參數更少的情況下仍保持高效能表現。

▲預告中的 Llama 4 Behemoth。(圖/Meta)
更令人矚目的是,Meta 預告中的Llama 4 Behemoth,總參數高達 2兆,活躍參數達2880億,在 STEM 領域基準測試中甚至超越 GPT-4.5與 Claude 3.7 Sonnet,為超大規模應用提供可能,不過,儘管 Llama 4被標榜為「開源模型」,Meta的授權條款仍限制擁有7億以上用戶的商業機構使用,這樣的限制也讓部分開源社群對Meta的「開源」定義產生質疑。更多關於 Llama 4的未來發展,預計將在4月29日的 LlamaCon 大會上揭曉。
