
▲Google 開源翻譯模型 TranslateGemma。(圖/DeepMind)
記者吳立言/綜合報導
Google DeepMind 今(16日)正式推出全新開源翻譯模型系列 TranslateGemma,主打「高效率、不犧牲品質」,鎖定行動裝置與邊緣運算場景。該模型建構於 Gemma 3 架構之上,支援多達 55 種語言,並提供 4B、12B 與 27B 三種參數規模,讓開發者可依不同硬體環境靈活部署。
Google DeepMind 執行長 Demis Hassabis 也在社群平台表示,TranslateGemma 是一套「專為邊緣裝置打造的開源翻譯模型」,在多語言翻譯任務上的表現,甚至能超越參數量大上一倍的模型,令人期待社群後續的應用與延伸開發。
主打效率:小模型也能有高品質翻譯
根據官方技術說明,TranslateGemma 的一大突破在於模型效率。以 12B 版本為例,在 WMT24++ 基準測試中,使用 MetricX 評估時,其翻譯品質已超越 Gemma 3 的 27B 基準模型;而 4B 版本的整體表現,則可與過去 12B 級模型相抗衡,特別適合行動裝置或本地端推論使用。
訓練方法:承襲 Gemini 的「翻譯直覺」
TranslateGemma 採用兩階段微調流程。第一階段為監督式微調(SFT),結合人工翻譯資料與來自 Gemini 系列模型的高品質合成語料,補足低資源語言的訓練缺口;第二階段則引入強化學習(RL),透過多種評分機制(如 MetricX-QE、AutoMQM)引導模型生成更自然、符合語境的翻譯結果。
語言涵蓋與延展性、保留多模態能力
目前 TranslateGemma 已針對 55 種語言完成嚴謹訓練與評估,涵蓋主流語言與多種低資源語言。此外,研究團隊也同步針對近 500 組額外語言配對進行訓練,並在技術報告中完整公開,作為研究社群進一步微調與探索的基礎。
官方指出,TranslateGemma 延續 Gemma 3 的多模態潛力。在影像文字翻譯測試(Vistra benchmark)中,即便未針對影像進行額外微調,模型仍展現出不錯的跨模態翻譯效果,顯示其在實際應用場景中的彈性。
部署彈性:從手機到雲端
在實際部署上,4B 版本鎖定手機與邊緣裝置,12B 版本可於一般消費級筆電順暢運行,而 27B 版本則適合雲端環境,能在單張 H100 GPU 或 TPU 上執行,兼顧最高翻譯品質需求。
