
記者吳立言/綜合報導
Google 今(18日)正式擴展 Gemini 3 模型家族,推出全新 Gemini 3 Flash。該模型主打「前沿等級智慧、但為速度而生」,在大幅降低成本與延遲的同時,仍保有接近旗艦模型的推理與多模態能力,並已開始向全球用戶全面推送。
Gemini 3 Flash 是繼上月推出 Gemini 3 Pro 與 Deep Think 模式後,Google 在生成式 AI 布局上的最新一環。官方指出,自 Gemini 3 系列上線以來,API 每日處理量已突破 1 兆 tokens,顯示企業與開發者對高階推理模型的需求快速升溫。

前沿效能不減,速度與成本大幅優化
根據 Google 公布的基準測試結果,Gemini 3 Flash 在多項高難度推理與知識評測中,表現已接近甚至追平大型旗艦模型水準。包括在 GPQA Diamond(博士級推理測驗)中取得 90.4% 成績,以及在「Humanity’s Last Exam」中於無工具狀態下達到 33.7%,整體表現明顯超越上一代 Gemini 2.5 Pro。 在多模態理解方面,Gemini 3 Flash 於 MMMU Pro 測試中獲得 81.2%,與 Gemini 3 Pro 表現相當,顯示其在影像、文字與跨模態推理上的完整能力。
Google 強調,Gemini 3 Flash 的關鍵優勢在於「效率」。在最高思考層級下,模型可動態調整推理深度,處理一般任務時平均使用的 token 數量,比 2.5 Pro 減少約 30%,在品質、成本與速度之間推進新的 Pareto 前沿。

價格大幅下探,主打高頻與代理型應用
在價格方面,Gemini 3 Flash 採取更親民策略,輸入 token 為 每百萬 0.5 美元,輸出 token 為 每百萬 3 美元,音訊輸入則維持每百萬 1 美元。Google 表示,在第三方基準測試中,Gemini 3 Flash 的速度約為 2.5 Pro 的 3 倍,但成本僅為其一小部分。 這樣的定位也讓 Gemini 3 Flash 特別適合高頻互動與代理型(agentic)工作流程。以程式代理能力為例,在評估 AI 自動修復程式碼能力的 SWE-bench Verified 測試中,Gemini 3 Flash 取得 78%,甚至超越 Gemini 3 Pro,成為目前 Gemini 系列中最適合實際部署的開發模型之一。
開發者、企業與一般用戶同步導入
Google 表示,Gemini 3 Flash 已同步向三大族群開放:
• 開發者:可透過 Gemini API、Google AI Studio、Gemini CLI,以及全新代理開發平台 Google Antigravity 使用
• 企業用戶:已在 Vertex AI 與 Gemini Enterprise 上線,JetBrains、Figma、Bridgewater Associates 等企業已開始導入
• 一般用戶:Gemini App 已將預設模型由 2.5 Flash 全面升級為 Gemini 3 Flash,免費提供全球使用 對一般使用者而言,Gemini 3 Flash 的多模態能力也帶來更即時的體驗,例如快速分析短影片並生成行動計畫、在繪圖過程中即時辨識草稿內容,或透過音訊檔自動找出學習盲點並生成測驗。
此外,Gemini 3 Flash 也開始成為 Google 搜尋 AI Mode 的預設模型,能在不犧牲速度的情況下,提供更具推理深度的回應,並結合即時網路資訊與可行建議,強化「搜尋即行動」的體驗。
Gemini 3 家族成形,主打全場景覆蓋
隨著 Gemini 3 Flash 上線,Google 的 Gemini 3 模型家族也正式成形,分別鎖定不同使用情境:
• Gemini 3 Pro:高階推理與研究任務
• Gemini 3 Deep Think:長鏈思考與複雜問題
• Gemini 3 Flash:高速、低成本、可大規模部署
Google 表示,未來將持續擴展 Gemini 3 的應用場景,並期待開發者與企業在這套模型基礎上,打造更多即時、智慧且可落地的 AI 應用。
