▲Google Gemini AI 正式導入搜尋引擎 。(圖/Google)
記者吳立言/綜合報導
Google正式宣布,旗下搜尋引擎已全面導入Gemini AI模型,邁向前所未有的轉型,成為全球最大規模的AI產品。這項更新讓搜尋不再只是找關鍵字或網頁連結,而是能理解自然語言、分析問題、思考解法,甚至主動協助使用者完成任務。
Google Search產品副總裁Robby Stein在24日於Google Developers頻道的專訪中表示「Google Search現在是一項前沿AI產品,每月約有15億用戶使用我們的AI體驗。」這些體驗包括AI摘要(AI Overviews)、AI模式(AI Mode)、深度搜尋(Deep Search)、視覺搜尋(Google Lens)與語音搜尋等,全部由Gemini模型驅動。
Google Search現在能理解長句與複雜查詢,不再受限於單一關鍵字。例如使用者可以問:「有沒有適合秋天穿、淺色系、適合過敏體質的便鞋?」AI模式會自動拆解問題、查詢多筆資料,整理出符合條件的結果。使用者甚至可以針對初步答案提出後續問題,如「有沒有防水的版本?」搜尋也會即時回應。
這背後的運作稱為「查詢擴展(Query Fan-out)」,由Gemini模型主動展開十數筆甚至上百筆 Google 搜尋查詢,再結合即時資訊回傳答案。Google表示,這項功能能幫助使用者節省大量反覆篩選與切換網站的時間。
除了文字輸入,Google搜尋也支援更多元的互動方式。透過Google Lens或Android上的Circle to Search,使用者可用截圖、照片、甚至即時相機畫面進行提問。例如看到雜誌上的服飾,便可直接拍照並請AI協助找出購買途徑,或是詢問「這件有沒有其他顏色?」。
Google指出,這類視覺搜尋功能目前是搜尋中成長最快的類別,年增率達 70%,尤其受到年輕使用者青睞。未來幾個月也將加入「即時視訊提問」功能,讓使用者邊拍邊問,例如展示正在修的水龍頭,請AI提出修復建議。
Google Search的轉型也導入所謂的「代理能力(Agentic Capabilities)」,意即AI可以代表使用者進行部分決策與任務處理。舉例來說,當使用者查詢「哪個演唱會座位視野最好」,AI不只會提供分析,還會自動檢查票務網站的可用性,並整理出可立即訂購的選項。
不過,Google強調使用者仍保有最終控制權,AI只負責「處理複雜但繁瑣的部分」,例如找資料、比價與查可用性,讓使用者專注於最後的選擇。
Google 表示,搜尋的最終目標,是讓每個人都能「問任何問題」,而搜尋不只回答,更能主動協助。未來版本將進一步整合Gmail等個人資料(在使用者同意下),提供更精準的個人化建議,例如根據過去行程安排或購物紀錄給出推薦。
Google Search正從一個需要使用者主動操作的查詢工具,轉變為具備理解力、規劃力與執行力的智慧助手。這不僅改變了搜尋的本質,也重新定義了我們與AI的互動關係。