Google 正式宣布,旗下劃時代的「搜尋 Live」功能已陸續在全球超過 200 個國家與地區上線,其中包含台灣。這項創新服務搭載核心的 Gemini 3.1 Flash Live 模型,旨在徹底顛覆傳統文字輸入的搜尋模式,讓使用者能透過即時語音與相機鏡頭,進行更自然、直覺的對話式搜尋,預計接下來幾週內台灣用戶即可全面在行動裝置上體驗這項新型態的搜尋服務。
核心技術突破:Gemini 3.1 Flash Live 的強大賦能
這項革命性的「搜尋 Live」功能,其幕後功臣正是 Google 全新一代的音訊與語音模型 Gemini 3.1 Flash Live。雖然 Google 早在去年九月便已在美國試點推出此功能,但本次擴展至全球,更強調了新模型在技術上的顯著飛躍,它不僅承襲了前代的優勢,更在多方面實現了效能優化與功能拓展。
有趣的是,Gemini 3.1 Flash Live 模型最引人注目的特點,在於其對現實世界複雜情境的理解能力。它不再僅限於單純的語音辨識,而是能同時處理視覺影像,讓系統能「看見」使用者所見,並將這些多模態資訊融會貫通,提供更精準的判斷與回覆。具體而言,此模型具備以下關鍵特性:
- 多語言原生支援: 使用者可直接以慣用母語進行溝通,無需額外設定或翻譯,大幅提升了全球用戶的親和性。
- 效能顯著優化: 大幅提升了對話處理速度與連線穩定性,有效減少了語音互動時常發生的延遲感,讓對話更為流暢自然。
- 多模態處理能力: 同時支援語音輸入與視覺影像辨識,系統能夠理解複雜的現實場景,進而提供更貼切的資訊。
從靜態圖像到動態互動:搜尋模式的全新維度
「搜尋 Live」的設計理念,是為了解決那些僅靠文字輸入已無法充分表達需求的即時情境。想像一下,當你面對一個需要立即解決的問題時,不必再費力描述,只需開口提問,系統便能給予語音回覆,甚至支援連續追問。這種對話式的互動模式,讓搜尋體驗變得更像與一位隨身專家對談。
更令人驚豔的是,當你需要針對眼前實物提問時,只要開啟 Google 智慧鏡頭,Google 搜尋就能「看見」你所看到的畫面。這與過往 Google Lens 等視覺搜尋功能主要依賴拍攝「單張照片」進行辨識截然不同。「搜尋 Live」則提供了辨識「即時影像」的新選擇。例如,當你正在維修腳踏車,不確定某個零件名稱時,只需將鏡頭對準該部位並開口詢問,系統便能在動態畫面中理解現況,即時給予零件名稱或相關維修建議,並提供參考網頁,這種情境下的便利性是傳統搜尋難以企及的。
釐清定位:搜尋 Live 與 Gemini Live 的差異解析
由於 Google 生態系中存在名稱相近的「Gemini Live」功能,許多使用者可能會對兩者產生混淆。雖然兩者都具備語音互動的能力,但它們的設計目標與核心定位有著顯著區別。
Google 解釋,儘管「搜尋 Live」與「Gemini Live」皆提供語音互動功能,但前者的核心目的在於整合 Google 搜尋的龐大資訊庫,協助使用者快速獲取實用資訊與網頁來源;後者則更偏重於 AI 聊天、創意協作與內容生成,兩者各司其職,旨在滿足不同層面的使用者需求。
簡單來說,「搜尋 Live」是 Google 搜尋功能的延伸與進化,它讓搜尋行為從單純的「找資料」轉變為「解決問題」,更強調即時性與實用性。而 Gemini Live 則像是一位多才多藝的 AI 助手,專注於提供對話、寫作、發想等更具創造性的支援。這兩項服務雖然都展現了 Google 在 AI 領域的深厚實力,但其應用場景與使用者期待的回應類型截然不同。
展望與影響:智慧搜尋的未來版圖
「搜尋 Live」的推出,不單是 Google 搜尋技術的一次升級,更預示著未來人機互動模式的重大轉變。它將語音、視覺與AI深度融合,為使用者提供了一種前所未有的直覺搜尋體驗。這項功能即日起已開始在支援「AI 模式」的地區逐步推送,台灣使用者將在接下來幾週內,於 Android 與 iOS 平台的 Google App 中,透過搜尋列下方的圖示啟動這項服務。
從長遠來看,這項技術的普及,有望大幅降低資訊獲取的門檻,尤其對於那些不擅長文字輸入或需要即時協助的族群來說,將帶來極大的便利。它不僅強化了 Google 在搜尋領域的領先地位,也為整個 AI 產業樹立了新的標竿,引領我們進入一個真正能「看見」與「聽懂」使用者需求的智慧搜尋時代。

