Google 今日宣布,其領先的「Search Live」功能已正式擴展至全球逾 200 個國家與地區,全面導入多語言語音與相機互動支援。這項服務現已在全球所有支援人工智慧模式(AI Mode)的區域上線,旨在透過即時、互動式的語音和相機輸入,讓各地使用者能與 Google 搜尋進行更直覺的對話,預期將為全球數位互動體驗帶來顯著提升。
AI核心技術驅動全球智慧搜尋
這項突破性的 Google Search Live 功能,核心搭載了 Google 自行開發的全新音訊與語音人工智慧模型「Gemini 3.1 Flash Live」。該模型具備卓越的多語言處理能力,其設計宗旨便是提供使用者更自然、更流暢的對話體驗。透過這項技術,Google 搜尋不再僅是文字輸入的工具,更進化為一個能夠理解並回應人類語音與視覺線索的智慧夥伴,為全球用戶開啟全新的互動模式。
要體驗這項服務,使用者只需在 Android 或 iOS 裝置上開啟 Google 應用程式,點擊搜尋欄下方的 Live 圖示即可啟用。這項全球擴展的策略,無疑展現了 Google 將 人工智慧 技術普及化的決心,讓不同語言背景的使用者都能無縫接軌,享受先進的數位生活。這不僅是技術的推進,更是對全球使用者體驗的一大承諾。
互動式搜尋體驗再升級:語音與視覺的融合
Search Live 的互動模式極具彈性與效率。使用者可以透過口頭提出問題,並即時接收語音回覆,隨後還能根據需求繼續追問,或點擊提供的網頁連結進一步探索資訊。這種連續性的對話體驗,大幅提升了資訊獲取的便利性與深度。更令人期待的是,使用者能啟用相機功能,為 Search Live 提供豐富的視覺上下文。
這項視覺輸入功能,讓 Google 搜尋 能夠處理鏡頭捕捉到的影像,並依據視覺內容提供相關建議與連結。舉例來說,使用者只需對著某個物品提問,Search Live 就能即時提供該物品的詳細資訊。此外,Search Live 的應用範圍也延伸至 Google Lens,使用者可直接在 Google Lens 應用程式畫面下方點選 Live 選項,針對眼前所見的事物展開即時對話,實現真正的「所見即所得」智慧搜尋。
「無論團隊背景如何,員工使用 AI 已不再是可選項目。」Google 執行長桑達爾·皮查伊(Sundar Pichai)曾如此強調,這也反映出 Google 將人工智慧能力普及至全球使用者,作為公司核心策略的堅定立場。
智慧搜尋的未來展望與AI應用趨勢
此次 Google Search Live 的全球擴展,不僅是單一功能的推出,更是 Google 在人工智慧領域持續深耕的具體體現。透過 多語言語音 與 相機互動 的強化,Google 正逐步將搜尋引擎從傳統的資訊檢索工具,轉變為能夠理解複雜語境、感知真實世界的智慧助理。這項發展預示著未來人機互動將更加自然、直覺,彷彿與真人對話一般。
業界普遍認為,此類創新將加速全球數位化進程,尤其在資訊爆炸的時代,能夠透過更高效、更個人化的方式獲取知識,對於個人與企業都至關重要。截至目前,Google 已透過多項 AI 創新,積極拓展其技術邊界,從預測山洪的 Groundsource AI 到整合 Gemini 模型的 Google 地圖功能,都顯示其致力於將 AI 融入日常生活各個層面。Search Live 的推出,正是這波智慧化浪潮中,一個關鍵的里程碑。
關鍵要點:
- Google Search Live 已擴展至全球逾 200 個國家與地區。
- 搭載 Google 自主研發的 Gemini 3.1 Flash Live 人工智慧模型。
- 支援多語言語音與相機互動,提供即時、對話式的搜尋體驗。
- 使用者可透過口頭提問、語音回覆及視覺輸入獲取資訊。
- 功能已整合至 Google 應用程式及 Google Lens,方便行動裝置用戶使用。

