Google 近日宣布,其劃時代的「搜尋 Live」功能即將在全球超過 200 個國家與地區推出,其中也包含了臺灣市場。這項功能由最新的音訊與語音模型 Gemini 3.1 Flash Live 所驅動,旨在提供使用者更直覺、更即時的互動式搜尋體驗,透過鏡頭與語音,讓 AI 能夠「看見」並「理解」使用者所處的環境,進而提供精準的協助與資訊。
AI 視覺與語音整合:搜尋 Live 的核心體驗
搜尋 Live 的設計初衷,是為了解決那些單純透過文字輸入難以表達需求,且需要即時協助的情境。想像一下,當你面對一個複雜的組裝說明,或是身處不熟悉的環境需要指引時,傳統的文字搜尋往往力有未逮。然而,透過搜尋 Live,使用者只需開啟 Google 應用程式,點擊搜尋列下方的「Live」按鍵,或者直接運用 Google 智慧鏡頭對準目標物體,便能直接開口提問,AI 將以語音形式即時回覆,甚至提供相關網頁連結供進一步探索。這不僅僅是技術的躍進,更是人機互動典範的轉移,讓搜尋行為從「打字」進化到「對話」。
舉例來說,若您正在嘗試組裝一個層架卻毫無頭緒,只需將手機鏡頭對準層架,並詢問「我該如何組裝這個層架?」,Gemini 3.1 Flash Live 便能立即語音回覆組裝步驟,或提供相關的教學資訊。這種即時的視覺與語音整合,大幅提升了資訊獲取的效率與便利性,讓「眼見為憑」的資訊查詢成為可能。可以說,這是 Google 在實現「語音優先」AI 願景上,一個極為重要的里程碑。
Gemini 3.1 Flash Live:語音優先 AI 的技術基石
搜尋 Live 背後強大的運算能力,來自於 Google 最新的音訊與語音模型 Gemini 3.1 Flash Live。這款模型針對即時對話需求進行了優化,具備了下一世代「語音優先」AI 所需的快速反應速度與自然對話節奏。它不僅能理解使用者提出的問題,更能捕捉語氣中的細微變化,從而提供更貼近情境的建議。根據 Google DeepMind 於 2026 年 3 月 26 日的資訊,這項技術的發表象徵著 AI 在理解人類語音與意圖方面的顯著提升。
Google DeepMind 於 2026 年 3 月 26 日指出:「Gemini 3.1 Flash Live 模型能提供更自然的對話與更強化的功能呼叫能力,使其更實用且資訊豐富。」
這項模型的推出,無疑為廣大使用者、開發者乃至企業帶來了更直覺、更流暢的互動體驗。它強化了 Gemini 的即時對話能力,讓 AI 不再只是被動的回應工具,而是能主動參與、理解並協助解決問題的智慧夥伴。這對於未來各種應用場景,從智慧客服到個人助理,都預示著無限的可能性。
臺灣市場展望與未來影響
對於臺灣的使用者而言,能在全球首波體驗到這項創新功能,無疑是一大福音。Google 搜尋 Live 預計在未來幾週內於全球超過 200 個國家與地區,包括臺灣在內,開放使用者在「AI 模式」下,與 Google 搜尋進行更自然、更直覺的對話。這代表著我們將告別過去單向的資訊查詢模式,邁向一個雙向互動、智慧輔助的新時代。
這項技術的普及,預期將深刻影響人們獲取資訊與解決問題的方式。無論是日常生活中遇到的疑難雜症,或是專業領域的即時需求,Google 搜尋 Live 都有潛力成為不可或缺的智慧助手。它不僅提升了資訊的可近性,更透過語音與視覺的結合,讓科技服務變得更加人性化與無縫。隨著這類「語音優先」AI 技術的不斷發展,我們有理由相信,未來的數位生活將會更加便捷與智慧。