Google 本週悄悄在 iOS App Store 上架免費離線 AI 聽寫應用程式「AI Edge Eloquent」,採用端側 Gemma ASR 模型,音訊完全不離開裝置,且罕見地在 Android 之前先登陸 iOS 平台。 (前情提要:Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI) (背景補充:打破輝達壟斷? Google地表最強AI模型「Gemma 3」用1顆H100,擊敗DeepSeek、OpenAI) 沒有發布會、沒有任何官方公告,Google 就這樣在本週稍早,悄悄把「AI Edge Eloquent」推上了 iOS App Store。這款完全免費的 AI 聽寫應用程式,主打離線語音辨識,背後跑的是 Google 自家的 Gemma 端側 ASR(自動語音辨識)模型,所有音訊處理都在裝置本機完成,不需要連網。 說話即轉文字,開口就能用 「AI Edge Eloquent」的操作邏輯很直覺:開啟 App 後對著麥克風說話,畫面即時顯示文字與聲波波形,停止錄音後,App 會自動過濾「嗯」「啊」等口語贅詞、修正斷句,把口說內容整理成乾淨、可直接使用的文字,並自動複製到剪貼簿。 隱私設計也是這款 App 的核心賣點之一。在純離線模式下,音訊資料不會離開使用者的 iPhone,不傳送至任何伺服器。Google 也提供「雲端模式」選項:語音辨識仍在裝置端完成,只將識別後的文字(而非原始音訊)送到 Gemini 雲端模型進一步清理,品質更高。 整套服務完全免費,無訂閱費、無使用量上限。 iOS 先行 Android,Google 的反常操作 同時科技媒體注意到一個罕見現象:Google 的產品幾乎都是先在 Android 上線,特別是涉及端側 AI 的功能,通常會搭配 Pixel 裝置與 Gemini Nano 模型優先推出。這次「AI Edge Eloquent」反其道而行,App Store 描述中甚至直接寫明 Android 版本即將推出。 分析人士對此有兩種解讀。第一種是市場測試說:Google 可能刻意選擇 iOS 這個「非主場」進行實驗,在不干擾 Android 生態的前提下,評估消費者對端側 AI 聽寫的接受度與使用習慣。 第二種是技術就緒說:iOS 版的 Gemma ASR 模型可能在最佳化進度上比 Android 版更早達到可用標準,Google 選擇直接上架而非等到兩平台同步。 Gemma 走進日常:端側 AI 的真實場景驗證 從技術角度看,「AI Edge Eloquent」的意義不只是一款聽寫工具。Gemma 是 Google 的開源輕量級 AI 模型系列,設計初衷就是在行動裝置等資源受限的環境中高效運作;AI Edge 則是 Google 讓開發者在裝置端執行機器學習模型的框架。 這款 App 等於是把 Gemma 的端側推理能力,搬進了消費者的日常使用情境。 對開發者而言,AI Edge Eloquent 也是一個參考樣板:展示了 Gemma 模型在消費級產品中的落地方式,以及離線與雲端混合架構如何在隱私與品質之間取得平衡。 相關報導 Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI 打破輝達壟斷? Google地表最強AI模型「Gemma 3」用1顆H100,擊敗DeepSeek、OpenAI Chrome 超進化來了!深度整合 Gemini,Google 為 AI 瀏覽器戰局投震撼彈〈Google 上架免費 AI 聽寫「Edge Eloquent」:採用 Gemma 手機端運作無需連網,iOS 首發〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。