skip to content
技術筆記

AI 新聞精選|2026 年 3 月 27 日

Google 發布 Gemini 3.1 Flash Live 支援 90 種語言,Codex 推出插件系統,Claude Code 雲端 auto-fix 上線,Apple 被曝正蒸餾 Gemini 強化自研端側模型。

今日觀察

今天的 AI 戰場有三條主線在同時推進:語音模型的全球化擴張開發者工具的生態之戰、以及巨頭之間越來越複雜的合縱連橫。Google 用一款音頻模型把語言壁壘推到歷史新低;OpenAI 和 Anthropic 不約而同地在「讓 AI 自己修 PR」這件事上加碼;而 Apple 與 Google 的合作深度被爆出來,讓整個 industry 意識到:表態上的競爭對手,生態上可能是彼此最大的技術供應商。這種競合關係正在重塑下一個十年的 AI 格局。


[Google] — Gemini 3.1 Flash Live:語音 AI 的語言牆消失了

Google 正式發布 Gemini 3.1 Flash Live,這次不是一般性的模型更新,而是把「語音優先」這件事做成了真正的產品級別。

發生了什麼: 3.1 Flash Live 是 Google 迄今最高質量的音頻模型,支援超過 90 種語言,在響應速度、抗噪能力和複雜指令遵循上全面提升,更重要的是:對話上下文時長擴展至前代兩倍。所有生成的音頻均透過 SynthID 添加浮水印,以防 AI 生成內容被濫用。

為什麼重要: 這款模型不只是技術展示——它直接驅動了三個已上線的消費者產品:Gemini Live(Android/iOS)、Search Live、以及 Gemini Enterprise for Customer Experience。尤其是 Search Live,Gemini 3.1 Flash Live 的多語言能力直接推動了這項功能本週擴張至全球 200+ 國家和地區,正式從「美國限定」變成真正的全球產品。

從技術指標看:ComplexFuncBench Audio 達到 90.8%,Scale AI Audio MultiChallenge(複雜指令遵循與長時間推理)達到 36.1%(thinking 模式開啟時)。這代表語音 AI 在「嘈雜環境下完成複雜任務」這個最具挑戰性的場景中,首次有了接近生產級別的表現。

對開發者而言,現在可以透過 Google AI Studio 的 Gemini Live API 以預覽版形式接入,企業用戶則有專屬的 Customer Experience 方案。

對產業的意味: 語音介面曾被視為「酷炫但不實用」——延遲高、雜訊下表現差、指令稍微複雜就崩潰。3.1 Flash Live 的核心突破在於把這些問題同步解決了,意味著語音優先的 AI Agent 真正開始具備大規模部署的條件。90 種語言的支援尤其關鍵:這不只是「能用」,而是代表 Google 正式把多語言語音理解當成與英文同等重要的一等公民來建設。


[OpenAI] — Codex 上線 Plugins:開發工具進入生態之戰

OpenAI 為 Codex 推出了 Plugins 功能,這個動作看似低調,實則是把開發者工具的競爭維度從「模型能力」拉升到了「平台生態」。

發生了什麼: Codex Plugins 是可安裝的工作流捆綁包,能把技能(Skills)、應用集成和 MCP Server 配置打包成一個可分享的單元。支援 Slack、Figma 等工具的無縫認證,開發者可透過目錄或 CLI 安裝,官方公開目錄即將推出。

Plugin 可以包含三類組件:

  • Skills:描述工作流的提示詞,讓 Codex Agent 能漸進式發現
  • Apps:應用集成或連接器映射
  • MCP Servers:插件所需的遠端工具或共享上下文

本地開發者可以用 @plugin-creator 這個內建 Skill 直接 scaffold 出完整插件結構,包含 .codex-plugin/plugin.json 清單、Skills 目錄、以及 MCP 配置。目前支援兩種發布方式:repo marketplace(放在 $REPO_ROOT/.agents/plugins/marketplace.json)和個人 marketplace(~/.agents/plugins/marketplace.json)。

為什麼重要: 過去 Codex 能做的是「在給定代碼庫裡完成任務」,Plugin 上線後的意義在於:把技能封裝成可複用的單元,讓整個團隊甚至整個生態可以共享同一套配置。這本質上是把 Codex 從一個「單人 AI 助手」升級為一個「協作平台」——和 VS Code 透過 Extension 生態稱霸 IDE 市場是同一個邏輯。

對 OpenAI 而言,Plugin 的發布意味著 Codex 正式從「模型之爭」轉向「平台之爭」。最終誰能吸引更多開發者把工作流封裝成 Plugin,誰就能在這個新興市場建立事實標準。


[Anthropic] — Claude Code 雲端 auto-fix:PR 全生命週期實現「免人值守」

Anthropic 為 Claude Code 推出雲端 auto-fix 功能,核心概念是:讓 AI 成為 PR 的專屬維護者,CI 失敗和評審意見都能自動響應修復。

發生了什麼: Claude Code 訂閱 GitHub 的 PR 事件,當收到 CI 失敗通知或評審留言時,Agent 會自動調查並推送修復(若確定性夠高)。模糊的情況則會主動提問,而非擅自行動。修復完成後還會在 GitHub 上以你的帳號回覆評審,標註為 Claude Code 所寫。

觸發方式靈活:Web 版狀態列直接點「Auto-fix」、行動 app 指令、或粘貼任意 PR 連結。Claude GitHub App 需已安裝在 repo 上。

對開發者的意味: 這解決了一個長期痛點:Review 來了、代碼要修、但工程師在手機上或者正在開會。auto-fix 把「收到壞消息→被中斷→處理科學上簡單但情緒上厭煩的小修復」這整個流程自動化,工程師只需要在真正需要Architectural Decision 的時候出手。

從更大的視角看,auto-fix 是 Anthropic 把 Claude Code 從「本地 IDE 工具」擴展為「異地、遠端、async-first」開發夥伴的關鍵一步。Pro/Max/Team/Enterprise 用戶現在可以在火車上、會議間隙或睡覺時,讓 Claude 代為盯著代碼庫的狀態。

Anthropic 同步調整了高峰限制: 工作日 Pacific Time 上午 5:00 –11:00 (台北時間晚上 9:00 –凌晨 3:00 )期間 Claude 消耗速度加快,每週總限制不變。高峰時段剛好覆蓋台灣的深夜,這段時間用量大的用戶可能需要注意。


[Google / Apple] — Apple 據報正蒸餾 Gemini 強化自研端側模型

根據 The Information、MacRumors、AppleInsider 等多家媒體報導,Apple 與 Google 的 AI 合作深度遠超外界認知:Apple 在自家資料中心擁有對 Google Gemini 模型的完全訪問權限,並正在利用這種訪問進行「蒸餾」(Distillation),生成可在 iPhone 上離線運行的自研端側模型。

為什麼這件事值得關注:

1. 蒸餾的對象不只是答案,而是「思維鏈」: 據報導,Apple 蒸餾的不只是 Gemini 的最終輸出,而是它的內部計算過程和 Chain-of-Thought。這意味著 Apple 在用一個頂尖模型的「思考過程」訓練自己的小模型——而不是簡單的輸出模仿。

2. 目的明確:離線、高效能的端側 AI: 小模型的好處是可以在設備本地運行,不需要網路連接,延遲低且隱私性強。Apple Intelligence 現階段的瓶頸之一就是模型太小、能力有限;如果蒸餾成功,下一代 Siri 的離線理解能力可能會有一次質的飛躍。

3. WWDC 前夕的信號: 媒體普遍預期這些技術會在 WWDC 上有所展現,結合 Siri 的大改版預期,2026 年的 Apple 開發者大會可能會是近年最有看點的一屆。

對產業的啟示: Apple 與 Google 在 AI 領域的關係是「在宣傳上激烈競爭,在技術上深度合作」——Google 每年支付數十億美元讓 Gemini 成為 iOS 默認 AI 底層,Apple 則用這個合作來填補自研能力的不足。這對其他中小型 AI 公司是一個警訊:當最大的硬體廠商和最大的模型廠商決定深度捆綁,後來者的生態空間會被進一步壓縮。


其他值得關注

  • Gemini 支援跨平台記憶導入: Google 上線了讓用戶把其他 AI 應用的偏好和聊天記錄 ZIP 檔直接導入 Gemini 的功能,消費者無需從零配置。這是Google在用戶遷移成本上的一次主動降低壁壘的動作。
  • Google 翻譯耳機即時翻譯登陸 iOS: 支援法、德、意、日、西、泰、英七國,翻譯時保留原始說話者的語氣和語調,適用 70+ 語言。
  • NVIDIA 發布 gpt-oss-puzzle-88B: 專為 H100 優化的 88B 推理模型,單卡吞吐量提升 2.82 倍,採用異構 MoE 剪枝與 MXFP4 量化。
  • Cohere 發布开源 ASR 模型 Transcribe: 20B 參數,14 種語言,英文識別在 Hugging Face Leaderboard 排名第一,離線吞吐量是同等規模專用模型的 3 倍。
  • 林俊旸:認知模式從「推理思維」轉向「Agentic Thinking」: Qwen 前負責人指出,AI 的下一個核心競爭力將從 RL 算法轉向環境構建和 Harness 工程,而獎勵作弊會是 Agent 時代最棘手的挑戰——這與 Cursor 今天公布的 Composer 2 即時 RL 實踐高度呼應。

參考連結

Share
已複製!