AI工具
蘋果宣布全面重塑Siri:攜手Google Gemini打造跨應用情境感知助理
蘋果正式宣布對Siri進行史上最大規模的架構重塑,與Google合作採用其1.2兆參數Gemini模型,透過蘋果私有雲計算技術在保護隱私的前提下運行。全新Siri具備「螢幕感知」能力,可無縫整合各應用程式,標誌著蘋果正式以實質行動迎頭追趕AI助理競爭。
長期以來被批評為「AI時代最落後的主流助理」,蘋果的Siri終於迎來了一次徹底的自我革命。2026年3月26日,蘋果正式宣布全新一代Siri的開發計劃,其規模之大、架構之不同,堪稱一次脫胎換骨的重建。
核心技術:Google Gemini的1.2兆參數加持
最引人矚目的細節,是蘋果與Google達成的技術合作協議:全新Siri將採用Google的1.2兆參數Gemini大型語言模型作為核心推理引擎。
對蘋果而言,這是一個務實而充滿戰略意義的選擇:
- 速度:避免從零開始建立自己的頂尖大型語言模型,縮短追趕時程
- 能力:直接獲得目前市場上性能最強的多模態語言理解能力之一
- 品牌:維持「最佳用戶體驗」的定位,而非「最強技術研發」的形象
隱私優先:私有雲計算架構
令人意外的是,蘋果選擇了Google的技術,卻沒有放棄自己最核心的競爭優勢——隱私保護。
全新Siri將透過蘋果的**私有雲計算(Private Cloud Compute)**框架運行Gemini模型:
- 用戶數據不會直接傳送至Google的服務器
- 計算在蘋果控制的私有雲節點上進行
- Apple聲稱蘋果和Google都無法看到用戶的具體查詢內容
螢幕感知:Siri終於「看懂」你的手機
全新Siri最重磅的功能升級,是「螢幕感知(On-Screen Awareness)」能力——Siri可以即時分析用戶當前手機螢幕上的內容,並基於此提供情境相關的操作建議。
應用場景舉例:
- 正在瀏覽一篇新聞,Siri可自動建議「將這篇文章加入稍後閱讀」或「分享給某個聯絡人」
- 正在查看餐廳地址,Siri可直接觸發「導航」或「撥打電話」
- 正在拍照,Siri可根據場景建議最佳拍攝模式或後期處理風格
蘋果的AI追趕戰略
此次宣布,是蘋果自2024年推出「Apple Intelligence」以來,在AI助理領域最重大的戰略調整。蘋果選擇與Google合作而非競爭,也顯示了一個務實的商業邏輯:在AI基礎模型研發上,蘋果可能無法在短期內趕上OpenAI、Google和Anthropic的投入規模;但在用戶體驗設計和硬件整合上,蘋果依然擁有無可替代的優勢。