Siri × Gemini大改版確認延期:Apple Foundation Models v10的1.2萬億參數野心與現實

文章重點

  • Apple原定於2026年3月隨iOS 26.4推出的Gemini驅動Siri大改版正式確認延期,包括個人情境感知(Personal Context)、螢幕感知及深層App控制等核心功能均需更多開發時間
  • Apple Foundation Models v10採用約1.2萬億(Trillion)參數規模,透過Private Cloud Compute(PCC)安全架構在Apple自有伺服器上運行Google定制Gemini模型,實現「白標」式深度整合——用戶端不會看到任何Google品牌標識
  • Bloomberg報導Apple與Google的合作協議年度費用約達10億美元,這是繼搜索引擎預設協議後兩家公司之間最大規模的商業合作
  • 更大規模的Siri改版——內部代號「Campos」——將隨iOS 27於WWDC 2026發布,目標是將Siri從指令執行工具徹底轉型為具備多輪對話、跨App操作及深度個人化能力的AI助手
  • Apple同時積極自研代號「Ferret-3」的多模態基礎模型,計劃於2026至2027年間逐步部署,以降低對Google技術的長期依賴

延期確認:iOS 26.4的承諾為何未能兌現

2026年2月下旬,多家權威科技媒體引述知情人士報導,Apple原定在3月推送的iOS 26.4更新中搭載的Gemini驅動Siri大改版已正式確認延期。這一消息對於期待已久的Apple用戶而言無疑是一次挫折——自2026年1月Apple與Google宣布合作以來,業界普遍預期新版Siri將在春季與用戶見面。

延期的直接原因在於技術整合的複雜性。將一個外部開發的大型語言模型(LLM)無縫嵌入Apple高度封閉的生態系統,同時確保隱私保護標準不打折扣,所涉及的工程挑戰遠超最初預期。Apple內部多個團隊之間的協調——包括Siri團隊、機器學習與AI策略團隊、以及負責Private Cloud Compute基礎設施的雲端服務團隊——也需要更多磨合時間。iOS 26.4仍會如期推送,但Gemini相關的新Siri功能將不會包含在內。

原定計劃:iOS 26.4本應帶來什麼?

根據此前的報導,Apple在iOS 26.4中規劃了三項標誌性的Siri新功能。第一是「個人情境感知」(Personal Context):Siri將首次獲得存取用戶電子郵件、訊息和日曆的權限,從而在回答問題時能夠結合用戶的個人資料提供更精準、更個性化的回應。例如,用戶可以直接詢問「我下週三有什麼安排?」或「幫我找到上週John發給我的那封關於項目截止日期的郵件」,Siri將能夠即時檢索並回覆。

第二是「螢幕感知」(On-Screen Awareness):Siri將能夠「看見」並理解用戶當前螢幕上顯示的內容,無論是一篇網頁文章、一張圖片,還是一個App的操作介面。用戶可以直接就螢幕內容向Siri提問或下達指令,而無需複製、貼上或切換App。第三是「深層App控制」(Deep Per-App Controls):Siri將能夠深入到第三方App的內部功能層級,執行遠比目前更複雜的跨App操作——例如在一個App中查詢資訊,然後在另一個App中完成相應的行動。

這三項功能的共同指向是將Siri從一個被動的指令回應工具,升級為一個真正能夠理解用戶生活情境的主動式AI助手。然而,正是因為這些功能深度涉及個人數據的存取和處理,其在隱私和安全方面的技術門檻也相應提高,這也是延期的核心原因之一。

1.2萬億
Apple Foundation Models v10 參數規模
$10億
Apple每年支付Google合作費用
iOS 27
「Campos」大改版搭載系統
Ferret-3
Apple自研多模態基礎模型

Apple Foundation Models v10:1.2萬億參數的技術架構

Apple Foundation Models v10是Apple與Google合作的核心技術產物。這一模型基於Google為Apple量身定制的Gemini版本,參數規模約達1.2萬億(1.2 Trillion)——這是Apple在AI基礎模型領域前所未有的規模躍升。作為對比,Apple此前自主研發的端側模型參數量通常在數十億級別,主要針對設備端的低延遲任務進行優化。

v10模型並非直接在用戶的iPhone或iPad上運行。Apple採用了分層處理策略:簡單的日常任務——如設定鬧鐘、播放音樂、查詢天氣——仍然由設備端的小型模型即時處理,確保離線可用和低延遲回應。而涉及複雜推理、多步驟分析或需要大量知識調用的請求,則會透過加密連接傳送至Apple的Private Cloud Compute(PCC)伺服器,由運行在PCC上的v10模型處理後將結果回傳。

這種「端側處理簡單任務、雲端處理複雜任務」的雙軌架構,是Apple在AI能力與隱私保護之間尋求平衡的策略體現。用戶無需擔心日常基礎操作的回應速度,同時在需要更強大AI能力時也能獲得接近前沿水準的處理結果。

Google合作的「白標」模式:10億美元買了什麼?

Bloomberg記者Mark Gurman的報導揭示了Apple與Google合作的多項關鍵細節。首先是合作費用:Apple每年向Google支付約10億美元,以獲取Gemini模型的定制授權及相關技術支持。這是繼兩家公司已有的搜索引擎預設協議(據估計每年約200億美元)之後,又一筆數額巨大的跨公司商業合作。

更值得關注的是合作的「白標」(White-Label)性質。在用戶層面,新版Siri的任何介面、回應或功能描述中,都不會出現Google或Gemini的品牌標識。對普通用戶而言,這就是「Apple的Siri變聰明了」,而非「Siri用了Google的技術」。這種安排充分體現了Apple對品牌體驗一致性的執着——即使底層技術來自外部合作夥伴,終端用戶的感知必須完全是Apple原生的。

「Apple的目標很明確:用戶只需要知道Siri變得更強大了。至於背後是誰的模型在運作,不是用戶需要關心的事情。這是一個純粹的基礎設施合作,不是品牌聯名。」——知情人士向Bloomberg透露

Apple Intelligence發展簡史

2024年6月:Apple在WWDC 2024首次發布Apple Intelligence品牌,搭載基礎的文字摘要、圖像生成及Siri增強功能,同時宣布與OpenAI合作整合ChatGPT作為可選的外部AI服務。

2025年:Apple Intelligence功能逐步擴展至更多語言和地區,但Siri的核心對話能力仍明顯落後於ChatGPT、Gemini和Claude等競品,引發業界對Apple AI策略的廣泛質疑。

2026年1月:Apple與Google宣布達成多年合作協議,以Gemini技術為基礎重建Siri,代號「Campos」的新一代AI助手開始內部測試。

2026年2月:原定隨iOS 26.4推出的Gemini驅動Siri新功能確認延期,Apple同時加速自研「Ferret-3」模型的開發進度。

隱私防線:Private Cloud Compute如何運作

Apple選擇以PCC作為Gemini模型的運行環境,而非直接使用Google的雲端基礎設施,這一決策的核心考量是隱私保護。PCC是Apple自主設計的安全雲端計算架構,運行在Apple自有的伺服器硬件上,具備多層安全機制:所有傳輸數據端到端加密、伺服器不保留任何用戶數據的持久性副本、運算完成後數據即時銷毀、且Apple自身也無法存取用戶的具體請求內容。

在PCC架構下,即使Google為Apple提供了定制的Gemini模型,Google本身也無法接觸到任何用戶數據。模型的推理運算完全在Apple控制的伺服器上進行,Google既看不到用戶的輸入,也看不到模型的輸出。對於一向以隱私作為品牌核心差異化因素的Apple而言,這種架構既能獲取頂尖的AI能力,又不必在隱私承諾上做任何讓步——至少在技術層面如此。

Campos與iOS 27:WWDC 2026的更大野心

雖然iOS 26.4的Siri改版已確認延期,但Apple的長期AI路線圖顯示,真正的重頭戲是代號「Campos」的全面Siri重建,預計將在2026年6月的WWDC大會上隨iOS 27一同發布。Campos的目標遠超此次延期的三項功能——它是一次對Siri從底層架構到用戶體驗的徹底重塑。

根據已有報導,Campos版Siri將同時支持語音和文字輸入,能夠進行多輪連續對話(而非目前Siri的單輪問答模式),並具備跨多個App的自主操作能力。這意味着用戶可以用自然語言下達如「幫我查看明天的行程,找到附近評分最高的餐廳,然後在我的日曆上新增一個晚餐預約」這樣的複合指令,Siri將能夠自主協調日曆、地圖和餐廳App來完成整個流程。這本質上是將Siri從一個工具升級為一個具備一定自主性的AI代理(Agent)。

Ferret-3:Apple的自研突圍之路

與Google的合作為Apple爭取到了短期內跟上AI競賽的籌碼,但Apple顯然不打算長期依賴外部技術。據報導,Apple的機器學習研究團隊正在加速開發代號「Ferret-3」的自研多模態基礎模型。Ferret系列源自Apple與哥倫比亞大學的早期合作研究,專注於視覺語言理解——即讓AI模型同時理解圖像和文字的能力。

Ferret-3的開發目標是在2026年至2027年期間逐步達到可部署水準,最終在Apple的產品線中取代或補充Google Gemini的角色。如果Ferret-3能夠成功達到與Gemini相當的能力水準,Apple將有能力完全以自有技術驅動其AI生態系統——這將極大增強Apple在AI供應鏈中的自主性,並降低每年10億美元級別的外部授權成本。當然,自研大型基礎模型的難度不容低估,Apple能否在兩年內縮小與Google的差距,仍是一個開放性問題。

ChatGPT整合現狀與iPhone用戶影響

值得澄清的是,Apple與Google的Gemini合作不會影響目前已有的ChatGPT整合。在Apple Intelligence框架下,ChatGPT作為一個可選的外部AI服務,用戶可以在Siri無法處理的查詢中選擇將請求轉發給ChatGPT。這一功能將繼續正常運作。Gemini的角色是作為Siri核心引擎的升級,而ChatGPT的角色是作為額外的補充服務——兩者在產品定位上並不衝突。

對於使用iPhone 15 Pro及更新機型的用戶而言,延期意味着他們需要再多等待至少數月才能體驗到Gemini驅動的新Siri功能。目前尚不清楚被延期的功能是否會在iOS 26.5或更晚的更新中率先推出部分版本,還是全部留待iOS 27一次性發布。無論哪種情況,現有的Apple Intelligence功能——包括文字摘要、智能回覆、圖像生成及ChatGPT整合——都將持續可用且不受影響。

對於香港的Apple用戶而言,這次延期的影響需要放在更大的背景下理解。Apple Intelligence目前在亞洲市場的語言支持仍以英文為主,繁體中文和粵語的深度支持本就排在Apple的語言擴展計劃中較靠後的位置。因此,即使新功能如期在iOS 26.4發布,香港用戶能夠即時體驗的完整功能範圍也可能有限。延期實際上給了Apple更多時間來完善多語言支持,這對亞洲用戶而言未必全是壞事。真正值得關注的是Campos隨iOS 27登場時,是否能同步支持繁體中文——這將決定香港數以百萬計的iPhone用戶能否第一時間體驗到這場AI助手的根本性升級。