「Apple AI」中文版正式上線:還不太好用,但確實很「蘋果」
更新于:2025-04-02 21:38:57

3 月 31 日,隨著 iOS18.4 更新,Apple Intelligence 正式支援包括簡體中文、法語、德語、義大利語、葡萄牙語(巴西)、西班牙文、日語和韓語在內的多種語言,並提供新加坡和印度版本的當地語系化英語。

本次更新也是蘋果預熱已久、蘋果在人工智慧能力上的更新路線圖,如今提前邁出這一步。此前,蘋果曾預告中文版 Apple Intelligence 將在 2025 年四月正式推出。而實際上推出的時間則是 3 月 31 日——當然,中國這邊大部分讀者在第一時間收到這個消息時,已經是 4 月 1 日清晨了。

在 Apple Intelligence 發佈早期,我們就曾用手上現有的設備,對當時還只支援英文版的蘋果 AI 能力進行了綜合體驗,如今隨著「Apple 智慧」正式支持簡體中文,它有變得更適合中國使用者使用了嗎?

關聯閱讀:《用了「Apple 智慧」一周,我發覺蘋果並不在乎「遙遙領先」》

Apple 智慧,本地 + 雲端的融合

在正式測試之前,需要澄清的一個細節是,Apple 智慧本次更新中加入的中文支援,並不能直接等同於 Apple Intelligence 國行版,當前國行版 iPhone 手機以及其他蘋果設備仍然暫時無法使用。

但本次更新中,我們也的確能看到蘋果在朝著「更加當地語系化的 Apple 智慧」這件事上的新進展,已經明顯看到搜索中出現包括百度搜索、圖片搜索中文內容當地語系化適配以及百度百科調用這樣的當地語系化優化,這也與百度作為最早傳出成為蘋果在中國本地的合作夥伴的新聞時間線相同。

對於已經支援 Apple Intelligence 的設備來講,本次更新最重要的就是帶來的 Apple 智慧的中文化支援。雖然 Apple 智慧相比市面上目前已經出現了的手機 AI 能力解決方案,更加強調對使用者請求的端側處理。

但對於涉及到網路搜索的大量用戶請求,還是需要依賴類似「百度百科」這樣的內容來源,作為更加可靠的補充方案。本次更新中對於中國用戶最明顯的更新,就是中文版支持的內容來源,開始大量引用來自百度搜素 / 百度百科,作為端側資訊 /Apple 另一方面資訊之外的補充。

目前,Apple 智慧對用戶的處理基於這樣的模式:使用者向 Siri 提問,當 iPhone 目前所搭載的端側模型確定自己無法回答時,就會將這部分的使用者信息數據,上傳到蘋果的私有雲伺服器上。在伺服器端經過進一步處理,確定這樣的複雜請求仍然需要 ChatGPT 這樣的外部支援之後,才會將經過脫密的請求數據轉發給 OpenAI 的伺服器。再經由相同的路徑,將請求的結果返回給使用者。

作為處理用戶問題的「終點站」,實際上 iPhone 用戶訪問到的模型能力,也是 ChatGPT-4o,但由於上述這套流程並沒有隨著中文版的加入而變動,因此此前英文版使用體驗中頻繁出現的「抄送給 ChatGPT」現象,其實在當前的中文版使用體驗中,並沒有改變。

具體到使用體驗上,免費用戶同樣可以使用一定額度的 ChatGPT 訪問數量,訂閱 ChatGPT Plus 的使用者則可以在登錄自己的帳號后,在 iPhone 上實現無限次調用。如果你沒有訂閱也沒關係,蘋果甚至在設置介面中專門設計了一個引導你訂閱 ChatGPT Plus 的介面。

圖像識別部分,iOS18.2 新增的「視覺智慧」功能,也隨著本次更新獲得了中文內容的支援,除了 UI 能力的識別,在簡單的圖像搜索 / 識別,例如問 Apple 智慧「這是什麼貓貓」時,它都能依靠自有的雲端知識庫給出一個中文回復。

但在 ChatGPT 的多模態內容識別能力部分,Apple 智慧的使用體驗中出現了比較弔詭的一幕,即使手機系統介面與 Apple 智慧都已經設置為中文,並且能使用中文溝通,但經由蘋果私有雲伺服器轉發過的 ChatGPT 請求,仍然只能返回給使用者一個英文結果,同時由於目前 Apple 智慧在涉及到與 AI 交互的部分相對簡單,用戶也暫時也無法手動將其設定為英文。

在圖像識別智慧的綜合體驗中,目前反而是仍然基於 Google 搜索的圖像內容搜索能力,在全部在中文環境下運行后,所返回的搜尋結果也會優先從中文內容中抓取。對於更依賴即時中文互聯網內容的搜索情況而言,這一點能顯著提升返回內容的流暢度,以及信息的準確度。

我嘗試了用 Apple 智慧拍一張華為上周剛剛發佈的新機 Pura X,Apple 智慧也準確通過搜索,識別出這款手機的具體型號以及官網開售資訊,僅這一點的體驗上,已經做到比主流多模態大模型識別準確度更高。

雖然整體體驗相比此前的英文版本 Apple Intelligence 有所提升,但客觀來講,當前僅使用 ChatGPT / Google 搜索,沒有接入中國本土服務商的多模態大模型識別服務的前提下,Apple 智慧在多模態內容識別的體驗仍然有待提高。

換言之,即使你的 iPhone 現在已經支援 Apple Intelligence,這個功能在中國大陸的可用程度仍然不高,即使你能夠正常地全流程跑通當前「視覺智慧」提供的所有服務,由 Google 搜索給出的例如商品購買連結等資訊,對於大部分中國用戶來講也確實「僅供參考」。

當然,這個問題的解法也已經很明確,我們可以期待一下蘋果在今年與百度 / 阿裡的合作進一步推進,將這部分功能完全當地語系化之後的體驗了。

除了這些直接交互,在 Writing Tools 寫作工具中可校對、改寫或總結文本,還支持通過 ChatGPT 直接起草內容,這部分能力現在也已經加入了對中文的支援——這對於不少朋友來講,可能算是最熟悉大模型能力使用場景之一了。

實際體驗下來,這部分功能在備忘錄中的整合,無論是改寫還是讓它直接生成一份文檔,在中文場景下都能給出類似 ChatGPT 水準的體驗,加上與 Apple 輸入法 / 第一方 App 的整合,對於 iPhone 用戶來講,確實有變得更加方便。

不求最快,但求最「穩」

但這顯然不是蘋果要在端側 AI 上能實現的全部,雖然比起 ChatGPT、豆包等模型的使用體驗而言,Siri 當前展現出的綜合體驗,還遠遠談不上「行業領先」。

蘋果的「保守」,或許可以被理解為蘋果對於新技術一貫的「謹慎」,不僅不急於拓展 AI 能力在智慧手機上的邊界,還在主動為 AI 設置圍欄。不僅在備忘錄中的 AI 改寫功能中,對於改寫寫作風格的調性偏向保守;

包括之前有提到過,在用於創建風格化自定義圖像的 Playground 中,用戶很明顯就能察覺到它與其他大廠發佈圖像生成工具的不同之處。它完全無法像今年爆火的預訓練圖像生成模型 Lora 那樣,用於生成那些和真人幾乎無異、讓人真假難辨的圖像。

實際上這種謹慎不無道理:即使多模態大模型已經出現幾年,但包括內容幻覺、AI 生成內容用於犯罪,都是當下伴隨著大模型應用「蒙眼狂奔」伴隨而來的問題,近年來 AI 生成的虛假內容充斥網路。

除了內容泛濫,如何保護使用者的私有數據,在 AI 時代也成為了一個重要的命題,而蘋果是首先直面這一問題,並喊出自家解決方案的廠商。

Apple Intelligence 的最大特徵之一,就是在 AI 時代仍堅持「隱私優先」的技術路徑。系統預設在設備本地完成處理;當任務超出本地處理能力時,會通過「私有雲計算」調用蘋果自研伺服器,並全程加密,確保用戶數據不會被用於模型訓練或第三方存儲。

在硬體之外,面向開發者的趁手工具也已經在路上:在 iOS18.2 Beta 測試版發佈后,蘋果隨即更新了三個關鍵 Apple Intelligence 功能的 API:編寫工具 API、Genmoji API 和 Image Playground API。

這三個 API 藉口,都旨在幫助開發人員將 Apple Intelligence 集成到他們的應用程式中,換言之:隨著越來越多這樣的 API 接口加入,開發者都能夠在所有 Apple 生態的硬體設備上調用端側模型計算能力,無需額外的伺服器成本,加上當前 Apple 生態數以億計的使用者,這無論對於中小開發者還是巨頭來講都是一項極具誘惑力的條件。

由此可見,蘋果的第一方應用目前並不謀求短暫的效果取勝,而是通過構建軟硬體深度整合、搭建原生 AI 硬體生態平臺的方式,為開發者提供一個適合 AI 時代超級 App 生長的土壤。

長期來看,只有諸如蘋果、華為這樣,有自有生態 / 硬體以及掌控能力的廠商,才有機會參與的深度競爭;擁有生態的平臺級的玩家,與只有「硬體製造商」單一標籤的廠商,或許從這場競爭的一開始,就拉開了巨大差距。

回到文章最開始提出的那個問題:「支援簡體中文后的 Apple 智能,真的更加好用了嗎」。

在長期使用英文版 Apple Intelligence 以及主流手機 AI 助手類工具之後,我的回答是「有變得更加好用,但對蘋果來講,或許真正的能讓 AI 更加好用的下一步更加值得關注」。

對於用戶來講,或許這才是 Apple 智慧在一步一步邁向中國用戶的過程中,最值得我們關注的問題所在。