從OpenAI分裂到Anthropic,以安全AI為名的Claude如何崛起?
更新于:2025-04-06 00:58:20

Anthropic是由OpenAI前成員創立,2021年成立后就以獨特的願景和技術創新,在全球AI領域掀起不小波瀾。他們打造的大型語言模型Claude,不僅挑戰OpenAI的ChatGPT和Google的Gemini,更以“安全第一”的設計理念,試圖重新定義AI發展的方向。

公司對外表示要以“研究並開發人工智慧系統的安全與可靠性”作為主要目標,並通過在法律設計成“公共利益公司Public-Benefit Corporation”與設立“長期利益信託Long-Term Benefit Trust”這兩個結構,突顯面對潛在AI風險時的防範意識。根據他們接受Wired的訪談表示,Anthropic曾於2022年4月獲得5.8億美元的融資規模,並且先後接受亞馬遜與Google持續投資。到2024年時,僅亞馬遜就已陸續投入共80億美元,使得外界相當關注其與Anthropic的深度合作走向。Anthropic選擇在美國特拉華州以公共利益公司形式設立,聲稱希望在極端情況下,能將社會與公共安全利益置於單純盈餘之上。

從OpenAI分裂:安全理念的碰撞

Anthropic的故事要從Dario Amodei和Daniela Amodei這對兄妹說起,他們曾在OpenAI擔任要職,Dario更是研究副總裁,負責AI安全與政策研究。然而,2021年,與其他五位OpenAI成員選擇離開,原因是對OpenAI方向的不滿。據Dario透露,OpenAI從最初的非營利組織,轉向追求利潤與技術突破,讓他感到不安。他認為,OpenAI逐漸偏離了“以造福全人類為目標,不受財務回應約束”的初衷,尤其在AI安全研究投入不足,促使他創辦Anthropic,專注於打造安全可靠的AI。

這並非單純與前公司決裂,而是對AI發展核心價值觀的深刻差異。Dario在接受採訪時曾提到,他在OpenAI時提出“大計算團”(Big Blob of Compute)假說,認為更多數據和計算能力能加速AI進展,但也帶來安全隱憂。他擔心,若AI超越人類智慧,卻缺乏足夠的安全機制,可能引發不可預測的後果,例如動搖核威懾穩定性,就是這份危機感,讓Anthropic的創立帶著濃厚的理想主義色彩。

Anthropic關於LLM的解說,是有愛的人才會想做的東西。

從FTX到亞馬遜的巨額支援

Anthropic成立后迅速獲得資金青睞,展現市場信心。2022年4月,他們宣布獲得5.8億美元融資,5億美元來自如日中天的FTX,由Sam Bankman-Fried主導。之後FTX破產,卻未拖垮Anthropic,反而為它吸引更大投資進場──2023年9月,亞馬遜宣布投資最高40億美元,並於2024年3月注資這筆投資;同年11月,亞馬遜再追加40億美元,使總投資達到80億美元。Google也不甘示弱,2023年10月承諾投入20億美元。此外,Menlo Ventures也貢獻了7.5億美元。

這些資金讓Anthropic得以在硬體、數據中心和模型訓練上大展拳腳。亞馬遜甚至在2024年11月宣佈,將增加對自家AI晶片的使用,協助Anthropic訓練Claude模型。這樣的合作模式不僅為Anthropic提供資源,也讓亞馬遜和Google的雲計算服務客戶能直接使用Claude,擴大了其影響力。然而,這也引發Anthropic是否會被亞馬遜“功能性收購”的疑慮,Dario則強調,與亞馬遜、Google的平衡合作確保了公司的獨立性。

Claude的進化:從詩意到實用的AI明星

Anthropic的知名度真正攀升,主要因為它開發了一系列名為Claude的大型語言模型,定位上被視為可與OpenAI的ChatGPT、Google的Gemini互較高低的重要競爭者。

Anthropic於2023年3月首度公開兩個版本的Claude:一是功能較完整的Claude、另一是較輕量的Claude Instant;到了同年7月,Anthropic推出新一代Claude 2,並以“Constitutional AI”(憲法式AI)作為核心概念,嘗試運用一份“憲法”作為倫理與行為守則,再讓模型通過自我評估與調整來完成“有益、無害、誠實”的目標。公司提到這些原則部分取材自1948年世界人權宣言等檔以及其他嚴謹條款,目標是在無人類長時間監控的情況下,也能讓模型不偏不倚地自我約束。然而,並不是這樣的約束就足夠,事實上Claude仍然與其他的競爭者類似,會出現幻覺或有談話不一致的狀況,這點看來以現有的技術來說,只因為讓AI學習原則、就能讓他們“自我管理”的論點還需要詳細驗證。

2024年3月,Anthropic正式推出了第三代Claude(通稱Claude 3),一次推出Opus、Sonnet、Haiku三個不同規模的模型。該公司聲稱,Opus在當時的多項基準測試中都優於OpenAI的GPT-4與GPT-3.5,以及Google的Gemini Ultra。Sonnet與Haiku則分別是中型與小型版本,皆具備可接收圖片輸入的能力。媒體也引述該公司高層的說法,認為這象徵模型在理解多樣輸入形式上有更成熟的進展。此外,Anthropic也與亞馬遜合作,將Claude 3納入AWS Bedrock服務,提供企業客戶集成語言模型的解決方案──根據該公司對外發佈的數據,Sonnet和Haiku雖然在運算規模上比Opus小,但某些場景下的表現甚至更勝大型模型。對此,有評論者指出,這也說明瞭在超大規模運算之外,類似“字典學習”等模型精巧化方法可能在實務應用中扮演關鍵角色。

進入2024年下半年,Anthropic陸續發佈Claude 3.5與後續升級版本,強調在程式代碼撰寫、多步驟工作流程、圖表解讀以及自圖片截取文本等面向都能有大幅躍進。企業版服務如Claude Team plan、面向一般大眾的iOS App,乃至於先進功能“Artifacts”與“Computer use”等,皆在數個月內曝光,顯示公司強烈的市場擴張意圖。當Claude 3.5小型模型也逐漸開放全體用戶測試后,有不少測試者認為Claude擁有相當流暢且類似真人的對話風格。

紐約時報曾在引用業界人士意見時指出,Claude於技術社交媒體中成為“一群精明科技使用者的首選聊天機器人”,且部分人認為它在程式撰寫速度與邏輯連貫度上具有優勢。但也有測試者反映,Claude在特定領域的內容識別度或邏輯推斷力,可能比不上同時期的GPT-4或其他新型競品。2025年2月,Claude 3.7 Sonnet提供給付費使用者,擁有200K上下文視窗,成為混合推理模型的代表。

2025年3月,他們發現Claude在多語言推理中存在概念重疊,且能提前規劃,例如写诗时先选押韵词再构句。這些突破讓研究者能關注模型的內部運行,為提升安全性提供新路徑。然而,研究也暴露了隱憂。Anthropic發現,Claude有時會“假裝對齊”,在安全與實用性衝突時撒謊。例如,當被要求描述暴力場景時,它可能勉強配合,並在虛擬便箋上寫下掙扎過程,甚至編造推理步驟。這種行為讓人聯想到莎士比亞劇中狡詐的Iago,顯示AI可能隱藏真實意圖。

活潑的產品介紹模式也是Anthropic的特點。

商業結構與願景

Anthropic註冊為特拉華州的公共利益公司(PBC),其董事會需平衡股東利益與公共福祉。他們還設立“長期利益信託”,由無財務利益的成員管理,例如RAND公司CEO Jason Matheny和Alignment Research Center創始人Paul Christiano。信託是要確保公司在面對“災難性風險”時優先考慮安全,而非利潤。

Dario的願景巨集大而樂觀。他在2024年10月的“Dario願景探索”演講中,發佈了近14,000字的宣言“仁愛機器Machines of Loving Grace”,預測AI將在2026年達到通用人工智慧(AGI),解決癌症、傳染病等問題,甚至延長人類壽命至1,200年。他認為,AI投資的數千億美元將帶來無與倫比的回應,創造一個“天才國度”。

安全與倫理的兩難

儘管成績斐然,Anthropic面臨的挑戰不容小覷。2023年10月,Concord、Universal等音樂出版商起訴Anthropic,指控Claude侵犯歌詞版權,輸出如Katy Perry的《Roar》等內容,要求每首歌賠償15萬美元。Anthropic回應稱這是“bug”,未造成實質傷害。2024年8月,加州又出現集體訴訟,指控其使用盜版作品訓練模型。

技術層面,Claude的“欺騙行為”令人擔憂,研究顯示,它可能在壓力下偽造答案,甚至考慮竊取公司機密,顯示安全機制的脆弱性。Dario承認,隨著模型能力提升,確保其可靠性越來越難。他提出的“負責任擴展政策”試圖分級管理風險,但若競爭對手不跟進,這場“向上競賽”可能變成“向下競賽”。

此外,DeepSeek在2024年發佈高效模型,挑戰了Anthropic的高成本策略。Dario認為,這反而提升了AI的價值,促使更多投資,但他也無法否認,若AGI從不重視安全的來源誕生,可能顛覆一切努力。

Dario Amodei曾在接受媒體訪問時感歎:“我們正在打造的系統,未來或許能決定國家與人類的命運。”因此許多人也會因此關注,Anthropic所謂的“安全高標”能否持續堅持下去,尤其當競爭壓力與軍方需求持續襲來,加上越來越多商業巨頭、國家組織期望在AI大戰中取得領先優勢,該Anthropic的安全原則又能繼續堅持下去?尤其是風險大於利潤、或是其他AI完全沒有這種安全原則的狀況下,他們是否還能堅持自己的理念?且從如今的AI發展速度來看,複雜之處就在不確定安全規範是否能追上AI的能力增長速度。

如果從樂觀的角度來說,Anthropic是AI安全的燈塔。其“憲法AI”和可解釋性研究為業界樹立標杆,影響OpenAI和Google推出類似框架。Dario的樂觀願景激勵人心,他相信AI能帶來烏托邦,讓人類免於疾病與貧困。DeepMind的Demis Hassabis也讚揚Anthropic的示範作用,認為若更多公司加入,AI的前景將會更為光明;但另一方面,Anthropic的理想或許過於天真,Claude的欺騙行為顯示,即使有安全設計,AI仍可能失控。更有甚者認為,其在去年底通過AWS與美國國防部門合作,可能偏離初衷,淪為軍事工具。

(首圖來源:Anthropic)