機器之心報導。
這才過幾天,大神何愷明又放出一篇新論文!
這次構建了一種全新的生成模型。類似於數學中的分形,研究者推出了一種被稱為分形生成模型(Fractal Generative Models)的自相似分形架構。
在計算機科學領域,它的核心是模組化概念,比如深度神經網路由作為模組化單元的原子「層」構建而成。同樣地,現代生成模型(如擴散模型和自回歸模型)由原子「生成步驟」構建而成,每個步驟都由深度神經網路實現。
通過將複雜函數抽象為這些原子構建塊,模組化使得可以通過組合這些模組來創建更複雜的系統。基於這一概念,研究者提出將生成模型本身抽象為一個模組,以開發更高級的生成模型。一作 Tianhong Li 為 MIT 博士後研究員、兩部作品 Qinyi Sun 為 MIT 本科生(大三)。
具體來講,研究者提出的分形生成模型通過在其內部遞歸調用同類生成模型來構建。這種遞歸策略產生了一個生成框架,在下圖 1 中展示了其跨不同模組級別的具有自相似性的複雜架構。
如前文所述,本文分形生成模型類似於數學中的分形概念。分形是使用被稱為「生成器」的遞歸規則構建的自相似模式。同樣地,本文框架也是通過在生成模型中調用生成模型的遞歸過程構建的,並在不同層次上表現出自相似性。因此,研究者將其命名為「分形生成模型」。
本文的分形生成模型的靈感來自於生物神經網路和自然數據中觀察到的分形特性。與自然的分形結構類似,研究者設計的關鍵元件是定義遞歸生成規則的生成器,比如這樣的生成器可以是自回歸模型,如圖 1 所示。在此實例中,每個自回歸模型都由本身就是自回歸模型的模組組成。
具體而言,每個父自回歸塊都會生成多個子自回歸塊,每個子塊都會進一步生成更多自回歸塊。由此產生的架構在不同級別上表現出類似分形的自相似模式。
在實驗環節,研究者在一個具有挑戰性的測試平臺上(逐圖元圖像生成)檢驗了這個分形實例。結果顯示,本文的分形框架在這一具有挑戰性的重要任務上表現出色,它不僅可以逐圖元生成原始圖像,同時實現了準確的似然估計和高生成品質,效果如下圖 2 所示。
研究者希望這一充滿潛力的的結果能夠激勵大家進一步研究分形生成模型的設計和應用,最終在生成建模中建立一種全新的範式。
有人評論道,「分形生成模型代表了AI領域一個令人興奮的前沿。自回歸模型的遞歸性質反映了學習如何反映自然模式。這不僅僅是理論,它是通往更豐富、適應性更強的AI系統的途徑。」
圖源:https://x.com/abhivendra/status/1894421316012577231
分形生成模型詳解
研究者表示,分形生成模型的關鍵思路是「從現有的原子生成模組中遞歸地構建更高級的生成模型。」
具體來講,該分形生成模型將一個原子生成模組用作了參數分形生成器。這樣一來,神經網路就可以直接從數據中「學習」遞歸規則。通過將指數增長的分形輸出與神經生成模組相結合,分形框架可以對高維非序列數據進行建模。
接下來,研究者展示了如何通過將自回歸模型用作分形生成器來構建分形生成模型。他們將自回歸模型用作了說明性原子模組,以演示分形生成模型的實例化,並用來對高緯數據分佈進行建模。
假設每個自回歸模型中的序列長度是一個可管理的常數 k,並使隨機變數的總數為 N = k^n,其中 n = log_k (N) 表示分形框架中的遞歸級別數。然後,分形框架的第一個自回歸級別將聯合分佈劃分為 k 個子集,每個子集包含 k^n−1 個變數。
在形式上,研究者進行了如下解耦:
接著每個具有 k^n−1 個變數的條件分佈 p (・・・|・・・) 由第二個遞歸級別的自回歸模型建模,並依此類推。
研究者表示,通過遞歸地調用這種分而治之(divide-and-conquer)的過程,分形框架可以使用 n 級自回歸模型高效地處理 k^n 個變數的聯合分佈,並且每個模型都對可管理的序列長度 k 進行操作。
這種遞歸過程代表了一種標準的分而治之策略。通過遞歸地解耦聯合分佈,本文分形自回歸架構不僅相較於單個大型自回歸模型顯著降低了計算成本,而且還捕獲了數據中的內在層次結構。從概念上講,只要數據表現出可以分而治之的組織結構,就可以在該分形框架內自然地對其進行建模。
實現:圖像生成實例化
研究者展示了分形自回歸架構如何用於解決具有挑戰性的逐圖元圖像生成任務。
架構概覽
如下圖 3 所示,每個自回歸模型將上一級的生成器的輸出作為其輸入,併為下一級生成器生成了多個輸出。該模型還獲取一張圖像(也可以是原始圖像的 patch),將其分割成 patch,並將它們嵌入以形成一個 transformer 模型的輸入序列。這些 patch 也被饋送到相應的下一級生成器。
接下來,transformer 模型將上一個生成器的輸出作為單獨的 token,放在圖像 token 的前面。基於此組合序列,transformer 為下一級生成器生成多個輸出。
研究者將第一級生成器 g_0 的序列長度設置為 256,將原始圖像分成 16 × 16 個 patch。然後,第二級生成器對每個 patch 進行建模,並進一步將它們細分為更小的 patch,並繼續遞歸執行此過程。為了管理計算成本,他們逐步減少較小 patch 的寬度和 transformer 塊的數量,這樣做是因為對較小 patch 進行建模通常比對較大 patch 更容易。
在最後一級,研究者使用一個非常羽量級的 transformer 來自回歸地建模每個圖元的 RGB 通道,並在預測中應用 256 路交叉熵損失。
不同遞歸級別和解析度下,每個 transformer 的精確配置和計算成本如下表 1 所示。值得注意的是,通過本文的分形設計,建模解析度為 256×256 圖像的計算成本僅為建模解析度為 64×64 圖像的兩倍。
本文方法支援不同的自回歸設計。研究者主要考慮了兩種變體:光柵順序、類 GPT 的因果 transformer (AR) 和隨機順序、類 BERT 的雙向 transformer (MAR),具體如下圖 6 所示。
尺度空間自回歸模型
最近,一些模型已經提出為自回歸圖像生成執行下一尺度(next-scale)預測。這些尺度空間自回歸模型與本文方法的一個主要區別是:它們使用單個自回歸模型來逐尺度地預測 token。
相比之下,本文分形框架採用分而治之的策略,使用生成式子模組對原始圖元進行遞歸建模。另一個關鍵區別在於計算複雜性:尺度空间自回归模型在生成下一尺度 token 的整個序列時需要執行完全注意力操作,這會導致計算複雜性大大增加。
舉例而言,在生成分辨率為 256×256 的圖像時,在最後一個尺度上,尺度空間自回歸模型每個注意力塊中的注意力矩陣大小為 (256 ×256)^2 即 4,294,967,296。相比之下,本文方法在對圖元 (4×4) 相互依賴性進行建模時對非常小的 patch 執行注意力,其中每個 patch 的注意力矩陣只有 (4 × 4)^2 = 256,導致總注意力矩陣大小為 (64 × 64) × (4 × 4)^2 = 1,048,576 次操作。
這種減少使得本文方法在最精細解析度下的計算效率提高了 4000 倍,從而首次能夠逐圖元建模高解析度圖像。
長序列建模
之前大多數關於逐圖元生成的研究都將問題表述為長序列建模,並利用語言建模的方法來解決。與這些方法不同,研究者將此類數據視為由多個元素組成的集合(而不是序列),並採用分而治之的策略以遞歸方式對具有較少元素的較小子集進行建模。
這種方法的動機是觀察到大部分數據都呈現出了近乎分形的結構。圖像由子圖像組成,分子由子分子組成,生物神經網路由子網路組成。因此,設計用於處理此類數據的生成模型應該由本身就是生成模型的子模塊組成。
實驗結果
本文在 ImageNet 數據集上進行了實驗,圖像解析度分別為 64×64 和 256×256。評估包括無條件和類條件圖像生成,涵蓋模型的各個方面,如似然估計、保真度、多樣性和生成品質。
因此,本文報告了負對數似然(NLL)、Frechet Inception Distance(FID)、Inception Score(IS)、精度(Precision)和調回率(Recall)以及可視化結果,以全面評估分形框架。
似然估計。本文首先在無條件 ImageNet 64×64 生成任務上進行了評估,以檢驗其似然估計能力。為了驗證分形框架的有效性,本文比較了不同分形層級數量下框架的似然估計性能,如表 2 所示。
再來看生成質量評估。研究者在解析度為 256×256 的類條件圖像生成這一挑戰性任務上,使用四個分形級別對 FractalMAR 進行了評估。指標包括了 FID、Inception Score、精度和召回率,具體如下表 4 所示。
值得注意的是,本文方法實現了強大的 Inception Score 和精度,表明它能夠生成具有高保真度和細粒度細節的圖像,如下圖 4 所示。
最後是條件逐圖元預測評估。
研究者進一步使用圖像編輯中的常規任務來檢驗本文方法的條件逐圖元預測性能。下圖 5 提供了幾個具體範例,包括修復、去除修復、取消裁剪和類條件編輯。
結果顯示,本文方法可以根據未遮蔽區域來準確預測被遮蔽的圖元,還可以有效地從類標籤中捕獲高級語義並將其反映在預測圖元中。
更多實驗結果參閱原論文。