於慶友:數據中心需多維度冗餘配置 液冷是未來大趨勢
更新于:2025-03-26 04:37:39

C114訊 3月24日消息(苡臻)當人工智慧的浪潮席捲全球,算力需求正以超摩爾定律的速度狂飆突進。數據中心作為算力的核心承載單元,其發展態勢深刻影響著各行業的數字化進程。

近日,在“算電協同綠色發展及應用跨行業生態論壇”期間,中國石油天然氣股份有限公司勘探開發研究院數據中心專家、高級工程師於慶友在接受C114等媒體採訪時,針對當前算力激增背景下,數據中心領域一系列新動態,展開了深入且獨到的解讀。

算力浪潮下 數據中心現狀

隨著人工智慧產業的發展,智慧化成為算力快速增長的驅動力,數據中心、智算中心等多種算力相互融合協同趨勢明顯。至2024年底,我國智算規模快速發展,近三年年均增速達到55%。

於慶友表示,當前,數據中心、智算中心建設呈綠色化、高密化、協同化的發展趨勢。

按工信部要求,到2025年全國新建大型、超大型數據中心、智算中心電能利用效率(PUE)應降到1.3以下,液冷和風液結合將成為主流趨勢;同時數據中心每5年功率密度提升1倍,10KW、20KW、40KW機櫃將逐漸成為主流趨勢;隨著工業互聯網應用,人工智慧訓練推理場景聯動,數據中心呈現集團-邊緣多級、協同聯動。

另外,網路系統方面,呈現使用者頻寬需求劇增、網路品質快速提升、光纖容量大幅增加的發展趨勢。2000-2023年,使用者接入頻寬從傳統互聯網5M發展至移動互聯網500M、再至人工智慧時代10G,網路頻寬需求增長2000倍。

目前,網路質量呈現更高網路可靠性、更低轉發時延、更快接入效率的趨勢。數據傳輸技術不斷發展,商用單波速率從100G至400G快速發展,單光纖容量經過40年發展容量提升200萬倍。

設備設施方面,算力體系設備設施含IT設備(資訊技術設備)和基礎設施(數據中心基礎設施設施)兩類。IT設備主要指伺服器、存儲、網路等設備,基礎設施主要指電氣、暖通、空調等設施。

根據“設備設施浴盆曲線”,IT設備使用超過6年、基礎設施使用超過8年,故障率指數級增長、運行風險劇增、運維服務費用高企。業界IT設備更新週期為5至8年(其中互聯網企業為3至5年),基礎設施更新週期為7至15年,亟需進行設備更新。

數據中心新趨勢與應對之策

近年來,隨著智算及超算的發展,數據中心對設備功率的要求顯著增加,這對網路、供電穩定性和連續性、以及製冷環境等提出了新的挑戰。

於慶友指出,為提高數據中心、智算中心基礎設施可靠性,通常根據建設等級要求選用容錯或冗餘配置方式提高網路、供配電、空調等系統可靠性,

例如,網路需有2~3個運營商提供保障,且應避免佈置在同一物理空間內以防發生意外中斷。供配電系統需要根據建設等級、安裝容量、用途重要性等選用容錯或冗餘配置的供電方式,提高系統的可靠性;合理配備柴油發電機系統或其他應急電源。充分利用可再生能源和儲能策略可有效降低運行能耗。

他指出,在低碳背景下,數據中心應利用外部自然冷卻、使用可再生能源,如風能、光伏、潮汐能等,以降低 PUE值和WUE值,減少碳排放。

此外,從冷卻技術層面看,主要有風冷、液冷和風液混合配置。“目前,大部分企事業單位的數據中心主要還是以風冷為主,但液冷在市場中的份額正迅速增加,未來液冷的比例將高於風冷,根據不同需求風冷與液冷混合配置將是一大趨勢。”

液冷技術是利用液體介質與熱源直接或間接接觸進行換熱,再由冷卻液體將熱量傳遞出去的冷卻技術。液冷包括浸沒式、冷板式、噴淋式。其中,浸沒式液冷將伺服器裡面所有硬體直接浸泡在冷媒液體中,依靠流動的冷媒液體吸收伺服器的發熱量,浸沒式換熱效率高、運行能耗低,但維修不便、推廣難度較大;冷板式液冷的冷卻液不與伺服器元器件直接接觸,而是通過冷板間接對CPU和GPU進行熱交換,換熱效率較高、安全風險較小、適用範圍廣目前業界使用最多;噴淋式目前有少數廠家在做,其對安全和可操作性要求高,實際應用少。

採訪最後,於慶友還提到了數據中心標準制修定方面的工作。他指出,《數據中心設計規範》計劃於今年12月前完成重新修訂,目前正在參與編寫《算力設施工程技術標準》,預計明年6月前完成,後續還將對《數據中心基礎設施運行維護標準》等相關標準進行修訂。