原創 讓數據中心更智能
在”雙碳”策略與”東數西算”工程的雙重推動下,資料中心PUE優化已成為產業發展的核心命題。
2025年,隨著AI算力需求爆發,資料中心能耗壓力持續攀升,PUE優化技術路徑呈現多角化發展趨勢。
根據最新產業報告顯示,液冷技術、自然冷卻技術和供電系統優化已成為降低資料中心PUE的三大核心路徑,其中液冷技術特別引人注目,市場滲透率預計將在2025年達到25%以上,而冷板式液冷技術由於其成本低、易部署的特點,仍將是市場主流,佔液冷市場的80%以上。
一、液冷技術:從”冷板式”到”浸沒式”的演進與應用液冷技術透過使用液體作為冷卻介質,取代傳統風冷方式,顯著提高了資料中心的散熱效率和能源利用效率。
液冷技術主要分為冷板式液冷和浸沒式液冷兩種主流技術路線,兩者在原理、適用場景和能源效率表現上存在明顯差異1.1. 冷板式液冷技術冷板式液冷技術是目前市場應用最廣泛的液冷技術,其核心原理是透過冷卻液在伺服器內部的冷板上循環,將熱量內部的高發熱元件(如CPU)直接傳遞到伺服器內部的冷板上。
這種技術的特點是冷卻液不直接接觸伺服器的電子元件,僅透過冷板間接散熱,因此對伺服器的改造要求相對較低,相容性較好,維護成本也相對較低。
冷板式液冷系統主要由以下幾個部分組成:冷卻液(通常為純水或乙二醇溶液)、冷板(安裝在伺服器內部,與高發熱元件接觸)、冷卻塔、循環水泵和CDU(耦合分配單元)。
冷卻液在CDU內與一次側冷卻水進行熱交換,釋放熱量後再繼續在冷卻機櫃內吸收熱量。整個系統主要用電設備為冷卻塔風機和循環水泵,無壓縮機,提高了系統能效冷板式液冷技術在資料中心的應用效果顯著。
以北京某資料中心為例,該專案採用冷板式液冷伺服器,單櫃功率密度達54.5kW,其中95%的熱量由液冷負擔,剩餘部分由冷凍水房間級空調負擔。
此資料中心實現了PUE值低於1.19,相比傳統風冷資料中心降低了約20%的能耗。另一個案例是寧夏某數據中心項目,主機房內有560個機櫃,單機櫃平均功率8kW,採用冷板式液冷系統後,PUE值達到1.19冷板式液冷技術的優勢主要體現在以下幾個方面:成本優勢:冷板式液鏈的TCO(總擁有成本)較低,對建築負重能力與傳統風冷機部署,根據產業數據,冷板式液冷系統的初期投資比浸沒式低約30%,維護成本也低約25%相容性優勢:冷板式液冷對現有伺服器的改造相對簡單,無需完全浸沒伺服器,因此對伺服器內部電子元件的影響較小,相容性較好。
大多數主流伺服器廠商(如華為、浪潮、曙光等)都已推出支援冷板式液冷的伺服器產品。
靈活性優勢:冷板式液冷可與傳統風冷系統結合使用,形成混合式冷卻方案,可依資料中心的負載狀況及環境條件靈活調整。
例如,在北京某資料中心專案中,當夏季極端天氣時室外冷卻水塔無法滿足系統所需的供、回水溫度(高於28.5℃),需啟動另一套風冷冷水機組(供、回水溫度:15/20℃)與冷塔混合後進入板式熱交換器,從而滿足系統對冷壓板式的需求冷壓板式。由於液冷系統中的管路容易出現腐蝕、沉積、漏液或堵塞等風險,且缺乏充分的規模部署驗證,目前液冷資料中心的可靠性問題存在一定爭議。
此外,冷板式液冷系統中不同伺服器的壓力降差異可能導致流體流量分配不均,影響散熱效果。
因此,液冷伺服器的設計需統一壓降標準,如液冷伺服器的流量為每分鐘1L時,壓損範圍應設計在一個固定的壓降數值,滿足CPU晶片的殼溫或結溫要求(40℃進水溫度)的散熱能力1.2.浸沒式液冷技術浸沒式液冷技術是液冷技術的另一種主流路線,其核心原理是將整個伺服器完全浸沒在冷卻液中,伺服器產生的熱量直接傳遞給冷卻液,透過冷卻液的循環流動或蒸發冷凝相變進行散熱。
浸沒式液冷技術因直接接觸散熱,散熱效率更高,PUE值可降至1.1~1.15,是目前能源效率最高的冷卻技術。
浸沒式液冷系統主要由以下幾個部分組成:冷卻液(通常為氟化液或導熱油)、浸沒腔體、循環幫浦和熱交換設備。根據冷卻液的性質,浸沒式液冷可分為單相浸沒式液冷(冷卻液循環流動)和雙相浸沒式液冷(冷卻液蒸發冷凝相變)。
其中,雙相浸沒式液冷由於利用了冷卻液的蒸發潛熱,散熱效率更高,但係統壓力變化較大,需要考慮系統的密閉性和維護人員的吸入風險浸沒式液冷技術在超算中心和AI訓練等超高密度場景中表現突出。
以中科曙光E級超算系統為例,該系統採用了浸沒式液體相變的冷卻方式,單一液冷機櫃功率約168kW,共90個液冷機櫃,總功率約15000kW,每個機櫃內的定製刀片伺服器為24片,伺服器整體浸泡在充滿氟化液的封閉機櫃內。
此超算中心實現了PUE值僅為1.04,是目前業界能源效率最高的資料中心之一;另一個典型案例是阿里巴巴張北和杭州的資料中心試點計畫。
阿里在2017年建造了浸沒式液冷資料中心,能源效率表現突出。阿里採用的氟化液冷卻液(如3M公司的Novec)具有優異的絕緣性和冷卻性能,但成本高昂,是限制浸沒式液冷大規模推廣的主要因素。
浸沒式液冷技術的優點主要體現在以下幾個方面:能源效率優勢:浸沒式液冷的PUE值可降至1.1~1.15,是目前能源效率最高的冷卻技術。根據行業數據,浸沒式液冷直接接觸散熱,無需額外的散熱設備和空間,浸沒式液冷數據中心與傳統風冷數據中心相比,可減少約1/3的機房面積,大幅提高數據中心的部署密度。
噪音優勢:浸沒式液冷資料中心運作時噪音低至42dB,相比傳統風冷資料中心的60dB以上,噪音顯著降低,改善了資料中心的工作環境浸沒式液冷技術的挑戰主要集中在硬體相容性、冷卻液成本和維護複雜度。
由於伺服器完全浸沒在冷卻液中,伺服器內部電子元件的耐腐蝕性和絕緣性要求較高,需要客製化的伺服器設計。此外,氟化液等冷卻液的價格昂貴,且有環保問題,如氟化物對臭氧層的破壞。最後,浸沒式液冷系統的維護複雜度高,一旦發生洩漏,處理難度高,對維運工程師的技術要求較高
冷板式液冷和浸沒式液冷技術各有優劣,選擇哪一種技術取決於資料中心的規模、功率密度和預算限制。對於大多數中大型資料中心,冷板式液冷可能是更經濟、更容易部署的選擇;而對於超算中心和AI訓練等超高密度場景,浸沒式液冷可能是更好的選擇,儘管其初始投資和維護成本較高
2. 自然冷卻技術:因地制宜的節能方案自然冷卻技術是利用外部自然冷源(如低溫自然成為資料中心的空調”,透過減少或完全消除機械製冷設備的使用,顯著降低資料中心的能耗根據行業報告,2025年資料中心PUE優化中,自然冷卻技術的貢獻率將達到30%以上
2.1. 直通風自然冷卻技術直通風自然冷卻技術是最簡單的自然冷卻方式,透過將室外冷氣冷卻方式將室外冷卻資料中心此技術對氣候條件要求較高,適合年均氣溫較低的地區,如貴州、內蒙古等地。
以華為雲貴安資料中心為例,此資料中心位於貴州省貴安新區,年均氣溫約15℃。
華為採用直通風系統,冷風經大樓百葉窗送進機房,熱風經熱通道從樓頂排出,全年約180天可不啟用水冷主機熱交換,PUE值低至1.12,處於業界領先水準。
直通風自然冷卻技術的實現主要取決於以下幾個關鍵因素:
(1) 氣候條件:資料中心所在地區的年均氣溫、濕度和空氣品質是決定直通風技術適用性的主要因素根據氣象數據,貴陽市室外氣象參數為:夏季空調室外乾球溫度30.1℃,濕球溫度23℃;冬季室外空氣空調溫度-2.5℃,濕球溫度23℃;冬季室外空調溫度-2.5℃,濕球溫度23;結合資料中心室內參數要求,全年約94.27%的時間可直接利用自然冷源,僅需5.55%的時間需要輔助製冷
(2) 過濾系統:室外空氣引入資料中心前需經過多級過濾,確保空氣潔淨度符合資料中心要求。華為雲貴安資料中心採用”三重過濾”系統,包括初效過濾、中效過濾和高效過濾,有效去除空氣中的灰塵和污染物,保護伺服器設備氣流組織:合理的氣流組織設計對於直通風系統的效率至關重要。
華為採用冷熱通道分離設計,冷空氣經由冷通道直接送入伺服器,熱空氣經由熱通道排出,減少冷熱空氣混合,提高散熱效率。
直通風自然冷卻技術的優點主要體現在以下幾個方面:
(1)能源效率優勢:直通風系統無需機械製冷設備,僅需風扇和過濾設備,能耗顯著低於傳統空調系統;華為雲貴安資料中心透過直通風系統,全年約180天可不啟用水冷主機換熱,預計每年可節省電力10.1億度,減少碳排放量81萬噸
(2)環境友善優勢:直通風系統不使用冷媒,對環境影響較小,符合綠色資料中心的發展方向
(3)運維簡單優勢:直通風系統結構簡單,維護難度低,運維工程師只需定期檢查風機和過濾設備即可直通風;自然冷卻技術的挑戰主要集中在氣候適應性和空氣品質。
在氣候炎熱或空氣品質較差的地區,直通風系統的適用性有限。此外,直通風系統對資料中心的建築設計有特殊要求,如需要設置專門的冷熱通道,增加建築成本2.2. 水冷自然冷卻技術水冷自然冷卻技術是利用水作為冷卻介質,透過水的循環和熱交換為資料中心散熱的技術。
此技術適合水資源豐富的地區,如沿海、湖泊週邊等地區,可以充分利用當地的水資源優勢以阿里千島湖資料中心為例,該資料中心位於浙江省杭州市淳安縣千島湖,佔地3173.75㎡,是浙江省內單體建設規模最大、新技術應用最多的資料中心。
阿里千島湖資料中心採用湖水自然冷技術,巧妙地將工業與景觀用水、資料中心冷卻用水結合起來,在保證不污染環境的前提下,將現存的資源實現最大化利用具體實現方式包括:
(1)湖水淨化與循環:湖水經過物理淨化後,透過密閉管道流經每層,為伺服器降溫,隨後直接供給市政景觀用水,實現了資源最佳利用
(2)混合製冷模式:資料中心的空調系統採用兩路進水,分別是湖水和冷凍水,能夠實現同時或單獨運作。在湖水溫度適宜時,優先使用湖水冷卻;在湖水溫度過高時,切換至冷凍水冷卻,確保資料中心穩定運行(3)液冷系統整合:阿里自研的AliRack整機櫃伺服器,是專門為雲端運算和大數據業務的需求量身定制的,單日實體部署可達5000台,伺服器上架密度提升了30%,同時整合電源和散熱系統也能減少10%的能耗阿里千島湖資料中心的PUE值達到1.2以下,相比傳統風冷資料中心降低了約25%的能耗。
這種”水冷+液冷”的混合冷卻模式,是未來資料中心PUE優化的重要方向水冷自然冷卻技術的優勢主要體現在以下幾個方面:
(1)能源效率優勢:水冷系統利用水的比熱容高的特性,散熱效率遠高於空氣,PUE值可降至1.2以下。
(2)環境友善優勢:水冷系統不使用冷媒,可與市政用水系統結合,實現水資源的循環利用,環保效益顯著。
(3)空間優勢:水冷系統可與液冷系統結合使用,提高空間利用率,適合高密度資料中心。 2.2.1.1. 水冷自然冷卻技術的挑戰主要集中在水資源利用和系統複雜度。
在水資源匱乏的地區,水冷系統的適用性有限。此外,水冷系統需要處理水的淨化、循環和排放問題,系統設計和維護較為複雜2.3. 蒸發冷卻技術蒸發冷卻技術是利用水的蒸發潛熱進行散熱的技術,包括直接蒸發冷卻和間接蒸發冷卻兩種方式。
蒸發冷卻技術適合溫帶和亞熱帶地區,尤其是夏季高溫高濕、冬季寒冷乾燥的地區。
在貴陽某資料中心專案中,蒸發冷卻技術與液冷技術結合使用,實現了PUE值約1.22(UPS為線上模式)或1.19(UPS為離線模式)直接蒸發冷卻技術透過填料與水接觸降溫,適合貴陽夏季濕熱氣候,但需處理露點問題。間接蒸發冷卻技術則透過室內外空氣在熱交換器內進行熱量交換,確保了室內空氣的潔淨度,適合對空氣品質要求較高的資料中心。
蒸發冷卻技術的優勢主要體現在以下幾個方面:節能優勢:蒸發冷卻系統相比傳統空調系統,可節省電量約30%~40%;環境適應性優勢:蒸發冷卻技術可以在多種氣候條件下使用,尤其是高溫高濕地區,適應性較強;初期投資優勢:蒸發冷卻系統可以在多種氣候條件下使用,尤其是高溫高濕地區,適應性較強;初期投資優勢:蒸發水電系統的初期投資相對較低,適合有限的數據中心直接蒸發冷卻需要持續補充水資源,可能增加水耗;間接蒸發冷卻則需要處理熱交換器的清潔和維護問題
3. 供配電系統優化:從”硬體升級”到”智能管理”的轉變供配電系統優化是降低資料中心PUE的第三大技術路徑,主要透過提高IT設備負載率、優化供電設備和引入智能配電設備和引入智能管理系統來實現。根據產業數據,供電系統的能耗佔數據中心總能耗的10%~15%,雖然佔比不高,但優化潛力大。
3.1. 提高IT設備負載率提高IT設備負載率是降低資料中心PUE的重要手段。 IT設備負載率指的是資料中心的IT設備實際負載與設計的滿載時IT設備負載的比值IT設備負載率越低,UPS設備的效率越低,導致UPS設備能耗增加,PUE值升高提高IT設備負載率的主要技術手段包括:
(1) 虛擬化技術:透過伺服器虛擬化,將多個虛擬機器運行在一個實體伺服器上,提高伺服器速率。廣東某IDC透過虛擬化技術將伺服器使用率從60%提升至85%,PUE降低約0.152.
(2) 動態負載平衡演算法:根據資料中心的負載狀況,動態調整IT設備的運作狀態,避免部分設備過載而其他設備閒置。常見的動態負載平衡演算法等(3) 仿生物智慧演算法、加權最小連結調度演算法、基於局部性的最小連結調度演算法等
(3) 仿生物智慧演算法:如遺傳演算法、蟻群演算法、粒子群演算法及人工蜂群演算法等,用於最佳化資料中心的負載分配與伺服器調度,提高整體能效;提升IT負載率的關鍵設備在於建構一套隨IT負載變化的資料中心全域能效最佳化方案,可以透過設定三重閾值T₁、T₂和T₃將主機分為4種類型:負載率低於T₁時,為低載主機;負載率在T₁和T₂之間時,為輕載時,負載率在T₂和T負載調度演算法的最佳化目標即是將重載主機及低載主機上的虛擬機器遷移至輕載主機上,使重載主機的負載率低於T₃,低載主機虛擬機遷移完畢後即可使其休眠,降低IT設備能耗。
3.2. 優化供電設備優化供電設備是降低資料中心PUE的另一個重要手段。
供配電設備的能源效率直接影響資料中心的PUE值,尤其是在UPS等關鍵設備上;提高供電設備能源效率的主要技術手段包括:
(1)高效模組化UPS:模組化UPS具有高可用性、高擴充性和高效能三大核心優勢。以某品牌ModulonDPH系列模組化UPS為例,其在30%輕負載時效率可達95%,50%負載時效率可達96%,相較於傳統UPS在輕載時效率低的問題,顯著提高了能效
(2)電源電容器組與主動濾波器:透過提高功率因數,減少線。智慧電容器組與主動濾波器可動態調整無功補償量,使功率因數從0.85提升至0.98以上,減少約5%的線損
(3)高效變壓器與配電設備:選擇低損耗的高效變壓器和配電設備,減少約電儲重量電能傳輸過程中的電力週期功率
(4)鋰離子電池相比。根據Uptime所做的全球資料中心調查,目前已有10%的資料中心採用鋰電池作為後備能源,預計未來隨著新能源以及儲能成本的降低,這一比例將進一步提高鋰電池UPS的優勢主要體現在以下幾個方面:u能效優勢:鋰電池UPS支持快速充放電,可以在電價谷時段充電,以及高峰時段放電電力成本u空間優勢:鋰電池體積小、重量輕,佔用空間少,適合空間受限的資料中心u環保優勢:鋰電池不含鉛、鎳、鉻等重金屬,是綠色環保的首選u經濟性優勢:雖然鋰電池的初始投資較高,但其壽命長(約10年以上),長期使用成本更低
3.3. 引入智能管理系統引入智能管理系統引入智能管理系統的第三大技術。透過AI和大數據分析技術,實現供配電系統的智慧調度和最佳化提高能源利用效率智慧供電管理系統的實現主要依賴於以下幾個關鍵因素:
(1)資料擷取與分析:透過部署大量的感測器和物聯網關,即時擷取資料中心的IT負載、溫度、濕度、電壓、電流等多維資料
(2)AI演算法預測:利用深度學習、強化學習等AI演算法,預測資料中心的負載變化趨勢與能耗需求,提前調整供配電系統運作參數
3.自動化控制:透過AI系統與供配電設備的連動,實現供配電系統的自動化控制,如動態調整UPS冗餘模式(從N+1切換至N模式)以減少輕載損耗,或根據負載情況調整供電路徑,提高供電效率智慧供電管理系統的典型案例包括:
廣東移動AI系統:廣東移動研發的基於AI技術的新一代DCIM管理系統已在中國移動資料中心部署並應用,通過半年的試運行,預計可降低PUE1%~3%,年節約電費約120萬元;
GoogleAI模型:Google將AI神經網路模型引入資料中心能耗管理,建立了PUE的神經網路模型,提出了基於機器學習的資料中心能耗管理方法。
此項技術在實際應用中可將總的冷凍功耗降低約40%,進而將資料中心的總功耗降低約15%。
若以一個PUE值為1.6的資料中心為例,採用此項技術後,PUE值將降低為1.45左右華為AI聯控技術:華為在離岸風電資料中心中採用基於AI的聯控技術,將資料中心劃分為多個獨立的區間,每個區間都有獨立的供電、冷氣和水循環系統。
透過AI演算法動態調度IT負載,使各區PUE盡量成直線排列,實現整體PUE的最優化智慧供電管理系統的挑戰主要集中在資料累積和演算法訓練。
AI系統需要至少6個月的歷史運作資料才能進行有效的訓練和最佳化,這對新建資料中心或資料累積不足的資料中心構成挑戰。
此外,AI演算法的訓練和優化需要專業的技術支持,維運工程師可能需要接受額外的培訓才能熟練使用4. 技術路徑選擇:因地制宜的PUE優化策略資料中心PUE優化技術路徑的選擇需要綜合考慮多種因素,包括資料中心的規模、功率密度、地理位置、氣候條件、預算限制等。業界公認影響PUE的三個重要因素為氣候條件、IT設備負荷率和資料中心安全等級這些因素也應成為技術路徑選擇的關鍵考量
4.1. 根據氣候條件選擇技術路徑不同氣候條件適合不同的PUE優化技術路徑,因地制宜是降低PUE的關鍵原則根據各地不同的氣候條件,可以將資料中心分為以下幾類,選擇對應的PUE最佳化技術路徑:溫帶氣候區:如貴州、內蒙古等地區,年均氣溫較低,適合採用直通風自然冷卻技術,結合冷板式液冷,實現PUE值低於1.2濕熱氣候區:如華南、東南亞等地區,夏季高溫高濕,適合採用間接冷蒸發冷卻技術,.
3乾燥氣候區:如西北、中東等地區,年均濕度較低,適合採用直接蒸發冷卻技術,結合冷板式液冷,實現PUE值低於1.3沿海或湖泊週邊地區:如浙江、廣東等地區,水資源豐富,適合採用水冷自然冷卻技術,實現冷板式液冷,實現PUEUE值低於1.24.
2.徑IT設備負荷率是影響PUE的關鍵因素,不同負荷率適合不同的冷卻技術IT設備負荷率較低時,一方面,UPS設備的效率降低,造成UPS設備能耗增加,PUE值升高;
另一方面,IT設備未滿載安裝時,製冷能耗並不成比例能耗的增加,PUE值升高根據製冷量增加根據冷氣負載率,根據冷卻能耗升高資料中心可分為以下幾類,選擇對應的PUE最佳化技術路徑:
(1) 低負載率資料中心:IT設備負載率低於60%的資料中心,適合採用虛擬化技術提高IT設備利用率,結合模組化UPS與智慧管理系統,實現PUE值低於1.4
(2) 中高負載率資料中心:IT設備負載率在60%~85 %之間的資料中心,適合採用冷板式液冷技術,結合自然冷卻和智慧管理系統,實現PUE值低於1.2
(3) 高負載率資料中心:IT設備負載率高於85%的資料中心,適合採用浸沒式液冷技術,結合自然冷卻和智慧管理系統,實現PUE值低於1.14.3. 根據資料中心規模選擇技術路徑。資料中心規模也是技術路徑選擇的重要考量。大型和超大型資料中心更適合採用先進的冷卻技術和智慧管理系統,而中小型資料中心則可以採用成本效益更高的解決方案根據資料中心規模,可以將資料中心分為以下幾類,選擇相應的PUE優化技術路徑:
(1) 大型和超大型資料中心:如華為雲貴安、阿里千島湖等資料中心,適合採用多種技術組合,如直通風+冷板式液冷+熱回收+AI管理系統,實現PUE值低於1.2
(2) 中型資料中心:如廣東佛山三山項目,適合採用模組化供配電+智慧列間空調+封閉熱通道+噴淋技術+新風等組合方案,在35℃特定工況下PUE小於1.3,15℃特定工況下PUE小於1.2(3) 小型資料中心:如企業自建資料中心,適合採用自然冷氣+高效率UPS +智慧管理系統,實現PUE值低於1.4。
5. 未來趨勢展望:PUE優化技術的演進方向隨著AI算力需求的快速增長和”雙碳”目標的深入推進,數據中心PUE優化技術將呈現多元化、智能化和標準化的發展趨勢。未來幾年資料中心PUE優化技術將呈現以下發展趨勢:
5.1. 液冷技術的普及與標準化液冷技術將在未來幾年迎來爆發式成長,市場滲透率預計將在2025年達到25%以上。冷板式液冷技術由於其成本低、易部署的特點,仍將是市場主流,佔液冷市場的80%以上。浸沒式液冷技術雖然能效更高,但受限於冷卻液成本和環保問題,短期內難以大規模推廣液冷技術的標準化進程將加速推進,包括液冷快速接頭標準、冷卻液標準、液冷系統設計標準等。中國信通院聯合產業各方加速在液冷領域的技術創新、試驗驗證與標準研究,持續推動液冷伺服器、冷卻液、液冷基礎設施等更新迭代,優化液冷技術解決方案,推動產業生態成熟
5.2. 自然冷卻與液冷的深度融合自然冷卻技術與液冷技術的整合將成為未來資料中心PUE優化的重要方向。透過結合直通風、水冷或蒸發冷卻等自然冷卻技術與液冷技術,可以實現更有效率的散熱和更低的PUE值
5.3. AI技術將在資料中心PUE優化中發揮越來越重要的作用。透過AI演算法對海量的動環擷取資料進行深度分析,挖掘資料背後的潛在規律,實現更智慧的能源管理AI驅動的智慧管理系統將從單一設備控制發展到整體系統最佳化,實現供配電、冷凍、IT設備等多系統的協同優化。例如,廣東移動AI系統通過半年的試運行,預計可降低PUE1%~3%,年節約電費約120萬元。谷歌AI模型在實際應用中可將總的製冷功耗降低約40%,從而將資料中心的總功耗降低約15%AI系統將從”預測型”向”自適應型”發展,能夠根據實時負載動態調控設備運行參數,實現能源的匹配與高效利用。未來,資料中心將更加重視AI系統的部署和應用,以實現PUE的持續優化
5.4. 再生能源的廣泛應用隨著再生能源成本的不斷降低和政策的推動,可再生能源將在資料中心中得到更廣泛應用。資料中心將從單一的電力供應模式轉向”電力+再生能源”的混合供應模式,進一步降低PUE值和碳排放。
根據相關研究機構預測,2025年,全國資料中心用電量將達到350太瓦時,較2021年增加62%,約佔全社會用電量的4%。為實現”雙碳”目標,資料中心將提高再生能源佔比,如太陽能、風能等,減少對傳統電網的依賴
5.5. 資料中心即服務(DCaaS)的興起資料中心即服務(DCaaS)模式將推動資料中心的標準化和模組化,為PUE優化提供更靈活和高效的解決方案。
DCaaS模式透過將各類資源,如IT資源及基礎設施資源,以資源池的方式呈現給維運人員及終端用戶,用戶不需要特別關注底層硬體差異,而是能夠以統一的介面調用各類資源,獲取相關服務,實現資源按需獲取和按需擴容DCaaS模式將推動數據中心的全局能效優化,實現IT設備優化設備和基礎設施的綜合設施。例如,廣東佛山三山專案透過模組化供電+智慧列間空調+封閉熱通道+噴淋技術+新風等組合方案,在35℃特定工況下PUE小於1.3,15℃特定工況下PUE小於1.2,日常採用智慧運營,空調智慧群控、系統平台溫度耗用一張圖智慧監測與調度等高溫環境標準
6. 結論與展望2025年,資料中心PUE優化已進入多元化技術路徑並行發展的階段,液冷技術、自然冷卻技術和供電系統優化成為降低PUE的三大核心路徑這些技術路徑各有優劣,需要根據資料中心的具體情況選擇合適的。
在組合液冷技術中,冷板式液冷由於其成本低、易部署的特點,仍將是市場主流;浸沒式液冷雖然能效更高,但受限於冷卻液成本和環保問題,短期內難以大規模推廣。在自然冷卻技術中,直通風、水冷和蒸發冷卻各有適用場景,需依氣候條件和地理位置選擇。在供配電系統最佳化中,提高IT設備負載率、最佳化供電設備和引進智慧管理系統是三大關鍵方向。
對於資料中心維運工作而言,PUE優化是一項系統工程,需要從硬體、軟體和管理多個維度綜合施策。維運工作需要不斷學習新技術、新方法,提升自己的專業能力,以因應資料中心PUE優化的挑戰。未來,隨著AI算力需求的快速成長和”雙碳”目標的深入推進,資料中心PUE優化技術將呈現多元化、智慧化和標準化的發展趨勢。液冷技術的普及與標準化、自然冷卻與液冷的深度融合、AI驅動的智慧管理系統、再生能源的廣泛應用以及資料中心即服務(DCaaS)的興起,將是未來資料中心PUE優化的主要方向在政策層面,發改委等部門印發的《資料中心綠色低碳發展專項行動計畫》明確提出,到2025年,新建/改擴建大型及超大型資料中心PUE不超過1.25,國家樞紐節點PUE不超過1.2隨著政策的不斷推進和技術創新的加速,資料中心PUE優化將取得更大突破,為數位經濟的綠色低碳發展提供有力支撐。
總之,資料中心PUE優化是一項長期且複雜的任務,需要運維工程師、設備廠商、系統整合商和政策制定者的共同努力。透過選擇合適的技術路徑,結合資料中心的具體情況,資料中心可以實現PUE的持續優化,降低營運成本,提高能源效率水平,為綠色低碳發展做出貢獻!
⚠文中所列數據以及應用案例來自作者網上蒐集,均為網絡公開資料,如涉及侵權以及描述不當之處懇請批評指正。
Leave a Reply