除了PUE,你知道IUE嗎?

2019-08-06 15:12 來源: 打印 掃碼手機看

  隨著5G技術的落地,讓萬物聚合互聯,釋放數據價值,這更需要高效的云計算數據中心。在最近舉行的“2019維諦技術峰會”上,維締技術(Vertiv)創新性推出了基于POD(性能優化數據中心)架構的供電最佳顆粒度和制冷最佳顆粒度模型。這套數據中心最佳顆粒度設計和建設模型的推出滿足了云計算數據中心規模化、集約化、節能化趨勢方向,也同時代表著維締技術(Vertiv)的前瞻布局。

  這套模型釆用最新出爐的綠色網格(TGG)IUE工具和馬里蘭大學CALCE研究中心可靠性理論, 已經廣泛得到全球云計算數據中心基礎設施標準化最佳實踐印證,并將推動云計算數據中心產業發展。

  衡量“高效”的新標準

  提到數據中心,PUE是繞不開的話題。

  作為綠色網格發布的一個用于衡量數據中心能源使用效率的方法(或公式),PUE指的是數據中心總耗電與真正用在IT上的耗電的比值,PUE越小(趨近于1)意味著能效越高。

1564996996945126.jpg

  與PUE一樣,IUE也是綠色網格發布的一個用于衡量數據中心基礎設施整體效率的方法,其定義是基礎設施使用率(IUE),即任何資源要素消耗量與設計容量之比。

  為了便于理解,這個比值通常以百分比來體現,越接近100%意味著基礎設施使用率越高。

  相對于PUE只衡量數據中心內的供電效率,顯然影響IUE的因素多得多,數據中心內基礎設施不僅包括IT和供電,實際上還有散熱以及物理空間等等。

  根據數據中心內的必備要素,IUE設計了五個資源要素,分別為:電量供應(Power Delivery)、電量分配(Power Distribution)、制冷量(Cooling Generation)、冷卻流量(Cooling Flow)以及機架U位數量(Rack U Count)等。

  如今,數據中心已經成為云計算、AI時代的硬核,有了數據中心的支撐,互聯網、云計算才得以高速發展,如同高鐵之于國計民生,數據中心承載著一個時代的使命。

圖片2.jpg

  完美使用模式——資源使用率與IT負載率匹配(來源:綠色網格)。當IT負載率(與設計量的比值)達到相應的級別,其他如供電、冷量等也占用相同的比值。最完美的使用模式是當IT負載率達到100%時,電量供應和制冷量資源使用率趨近100%

  相比于PUE只提供了一個比值或者說一個衡量標準,IUE要復雜很多,提供了一套方法論,指導數據中心用戶可以從上述五個方面去提高數據中心基礎設施使用率,從而建設高效數據中心,最終降低TCO。

  多角度構建云計算數據中心最佳顆粒度

  盡管綠色網格近期才發布IUE的衡量標準,但實際上很多公司都在這方面已經進行了大量的探索,尤其是因成本驅動的互聯網公司、公有云服務商和云托管運營商,如何最大化數據中心基礎設施使用率,以讓投資收益最大化是他們永恒的追求,IUE衡量標準發布正是這些探索的總結。

1564997089456583.jpg

維諦技術(Vertiv)大中華區數據中心解決方案部高級總監吳健

  在維諦技術(Vertiv)大中華區數據中心解決方案部高級總監吳健(綠色網格中國副主席)看來,為保持IT負載正常運行,機架U位數量、電量分配以及冷卻流量這些指標在所有數據中心基本難分伯仲,在云計算數據中心的最關鍵需要提高的指標就包含云計算數據中心的IT使用率、電量供應和制冷量資源的使用率。

  第一,IT機房最佳顆粒度。

  最早在這方面進行探索并公布成果的是IBM公司,基于標準化設施的最佳實踐,提出可快速部署、可復制、操作性強的IT POD架構模型,所謂POD就是Performance Optimize Datacenter,即性能優化的數據中心。

圖片4.jpg

  上圖是IBM提出的POD架構模型示意圖,這一模型已經被廣泛應用于大規模數據中心當中,包括亞馬遜、微軟、Facebook、Equinix以及Digital Realty,前三者是最大公有云供應商或互聯網公司,后兩者則是全球最大的兩家數據中心托管運營商。

  每個POD內IT部分包含5000臺服務器,分屬到200個機架。如果以每臺服務器400W(瓦特)功率計算的話,每個機柜需要10KW(千瓦)的供電,即每個POD的IT負載容量是2MW(兆瓦)。每個機柜10KW的供電能力在數據中心領域已經達到極高水平了。

  在E企學院去年發布的《2018中國超大規模云數據中心考察報告》中的數據,國內大部分數據中心的機柜供電大多在5~8KW之間,少數經過特別設計的能達到10KW。

  因為數據中心總是朝著更大型化、更集約化方向發展,數據中心建設由規模產生效率,規模越大,效率越高, TCO(總擁有成本)也越低。那么每個POD內200個機架共5000臺服務器,這一數字模型是怎么確定的呢?為什么不是每個POD擺放更多的300個機架或者400個機架?一個看起來與IUE沒有直接關聯的另一個數據中心必備要素起了很大的作用。

  我們都知道,每棟建筑都要考慮消防問題,數據中心也不例外。但數據中心的消防與傳統的水滅火方式不同,內有大量的IT設備,水會造成短路進而設備損壞。目前數據中心主流采用氣體滅火,即使用七氟丙烷。七氟丙烷的最大滅火體積是3600立方米,如果以數據中心樓層層高4.5米計算的話,那么可擺放機架的面積為800平方米,考慮到運維所需要的通道等因素,每個機架以占地IT機房4平方米計算,即在七氟丙烷滅火區域內可部署200個機架。

  也就是說,單個POD部署5000臺服務器、200個機架以及2MW的供電,是當前最優化的數據中心設計。

  這一POD模型一經提出之后,獲得了大規模數據中心擁有者的廣泛認可,不僅獲得國外如AWS、微軟、Facebook、Equinix以及Digital Realty等青睞,同時也適用于國內的數據中心建設。

  第二,供電的最佳顆粒度。

  上述文中只確定了POD模型中的服務器機架數量,以及所需要的功率。同樣道理,數據中心供電也是朝著更大UPS系統功率方向發展;而如何選擇云計算數據中心供電最佳顆粒度則又由三個因素決定:變壓器容量、UPS單模組容量以及并機系統的可靠性(至少高于單機)。

  首先就是變壓器的容量,通常變壓器有1250KVA、1600KVA、2000KVA、2500KVA與3200KVA等容量選擇,目前UPS單模組的容量考慮維護方便通常設計都小于800KVA,主要有600KVA、500KVA和400KVA等容量選擇。

  除了考慮UPS的容量之外,還要考慮UPS的可靠性,單模組UPS的容量是小于變壓器的容量的,要接近或達到變壓器的容量,則通過并聯實現。但是UPS模組并聯過多就會涉及到UPS并機環流問題,UPS并聯的模組越多,意味著可靠性下降。從下圖由馬里蘭大學CALCE研究中心提供的UPS并機可靠性曲線看到,當UPS并機模組數量超過4臺,其并機系統的可靠性將比一臺單機的可靠性還要低。

  這一點與我國相關規范是不謀而合,GB50174-2017要求UPS模組并聯數量最多四臺,也就意味著目前單個UPS系統的容量不會超過2400KVA(即2.4MVA)。這就大致決定了變壓器容量的選擇。

圖片5.jpg

  UPS電量供應使用率與UPS并機可靠性曲線,由馬里蘭大學可靠性研究所提供。(圖源自:維諦技術)

  根據上圖可以看出,在數據中心領域,根據UPS模組容量的不同(比如400KVA、500KVA、600KVA),在4臺UPS并聯后,UPS電量供應IUE曲線(最佳點是100%使用率)與可靠性曲線(要求并機的可靠性高于單機)的交叉點形成供電最佳顆粒度選擇為1.6MVA、2MVA和2.4MVA。

  供電的不同選擇當然也意味著其POD內服務器功率的選擇將發生改變,這給應用需求與服務器選型提供了靈活性。當然,如果POD內服務器功率是5KW每個機柜,每個POD是1MW(需要1.2MVA UPS供電),建議采用2.4MVA給2個POD供電。

  供電選擇完后還要選擇散熱系統。IT加上散熱的能耗幾乎約等于數據中心的總能耗了。而散熱系統的能耗又由選擇何種散熱系統決定,散熱系統的能耗也是影響數據中心PUE的最大因素。

  第三,最佳的制冷顆粒度。

  數據中心散熱系統目前主流有“風冷”空調和“水冷”空調兩種可供選擇,

  雖能目前大部分云計算數據中心比較青睞離心機或螺桿機的冷凍水“水冷”解決方案,但“水冷”空調散熱系統的管道設計復雜,由于冷凍水機組空調換熱環節多,系統效率低,無法實現超低PUE的交付。而且“水冷”空調系統的冷量設計較為巨大,通常以上千“冷噸”為單位,需要數百千瓦的電力供應,冷量使用率較低,維護成本很高,且不宜工作在低負載狀態,進一步降低了散熱系統的效率。

圖片6.jpg

  上圖表示在相同POD數量下(以某個數據中心6個POD為例),“風冷”空調與“水冷”空調的使用效率對比。滿足相同數量的服務器散熱時,“風冷”空調的效率明顯高過“水冷”空調。此外,IT低負載時,為了避免冷機“喘振”導致故障或停機,“水冷”空調散熱系統通常不能使用

  在一個部署了6個POD的數據中心內,其服務器總功耗為12MW,這意味著需要12MW的冷量。如果采用維諦技術(Vertiv)的Liebert?PEX4超高能效精密空調,單個POD需要22臺(單臺冷量100KW)以20+2的方式冗余制冷,同時考慮到電力機房與電池機房(UPS間)所需冷量,約共需要164臺PEX4空調提供16.4MW的冷量(設計冷量)。而這個數據中心實際需要13.6MW冷量與設計冷量16.4MW之比即為冷量使用率(83%)。

  而在相同條件如果采用“水冷”空調散熱系統,要提供13.6MW的冷量,其需要6(5+1)臺1000冷噸設計的離心機組(1冷噸約3.5KW,即3500KW,美制),那么其設計總冷量就高達21MW,所以其冷量使用效率僅為65%。況且還有低負載下無法使用的缺點;因此換熱環節少,維護成本低和適合更多應用場景“風冷”解決方案成為趨勢。為了提升冷量使用率和降低TCO,推薦適合高層建筑使用的無水極致節能風冷最大顆粒度120KW和100KW的解決方案。

圖片7.jpg

  維諦技術基于其在散熱領域的深厚積淀,不止推出了PEX4超高能效精密空調,還有與PEX4搭配使用的Liebert?VCC集中式高效冷凝器,以及Liebert?PEH節能型濕膜加濕器。這些最新的產品不僅能夠提高數據中心效率,還能節省占地面積,以及降低能耗

  IT機架數、供電以及制冷都確定了,剩下的就是數據中心設計了。維諦技術(Vertiv)在這方面根據其在數據中心建設領域的豐富經驗,以及其最佳組合的產品特點推出了面向云計算與互聯網領域的Vertiv云計算最佳顆粒度解決方案,圍繞POD而設計,將一個4層樓的數據中心2、3、4層布局如下:

圖片8.jpg

  維諦技術基于POD推出的云計算最佳顆粒度解決方案,具有快速部署上線、可復制以及操作性強等特點:

  l 2、3、4層共3層樓共設置6個POD 共12MW:

  l 每層UPS 設置2.4MVA×2/POD,采用維諦高可靠高效率的 Cube or APT;

  l IT 機房設置風冷PEX4 100kW (20+2)/PODx6=132臺;

  l 電力機房電池機房32臺PEX4 100kW

  l 預備800K電力,冗余400K共預備1.2M電力/POD用于連續制冷

  l 每層設置400柜共占地4000-5000平米(含輔助區)

  l 樓頂設置VCC外機,占樓頂面積30%

  由于采用“風冷”空調散熱系統替代了較為傳統的“水冷”空調,這意味著不需要額外的冷站和蓄冷罐,而原本用于建設冷站的地下一層也可設計為IT機房,可在其內部署1個或2個POD及與之配套的供電與散熱。

  可以看出,維締技術(Vertiv)打造的全方位供電和制冷的顆粒度方案,加上全球的供應鏈體系,可以幫助客戶實現最優的TCO,目前在全球已經擁有了廣泛的成功實踐。

  以全球第一大COLO運營商Equinix為例,每個數據中心采用采用維締技術(Vertiv)N+1套2.4MVA UPS系統形成 2主1備RR系統或者3主1備RR系統的的最佳供電顆粒度解決方案。Equinix借助廣泛部署在全球200多個International Business Exchange (IBX)數據中心,建立一個ECX Fabric云平臺,在這個平臺上9500多個客戶可以快速地將自己的應用連接到全球Equinix部署的BIG EDGE云平臺中,來降低延時和保證安全性。

  另外一個例子是全球第二大COLO運營商DIGITAL REALTY,在其全球33個數據中心部署了2000臺Vertiv Liebert?SDC400KW智慧雙循環氟泵節能空調(適合海外2層建筑數據中心,不適合國內4層建筑數據中心);同時,根據可用性需求部署了創新的Vertiv Liebert?Trinergy?Cube系列MW級智能調控型UPS及Liebert?EXL系列大功率UPS。

  吳健表示,把握數據中心IT、供電、制冷趨勢,維締技術(Vertiv)推出了云計算數據中心最佳顆粒度模型,其目的就是要讓客戶以最佳的成本,最佳的投資,最優的電量供應和冷量供應的使用率,最低的PUE,最少的占地面積,最可靠的系統可用性來構建高效數據中心,實現云計算與邊緣計算的協同聯動,推動云計算數據中心產業發展。


  了解更多:

https://www.vertiv.com/zh-CN/?utm_source=201908_esenet_PUE_IUE_cn&utm_medium=Referral&utm_campaign=805


免責聲明:電力設備市場網信息來源于互聯網、或由作者提供,其內容并不代表本網觀點,僅供參考。如有侵犯您的版權或其他有損您利益的行為,我們會立即進行改正并刪除相關內容。
2013年c罗总进球数