關于數據中心PUE與計算機節能的探討
前段時間,和幾個業界同仁在探討如何降低PUE,引發了對冷熱通道溫升、風機功率、自然冷源利用的相關探討,發現討論PUE居多,但降低PUE對IT設備的功耗的影響關注較少。本文結合環境溫度對服務器芯片功耗的影響來探討數據中心整體節能的一些措施。
一、機房溫度和相對濕度標準
IDC機房服務的對象是服務器,我們首先探討服務器對溫度和相對濕度的要求。表1是《GB/T9813.3-2017計算機通用規范第3部分服務器》對服務器工作溫度和相對濕度的要求,無論是工作溫度還是相對濕度,這兩個指標都是較容易滿足的。而《GB50174-2017數據中心設計規范》則提出了更為嚴格的要求,如表2所示。
業內大客戶對機房環境要求一般按照GB50174-2017的最低要求,以下是阿里巴巴數據中心和騰訊TB的相關標準。
機房內服務器和網絡機架進風溫度或UPS正面進風處任意點溫度正常情況下不應高于26℃,濕度范圍30-80%(不結露);緊急情況時,機房冷通道內任一點溫度不應超過30℃(對應運營標準SLA,當有項目調整SLA溫度上限時,需要具體商議),區域氣流組織應考慮通風地板面積、通風孔率,局部風扇地板,局部精密空調,機柜面板密封等方式解決局部過熱,確保熱通道與冷通道溫差不應超過13℃;
處理后的水質達到數據中心加濕用水要求。處理后的相對濕度滿足最新國標要求,同時機房冷通道或機柜送風溫度21℃-26℃,相對濕度30%rh-70%rh,含濕量5.5g/kg-10.6g/kg,除濕能力滿足最大的范圍要求。
基于以上標準,我們發現,無論是計算機通用規范還是數據中心設計規范要求,冷通道的溫度和相對濕度都是一個范圍,如圖1所示焓濕圖中藍色合圍區域(各企業的標準略有不同,圖中合圍區域也會有所不同)。
二、機房溫濕度的設置
既然機房的溫濕度可以在一定范圍內調整,那么,該如何調整機房的溫濕度才能降低整個項目的能耗呢?如焓濕圖所示,冷通道溫濕度度從右上角B點位置降低到左下角A點位置,數據中心空調系統的能耗會明顯的增加,PUE會提高,但IT設備特別的功耗是降低的,如何降低的呢?我們以IT設備的主要熱源芯片的功耗來分析。
芯片(或半導體)的熱阻與溫度、功耗之間的關系為:
Ta=Tj-P×(Rjc+Rcs+Rsa)=Tj-P×Rja
公式中,Ta表示環境溫度,Tj表示芯片的結溫,P表示功耗,Rjc表示結殼間的熱阻,Rcs表示芯片外殼與散熱器間的熱阻,Rsa表示散熱器與環境間的熱阻,Rja表示結與環境間的熱阻。
當芯片的散熱片足夠大且接觸足夠良好時,殼溫Tc=Ta,芯片外殼與環境間的熱阻
Rja=Rcs+Rsa=O。此時Ta=Tj-P×(Rjc+Rcs+Rsa)演化成公式:
P=(Tj-Ta)/Rjc
廠家規格書一般會給出最大允許功耗Pcm、Rjc或Rja等參數,一般Pcm是指在Tc=25℃或
Ta=25℃時的最大允許功耗。
從公式可以看出,要想降低芯片的功率,就要降低Tj-Ta這個值,這個值與機房的冷熱通道溫度相對應,但實際上會有些差值,受到其他器件發熱量的影響,Ta高于冷通道溫度;受到散熱器的散熱效率影響,Tj也高于熱通道溫度,故降低冷熱通道的溫差、提高芯片散熱器的散熱效率,有利于降低芯片功率。
芯片的消耗功率用漏極源極間導通電阻RDS(on)計算,芯片所消耗的功率PD用芯片自身具有的導通電阻RDS(on)乘以漏極電流(ID)的平方表示:
RDS(on)隨著Tj的變化,廠家的規格書也會給出相應的曲線,圖2所示為Infineon某款芯片的導通電阻-結溫特性曲線。
從以上曲線看出,隨著Tj的上升,RDS(on)也會明顯的增加,根據上面的公式,PD也同系數的上升,故降低Tj,可以明顯的降低PD。如果冷熱通道溫差不變,Tj-Ta這個差值就也不變,要降低Tj,除了提高芯片散熱器的效率,就只能降低Ta,也就是通過降低冷通道的溫度,以降低芯片的功耗。
但無論是降低冷熱通道的溫差,還是降低冷通道的溫度,IT設備的功耗雖然降低了,數據中心空調系統的功耗卻增加了。根據空氣熱力學公式Q=(P×60)/[1200×4.2×0.24×(Tj-Ta)]計算,Tj-Ta這個差值降低,服務器風機和精密空調風機的風量都會增加,風機的功耗也會增加。由于服務器風機和精密空調風機都是機房設備功耗的重要組成部分,冷熱通道溫差的調整還涉及到機房相對濕度的變化,故數據中心的冷熱通道溫差通常設置在10~12℃不變。
不改變冷熱通道的溫差,降低冷通道的溫度,可以降低IT設備芯片的功耗,半導體設備發熱量也跟著降低,在溫差不變的情況下,必然會降低服務器風機和精密空調風機的風量需求和功耗。但降低冷通道的溫度,雖然IT設備整體功耗和精密空調風機功耗會降低,但壓縮機(含冷凝器風機)或者冷凍水中央空調系統的能效會降低,空調系統的功耗會增加。
那么,有沒有一個IT設備和中央空調系統整體能耗最低的值呢?肯定有,這需要結合項目地去做綜合測試。下面這個場景就值得我們去嘗試:在冬冷夏暖地區自然冷的季節,可以通過降低冷凍水的溫度來降低冷通道的溫度,繼而降低IT設備和冷凍水精密空調的功耗。由于使用了板式換熱器,冷水機組完全停止工作,冷凍水供回水10/16℃相對于15/21℃,增加的主要是冷卻塔風機和冷卻水泵的功耗,但增加的這個功率是遠低于IT設備和冷凍水精密空調降低的功耗,這個時候,整個項目的能耗降低了。但要注意的是,這個時候PUE并沒有降低,反而升高了,因為IT設備功耗降低了,空調系統的功耗增加了。
對于IDC運營企業來講,通常有包電與不包電之分,如果是包電的項目,肯定是整個項目的能耗降低優先考慮了,如果是不包電的項目,則要結合客戶的需求綜合考慮。綜合各種需求,數據中心在運行時,冷通道的溫度一般會結合當地氣候特點設置三種工況:春秋22~23℃,夏季25~26℃,冬季20℃左右。這幾種工況的調整,并不是雷同的,要結合當地的氣候特點,實際上就是考慮整個項目的節能,而不純粹是PUE考核。
三、結束語
IDC在建設時,追求PUE的降低沒有錯,但在運維時要考慮IT設備和基礎設施的總能耗。結合當地的氣候特點和客戶對冷熱通道溫濕度的要求,靈活調整冷熱通道的溫濕度是整個項目節能的重要手段。