數據中心成本之辨:捂緊企業“錢袋子” |
發布時間: 2012/9/5 16:56:28 |
數據中心現在處于在發展的“高速公路”上,作為企業整個IT系統的大型基礎設施建設,數據中心的作用不言而喻,不論是以云數據中心為主要發展模式的大型數據中心還是中小型數據中心,成本永遠是不可回避的話題。
云計算數據中心擺脫選址、耗電壓力 當企業發展到一定階段,其數據中心規模開始向大型化轉變,而隨著城市土地資源的緊缺所帶來建設成本的大幅度提高,在加上電能的驚人消耗,大型數據中心的發展建設面臨巨大壓力。 而隨著云數據中心的出現,在一定程度上減輕了選址對數據中心的束縛。因為云數據中心對地理位置并沒有特殊的需要,首先,云數據中心的數據是以光速傳輸的,這就帶來了很大的便利,因為只要保證云數據中心中主設備定期進行檢查,保持其穩定性,就可以正常工作。其次雖然云數據中心面積龐大,功率能高達幾十兆瓦,但云數據中心的溫控設計非常簡單,因為沒有配備過多的冷卻設施,室外冷卻占到90%的時間甚至更多。最后,在電力供應方面,云數據中心一般采取中級或傳輸級電壓,這樣能更好的滿足大型數據中心的電力需求。也不必擔心電力成本以及位置不變帶來的負面影響。 所以,云數據中心往往會選址在一些寒冷的地方來取得電力成本上的優勢,一些緯度高的地區受到了青睞,比如北歐、北美地區,因為在這些地區,企業至少不用擔心IDC的冷卻問題。但是設計團隊需要仔細地根據當地特殊的環境條件和電力成本來為數據中心量身打造出一套方案,才能最大限度的減少每兆瓦的建筑成本以及后續運營成本。 由此可見,隨著云數據中心的發展在一定程度上幫助企業擺脫選址難的問題,也使數據中心在電力耗能方面不再一籌莫展,雖然云數據中心前期投資巨大,但是其節能效果立竿見影,可以說到目前為止,云數據中心是可預見到超大型IDC發展主要模式和發展方向。 傳統數據中心UPS、空調仍是耗能大戶 傳統數據中心一般以中小型數據中心為主,在建設和運行過程中,其電能的消耗就成為其成本浪費的大戶,據統計,電信運營商的電力消耗約占公司總體消耗的87%,87%的電力消耗中有73%左右消耗在IDC的UPS和空調上。 但是中小型數據中心就不能像“云”數據中心一樣利用天然的氣候優勢來保持設備的正常溫度,而且從現實的角度來說,“云”數據中心還僅限于巨頭企業的主要選擇模式。對于電能的節約還是主要依靠新技術和新設備的應用來解決問題。 一方面,合理布局IDC空間可以提高機房制冷系統的工作效率。機柜的合理擺放能夠最大限度地提高空調的冷卻效率,減少空調的耗電量。冷、熱空氣混雜是機房中常見的現象,有時空調提供的冷氣還沒有進入機柜就已經變熱了。因此制冷系統效率提高的關鍵在于對冷熱空氣進行有效區分,這樣才能保證機柜內部IT設備能夠在正常的溫度下工作,讓制冷的效果更加良好。 另一方面,為保障IDC的電力供應,現在IDC都會安裝UPS系統。從用電分配比例中可以發現,供電系統本身的耗電占15%。也就是說,UPS利用率的高低也直接影響到IDC耗電量的多少。大多數IDC管理工作人員認為,UPS系統安裝后只是起到斷電保護的作用。但實際上,UPS系統也會耗電,而這部分損耗是完全沒有必要的。目前UPS均為在線式雙變換構架,在其工作時整流器、逆變器均存在功率損耗。提高UPS的工作效率,就可降低供電系統的耗電量,可以為機房節省一大筆電費。因此,采購UPS時要盡量采購效率較高的UPS。 ■技術新知 DCIM保證IDC全生命周期 目前,DCIM成為建設綠色數據中心的一種新標準。 Gartner的報告稱,DCIM已經被證明能夠降低20%的運營成本。其他研究機構數據也表明,DCIM解決方案可將部署新服務器的時間最高縮短50%、并且能延長數據中心壽命5年,到2014年,DCIM工具和流程將成為數據中心管理的主流趨勢,市場滲透將從2010年的1%上升至60%。為了能夠利用DCIM發展帶來的優勢,業內在基礎設施及運營(I&O)方面領先的企業應在2010年和2011年啟動DCIM評估流程。 DCIM(Data Center Infrastructure Management)其實就是數據中心基礎設施管理,但是DCIM到底如何實現幫助IDC節約成本。簡單的說隨著企業IDC的不斷發展進步,其主設備和輔助設備都可能會更換、位置的調整,以便達到更加節能的狀態,因為當數據中心的容量和耗電都接近最大負載的時候,有效的進行資產重組是企業最后能做的事情。 這時DCIM的作用就開始顯現,DCIM會隨著整個業務的調整,幫助企業服務器、制冷、機柜根據應用進行動態的部署和調整。因為DCIM中相關的解決方案可以直觀地顯示數據中心所有物理資產和邏輯資產的完整清單,表明機柜和數據中心的場地位置和機柜熱負載。數據中心的管理人員利用這種軟件,就能在實施任何可能嚴重影響數據中心性能變化的措施之前,建立復雜的假設場景,利用模型來模擬任何移動、添加或變化。并且通過檢查基礎架構裝置,例如樓層PDU和分支電路板、UPS與機房空調裝置,管理員不必在通過手繪的方式來勾畫實體關系對應圖,這是因為所有的設備包括電源等基礎設施都與網絡鏈結,而這些數據全都儲存于中央數據庫中了。 DCIM這種更直觀的表現出數據中心的運行狀態,在出現問題之前及時發現問題,提出自己的解決方案,增加了設備的使用壽命,讓各個設備都處于最合理的位置運行,而且不論是中小型數據中心還是超大型的“云”數據中心都可以運用DCIM來進行成本的節約。 優秀解決方案:施耐德電氣StruxureWare運營套件(DCIM軟件)具備包括報警、數據收集、規劃、優化和分析在內的多種功能,從而能針對數據中心物理基礎設施的方方面面生成報告。IT專業人員只需通過單一的軟件套件即可獲得其運營數據中心所需的所有數據和工具,從而讓數據中心更加可靠、高效、經濟、環保和安全。 ■他山之石 谷歌:將數據中心建在寒冷地區 在2010年谷歌原數據中心就消耗了2.26萬億瓦時的電量,這相當于20萬美國家庭一年的耗電量,其中大部分電力消耗在了服務器的降溫系統上。而寒冷的氣候可以減少降溫方面的開銷,這無疑將是一個極具競爭力的優勢。 為此2011年,谷歌斥資2億歐元在芬蘭開始打造屬于自己的數據中心,谷歌在最新的能源之星數據報告中指出,其它公司數據中心使用的PUE值為2.0。而在2011年的一年里,谷歌將數據中心PUE平均值壓榨到了1.14,低于2010年的1.16,已經接近競爭對手的50%。 英特爾:冷卻技術省巨資 英特爾利用自然冷卻的方法,把耗電量減少了74%。英特爾的試驗是將兩輛塞滿服務器的拖車連續使用10個月,其中一個使用傳統的冷卻裝置,另一個結合使用冷卻裝置和過濾掉粗顆粒雜質的室外空氣。自然冷卻的拖車在91%的時間能夠完全使用室外空氣冷卻。 如果將其推廣到耗電量為10兆瓦的數據中心,這相當于每年可省下近300萬美元的冷卻成本,還能少用7600萬加侖的水,而水在一些地方本身就是一種昂貴的商品。 本文出自:億恩科技【www.vbseamall.com】 |