阿里巴巴新招節能 陸若全面採用年省1座三峽大壩發電量
電子商務要靠資料中心大量運算,消耗電量驚人,例如大陸今年推估資料中心用電量將突破2000億度,超過三峽大壩全年發電量874億度2倍有餘,但陸電商龍頭阿里巴巴推出爲伺服器「泡澡」新技術,今年可能將是電商興起至今最環保「雙11」購物節,單日預估少用20萬度電,專家還指出,若全大陸資料中心都用一樣技術,每年可省下1座三峽大壩發電量。
資料中心包括資訊科技設備、冷卻系統、配電系統,均須24小時運轉,每顆GPU(圖形處理器)滿載運轉時會升溫至攝氏85度,每顆CPU(中央處理器)滿載運轉也可達攝氏60至70度,若伺服器要維持能再攝氏18至27度適宜運轉溫度,資訊中心都必須配置冷卻系統,否則機房可能只需1分鐘就可由攝氏20度加熱到50度,而改善冷卻系統就成爲省電最大竅門。
隨着AI(人工智慧)、雲端、大數據、物聯網等需要高性能計算的趨勢,未來不論GPU或CPU,平均消耗功率上看400瓦、即相當於現在最先進GPU的峰值瞬間消耗功率,也大有可能,因此觸發在這些領域相當積極的阿里巴巴在2015年投入研發更節能的冷卻系統,用來取代傳統的風扇、空調。
阿里巴巴採用的方法原理非常簡單,氣體的比熱容量較液體相差數千倍,因此爲伺服器降溫,他們從液體冷卻(liquid cooling)着手,開發出浸沒式液冷系統。想法雖然簡單,技術上要克服困難卻很多,冷卻液必須絕緣又無腐蝕性,高溫下也不會揮發有毒蒸氣,
經過3年研發,浸泡式液冷系統伺服器才投入商用,所開發出冷卻液是電子零件浸泡其中20年也不會損壞。這套系統將伺服器裝入箱中,完全被冷卻液浸沒,冷卻液吸收伺服器熱能,經溫度、流量控制後循環到自然冷卻系統散熱再流回,由於這種伺服器外箱長年封閉,冷卻液年耗損不到1%。
這套系統PUE(電能使用效率,資料中心總用電除以資訊設備總用電,數字越接近1表示越接近除資訊設備本身以外沒有其他用電)表現傑出。以阿里巴巴杭州資訊中心爲例,48臺伺服器、3臺交換器都浸在約800公升、1.5噸冷卻液中,整體PUE最低可達1.07,每年平均1.09,比起傳統資料中心,省下電力夠環西湖所有路燈點亮8年。
浸沒式液冷系統伺服器還可以降低資料中心選址的侷限,因爲在這套系統前有效的降低冷卻系統想法之一就是到高緯度或低氣溫地區設資料中心,例如阿里巴巴本身在張家口市、位於內蒙古高原的張北縣啓用的資料中心是採取氣冷方法,最低PUE是1.25,年均1.13。
陸媒指出,阿里巴巴透過這種科技,已可將每10000筆交易耗電量控制在2度以內。2005年每10筆交易所耗電量就足以煮熟4顆雞蛋,2015年降到1顆雞蛋,今年可能連煮熟1顆鵪鶉蛋都有點勉強。
中國承諾在2060年達成碳中和,使阿里巴巴的這項技術更重要。據統計今年上半年網路數位服務用電量較去年同期激增71.6%,隨着趨勢發展可能只增不減。中國官方所提出2022年達成資料中心PUE標準是1.4以下,浸沒式液冷伺服器現有標準遠超過該目標,若全面普及節能減碳效果不言而喻。