備戰AI資料中心 技嘉提供三種液冷方案
備戰AI資料中心,技嘉提供三種液冷方案。技嘉/提供
人工智慧(AI)普及促使全球資料中心加快導入創新科技,最具代表性的兩項技術分別是先進冷卻和叢集運算。高效能AI晶片的熱設計功耗(TDP)日益增高,資料中心必須升級或改造其基礎設施,採用節能且具成本效益的冷卻方案,才能保持競爭力。技嘉(2376)最新發表業界主流的三種伺服器冷卻選項,爲AI時代做好萬全的準備。
目前市面上尖端AI晶片產生的廢熱,已瀕臨氣冷的解熱極限,一般氣冷式伺服器機架的平均功率密度低於20千瓦(kW),而輝達(NVIDIA)一顆H100加速器的TDP就高達700瓦,次世代AI加速器(如NVIDIA B100、B200)TDP預計達千瓦。
如果用技嘉科技的G593-ZD1人工智慧伺服器當作範例,5U伺服器可容納八張GPU,而一座機櫃提供42U到48U的空間,也就是說不用把伺服器裝滿,氣冷方案已經不符合經濟效益。也難怪NVIDIA在2024年發表的「百萬兆級電腦」GB200 NVL72,指定採用液體冷卻。
基於「效能」、「永續」和「成本效益」三項優勢,先進冷卻技術將持續被全球的資料中心和伺服器機房積極採用,即使現階段的AI浪潮出現變數,也不受影響。
同時,技嘉擁有三種主流的伺服器冷卻方案,即液體冷卻、浸沒式冷卻和進階氣冷,可以協助導入企業的IT架構,讓企業競爭力再晉級。