已經過了秋分,台灣還是像夏天一樣的熱,地球的天氣真的很反常,全球陸續傳出因極端氣候所造成的災情,所以企業的ESG和降低能耗是必行的。
我們正進入生成式人工智慧的時代(AI),不過,AI是高速運算,需要用電很大,所以要講究資料中心的電力使用效率(PUE - Power Usage Effectiveness),是指資料中心之總電力除以IT使用電力,因為資料中心還會產生很大的熱量,需要有效排出。
生成式AI伺服器因高速運算對熱設計功耗(TDP)要求較高,意思是處理器達到最高功率上限所釋放的熱量,越高的熱設計功耗,散熱系統負擔就越大,目前資料中心的散熱導管已接近極限,為了ESG和降低能耗,需提升AI的散熱成效。
過去散熱大都採用風扇,因為生成式AI伺服器的機架厚度是2U,為60x60x56mm或60x60x76mm,需要再增加一顆風扇,會增加成本,單價需提高80%~90%,採氣冷式散熱的伺服器需要很大的空間,才能有很好的通風,這是不利邊緣運算的發展。
液冷式散熱系統可以節省空間和能耗
以輝達公司 (NVIDIA) H100的TDP 700W來看,如果採氣冷式的散熱,例如3DVC(採用均熱片和熱導管),則需要4U以上的空間,雖然解熱效能未來可以提升,成本具優勢,但難脫傳統空氣調節系統(HVAC),PUE無法下降,目前無法符合高密度架構的散熱系統,散熱系統占資料中心耗能約33%,同時目前 TDP達350W~400W是散熱的極限,所以電力使用效率必須再提升,過去大部分資料中心傳統散熱PUE大約是1.6~1.8,未來歐盟和中國要求興建的資料中心PUE則要低於1.3。
水的熱容量是空氣的4倍,如果導入液冷式散熱系統,液冷板只需要1U的空間,是採用液體冷卻管和散熱系統。根據輝達公司測試,液冷所需的機櫃量可以減少66%,能耗減少28%,PUE可由1.6降為1.15,同時提升運算效能。但是採用液冷式的散熱,必須開始建置資料中心時,就要納入設計和準備,這是一個裝置門檻,但可裝置在狹小的空間內,腹地有限的資料中心即能採用。
液冷和氣冷混合系統則可以用於不打算更改現有資料中心的架構,可以採用液對氣或液對液,散熱效果很好,不需安裝如氣冷式的散熱零組件,例如散熱片和風扇,可以讓液冷式伺服器增加更多處理器,增加運算能力。
資料中心碳排放猶如航空業 台灣有最強的散熱供應商
資料中心碳排放相當於航空業,能源用量也很高,需要新一代的解熱技術,根據台達電的資料,由台積電攜手國內供應商設計可裝載低沸點絕緣冷卻液氣密槽,將需散熱的伺服器泡於槽中,運用相變散熱原理,自然循環散熱,浸沒式液冷散熱系統PUE已可從1.35降至1.08,冷卻能力達100kW以上,減少15%~30%的能耗,CPU效能提升10%~15%,讓其95%效能運行,未來只需抽換主機板,可達減廢50%。
同時,移除風扇,使機房安靜,減少震動,電子品質可以穩定,相比傳統散熱,溫度控制在35度C以下,CPU效能則受限達80%。一個先進的資料中心講究可擴充性,液冷式和浸沒式液冷方案逐漸普及,才能因應ChatGPT和更高階的伺服器,而其TDP達700W以上者。
目前台灣上市櫃公司採用或供應資料中心伺服器具浸沒式液冷散熱系統相關的廠商有台達電、緯穎和技嘉;採用或供應資料中心混合式(液冷和氣冷)散熱系統為雙鴻、技嘉、英業達和廣達,採用或供應氣冷式(3DVC)散熱系統為奇鋐,投資人可以多留意。(作者為前元大金控集團證券公司自營部主管,現任麒鑫投資公司研究部資深副總經理)