隨著全球人工智慧(AI)產業的快速發展,台灣憑藉其在半導體和資訊科技領域的優勢,正面臨一個難得的發展機遇。面對如此巨大的商機,台積電前董事長劉德音將其比喻為"天上掉下來的禮物"。台灣在AI伺服器、高階晶片先進製程等領域已經建立了完整的供應鏈優勢。然而,要充分把握這一機遇,仍需要解決三個關鍵問題:
1. GPU成本高昂,缺乏算力普惠政策
目前,高性能GPU的價格昂貴成為許多企業和研究機構發展AI的一大障礙。以輝達(Nvidia)的HGX H100服務器為例,一台售價高達1,000萬新台幣。即使租用,一台配備8顆GPU的伺服器每月租金也要80萬元以上。這種高成本不僅限制了AI技術的廣泛應用,也可能阻礙創新研究的進行。
相比之下,日本和美國等國家已經採取了積極的支持政策。日本總務省提供大規模GPU補貼計畫,軟銀集團獲得政府補助用於AI基礎設施建設。美國的AI新創公司則能夠輕鬆募集到數千萬美元的資金。台灣若要在AI領域保持競爭力,亟需制定類似的算力普惠政策,為企業和研究機構提供更多支持。
2. 電力供應與分配問題
AI算力的快速發展帶來了巨大的電力需求。以最新一代的GPU為例,其耗電量遠超過傳統數據中心設備。一台H100 GPU的耗電量約為10.5kW,而新一代GPU的耗電量可能更高。這意味著一個裝有4台GPU的超級電腦機櫃可能需要超過400kW的電力,是過去機櫃用電量的6至8倍。
面對如此龐大的電力需求,台灣需要重新思考電力資源的分配策略,我們不該談電力夠不夠,而是如果AI很重要,台灣應該分配多少電力在AI數據中心?這個問題需要政府、電力公司和產業界共同協商,制定合理的電力分配方案,以支持AI產業的發展,同時確保其他產業和民生用電不受影響。
3. 資料中心散熱技術的升級
隨著GPU性能的提升和用電量的增加,散熱問題成為AI資料中心面臨的另一大挑戰。傳統資料中心的散熱能力已經無法滿足大型GPU集群的需求。因此,業界正在討論是否應該強制資料中心採用更先進的散熱技術,如水冷技術,以將能源使用效率(PUE)降到1.2以下。
國網中心的"台灣杉"系列超級電腦已經展示了優秀的散熱效果,全年PUE平均維持在1.2以內。然而,如何將這種高效的散熱技術推廣到更多的AI資料中心,仍需要政策支持和技術創新。
面對AI時代的到來,台灣擁有獨特的優勢和巨大的發展潛力。然而,要充分發揮這些優勢,還需要在GPU成本、電力供應和散熱技術等方面做出更多努力。政府需要制定更加積極的支持政策,產業界則需要加大投資力度,共同推動台灣AI算力的發展。只有解決好這些關鍵問題,台灣才能在全球AI競爭中佔據有利地位,實現產業升級和經濟增長的雙重目標。