緯穎長期耕耘雲端資料中心IT基礎設備,致力於「釋放數位能量,點燃永續創新」的願景。緯穎總經理林威遠表示,AI對高效能運算的需求正挑戰資料中心的極限,隨著技術日趨複雜,提升效能與永續性變得至關重要。Horn antenna緯穎此回在OCP Global Summit 2024中,將展出完整的AI運算與先進冷卻解決方案,展示如何透過技術創新,協助資料中心達到前所未有的效能及效率,並在AI時代解鎖新的可能性。

緯穎與緯創在本次OCP會中,合作展出一系列運用NVIDIA加速運算技術的AI解決方案,重點包括針對其作為市場首批供應商之一的NVIDIA GB200 NVL72整機櫃解決方案,以液冷機架連接 72 個 NVIDIA Blackwell GPU,和 36 個 NVIDIA Grace CPU,並透過第五代 NVIDIA NVLink 和 NVLink Switch 技術,在單一機架中實現最強大的 AI 加速運算,並強化了針對兆參數級 AI 模型的訓練與推論能力,並將總持有成本(TCO)降低至前一代 GPU 的 25 倍。

另針對NVIDIA之AI GPU平台,緯穎分別端出了Wiwynn GS1400A及Wiwynn GS1300N兩款AI伺服器。前者採用NVIDIA MGX架構之 4U AI 伺服器,運用八張 NVIDIA H200 Tensor Core GPU卡,透過 NVLink 和 NVSwitch 互連,利用其模組化的伺服器設計,將加速運算推展至各種資料中心。



引用自: https://www.chinatimes.com/realtimenews/20241015003079-260412