NVIDIA貢獻Blackwell平台設計供開放式硬體生態系使用 加速AI基礎設施創新 智慧應用 影音
蔡司
Event

NVIDIA貢獻Blackwell平台設計供開放式硬體生態系使用 加速AI基礎設施創新

  • 黃郁婷台北

NVIDIA 貢獻 Blackwell 平台設計供開放式硬體生態系統使用,加速推動 AI 基礎設施創新。NVIDIA
NVIDIA 貢獻 Blackwell 平台設計供開放式硬體生態系統使用,加速推動 AI 基礎設施創新。NVIDIA

NVIDIA(輝達)為加速運算領域的先驅。為推動發展開放、高效且具擴充能力的資料中心技術,宣布已將NVIDIA Blackwell加速運算平台設計的基礎要素貢獻給開放運算計劃(OCP)使用,並且擴大NVIDIA Spectrum-X支援OCP標準的程度。

NVIDIA在2024年的OCP全球高峰會上,將與OCP社群分享NVIDIA GB200 NVL72系統機電設計的關鍵組成,包括機架架構、運算與交換器托盤機構、液冷與熱環境規格,以及NVIDIA NVLink纜線盒的體積容量,以支援更高的運算密度與網路頻寬。

NVIDIA已經橫跨多個硬體世代做出多次正式貢獻給OCP,其中包括NVIDIA HGX H100基板設計規格,以幫助生態系提供來自全球電腦製造商更多的產品選擇,還有擴大AI的應用範圍。此外,NVIDIA Spectrum-X乙太網路平台更加符合OCP社群所制定的規格,可讓企業部署OCP認可的設備,發揮AI工廠的效能潛力,又能保留原本的投資及保持軟體一致性。

NVIDIA創辦人暨執行長黃仁勳表示,NVIDIA從跟OCP合作十年的基礎出發,與產業領導廠商共同努力,制定可在整個資料中心廣泛採用的規格與設計。我們推動開放標準,協助全球各地的組織充分發揮加速運算技術的潛力,打造未來的 AI 工廠。

電腦製造商採用建立在NVIDIA MGX模組化架構上的GB200 NVL72,便能以快速且符合成本效益的方式建立大量資料中心基礎設施設計。這款機架規模設計的液冷系統,連接36顆NVIDIA Grace CPU和72顆 NVIDIA Blackwell GPU。當中的72顆GPU的NVIDIA NVLink網域,可以當成一個大型GPU進行運作,在上兆個參數的大型語言模型進行即時推論作業時,速度比NVIDIA H100 Tensor核心GPU快上30倍。

現加入新一代NVIDIA ConnectX-8 SuperNIC的NVIDIA Spectrum-X乙太網路平台,支援OCP的交換機抽象層介面(Switch Abstraction Interface;SAI)與Software for Open Networking in the Cloud(SONiC)標準。這樣一來客戶便能使用Spectrum-X的動態路由和基於遙測的壅塞控制技術,加速橫向擴充式AI基礎設施的乙太網路效能。

ConnectX-8 SuperNIC 具有速度高達800Gb/s的加速網路,以及針對大規模AI工作負載進行最佳化的可程式化資料包處理引擎。適用於OCP3.0 的ConnectX-8 SuperNIC將於2025年推出,協助組織建立高度靈活的網路。
 
隨著全球從通用運算改為使用加速運算與AI運算技術,資料中心基礎設施也變得日漸複雜。NVIDIA正與多家全球電子產品製造商緊密合作,這些製造商為打造AI工廠提供關鍵元件,以求簡化開發流程。此外,還有不少合作夥伴也在Blackwell平台上進行創新與建置,其中包括Meta,該公司計劃將其搭載GB200 NVL72的Catalina AI機架架構貢獻給OCP。這樣提供電腦製造商靈活的選擇以建立高運算密度系統,且能滿足資料中心不斷成長的效能與能源效率需求。

Meta工程部門副總裁Yee Jiun Song表示,NVIDIA多年來始終是開放運算標準的主要貢獻者,其中包括其高效能運算平台,過去兩年來這個平台一直是我們Grand Teton伺服器的基礎。我們不斷努力滿足大規模AI日益成長的運算需求,NVIDIA在機架設計與模組化架構方面最新的貢獻內容,將有助於加快整個產業開發與導入AI基礎設施的速度。