NVIDIA 貢獻 GB200 NVL72 設計與 NVIDIA Spectrum-X,助力加速推動下一場產業革命
為推動發展開放、高效且具擴充能力的資料中心技術,NVIDIA 今日宣布已將 NVIDIA Blackwell 加速運算平台設計的基礎要素貢獻給開放運算計畫(OCP)使用,並且擴大 NVIDIA Spectrum-X™ 支援 OCP 標準的程度。
NVIDIA 在今年的 OCP 全球高峰會上,將與 OCP 社群分享 NVIDIA GB200 NVL72 系統機電設計的關鍵組成,包括機架架構、運算與交換器托盤機構、液冷與熱環境規格,以及 NVIDIA NVLink™ 纜線盒的體積容量,以支援更高的運算密度與網路頻寬。
NVIDIA 已經橫跨多個硬體世代做出多次正式貢獻給 OCP,其中包括 NVIDIA HGX™ H100 基板設計規格,以幫助生態系提供來自全球電腦製造商更多的產品選擇,還有擴大人工智慧(AI)的應用範圍。
此外,NVIDIA Spectrum-X 乙太網路平台更加符合 OCP 社群所制定的規格,可讓企業部署 OCP 認可的設備,發揮 AI 工廠的效能潛力,又能保留原本的投資及保持軟體一致性。
NVIDIA 創辦人暨執行長黃仁勳表示:「NVIDIA 從跟 OCP 合作十年的基礎出發,與產業領導廠商共同努力,制定可在整個資料中心廣泛採用的規格與設計。我們推動開放標準,協助全球各地的組織充分發揮加速運算技術的潛力,打造未來的 AI 工廠。」
針對下一次產業革命打造的加速運算平台
NVIDIA 的加速運算平台是專為支援發展 AI 新時代而設計。
電腦製造商採用建立在 NVIDIA MGX™ 模組化架構上的 GB200 NVL72,便能以快速且符合成本效益的方式建立大量資料中心基礎設施設計。
這款機架規模設計的液冷系統,連接 36 顆NVIDIA Grace™ CPU 和 72 顆 NVIDIA Blackwell GPU。當中的72顆GPU的NVIDIA NVLink 網域,可以當成一個大型 GPU 進行運作,在上兆個參數的大型語言模型進行即時推論作業時,速度比 NVIDIA H100 Tensor 核心 GPU 快上 30 倍。
現加入新一代 NVIDIA ConnectX-8 SuperNIC™ 的 NVIDIA Spectrum-X 乙太網路平台,支援 OCP 的交換機抽象層介面(Switch Abstraction Interface,SAI)與 Software for Open Networking in the Cloud(SONiC)標準。這樣一來客戶便能使用 Spectrum-X 的動態路由和基於遙測的壅塞控制技術,加速橫向擴充式 AI 基礎設施的乙太網路效能。
ConnectX-8 SuperNIC 具有速度高達 800Gb/s 的加速網路,以及針對大規模 AI 工作負載進行最佳化的可程式化資料包處理引擎。適用於 OCP 3.0 的 ConnectX-8 SuperNIC 將於明年推出,協助組織建立高度靈活的網路。
資料中心的關鍵基礎設施
隨著全球從通用運算改為使用加速運算與 AI 運算技術,資料中心基礎設施也變得日漸複雜。NVIDIA 正與 40 多家全球電子產品製造商緊密合作,這些製造商為打造 AI 工廠提供關鍵元件,以求簡化開發流程。
此外,還有不少合作夥伴也在 Blackwell 平台上進行創新與建置,其中包括 Meta,該公司計畫將其搭載 GB200 NVL72 的 Catalina AI 機架架構貢獻給 OCP。這樣提供電腦製造商靈活的選擇以建立高運算密度系統,且能滿足資料中心不斷成長的效能與能源效率需求。
Meta 工程部門副總裁 Yee Jiun Song 表示:「NVIDIA 多年來始終是開放運算標準的主要貢獻者,其中包括其高效能運算平台,過去兩年來這個平台一直是我們 Grand Teton 伺服器的基礎。我們不斷努力滿足大規模 AI 日益增長的運算需求,NVIDIA 在機架設計與模組化架構方面最新的貢獻內容,將有助於加快整個產業開發與導入 AI 基礎設施的速度。」
歡迎在 10 月 15 日至 17 日於聖荷西會議中心舉行的 2024 OCP 全球高峰會中,深入瞭解 NVIDIA 對開放運算計畫的貢獻。