AI 應用新聞

Micron 美光推出 HBM3E 12H 和以 LPDDR5X 為架構之 SOCAMM 解決方案



美光攜手 NVIDIA 實現從資料中心到邊緣運算的創新

美光推出 HBM3E 12H 和 以LPDDR5X為架構之 SOCAMM 解決方案,徹底釋放 AI 平台的無限潛能

AI 運作長期穩健成長的基礎,建立在高效能、高頻寬的記憶體解決方案之上。其中,這些高效能記憶體解決方案對於充分發揮 GPU 和處理器的潛能至關重要。美光科技(Nasdaq: MU)今日宣布,成為全球首家且唯一同時出貨 HBM3E 及 SOCAMM (小型壓縮附加記憶體模組)產品的記憶體廠商,這兩款產品專為資料中心 AI 伺服器設計。此舉將進一步鞏固美光在業界的領先地位,尤其展現其在資料中心應用低功耗雙倍資料速率(LPDDR)記憶體的開發和供應方面的優勢。

美光與 NVIDIA 合作開發的 SOCAMM 是一款模組化 LPDDR5X 記憶體解決方案,專為支援 NVIDIA GB300 Grace™ Blackwell Ultra 超級晶片而設計。美光 HBM3E 12H 36GB 也針對 NVIDIA HGX™B300 NVL16 和 GB300 NVL72 平台打造;而 HBM3E 8H 24GB 則應用於 NVIDIA HGX B200 和 GB200 NVL72 平台。美光 HBM3E 產品於 NVIDIA HopperNVIDIA Blackwell 系統中的全面性部署,突顯美光加速 AI 工作負載的關鍵角色。



想到 AI,就想到記憶體 – 更想到美光​


在 GTC 2025 大會上,美光展示完整的 AI 記憶體與儲存裝置產品組合,全面支援從資料中心到邊緣裝置的 AI 應用,突顯美光與生態系夥伴之間的深度合作關係。美光的多元產品布局包括 HBM3E 8H 24GB 和 HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7 和高容量 DDR5 RDIMM 和 MRDIMM。此外,美光也供應業界領先的資料中心 SSD 以及汽車和工業用產品組合,例如 UFS4.1、NVMe® SSD 和 LPDDR5X,皆能契合邊緣運算應用的需求。



micron_03252.jpg

美光資深副總裁暨運算與網路事業部總經理 Raj Narasimhan 表示:「AI 正持續推動運算領域的典範轉移,其中記憶體正是這項變革的核心。美光為 NVIDIA Grace Blackwell 平台 AI 訓練和推論應用帶來顯著的效能提升和節能效益,而 HBM 和低功耗記憶體解決方案則有助於提升 GPU 的運算能力,突破現有極限。」



SOCAMM:AI 記憶體效能和效率的新標準​


美光的 SOCAMM 解決方案目前已進入量產階段,這款模組化 SOCAMM 解決方案能實現更快的資料處理速度、卓越效能、無與倫比的電源效率,以及更出色的維修便利性,能有效因應日益嚴苛的 AI 工作負載。

micron_03251.jpg

美光 SOCAMM 是全球速度最快、體積最小、功耗最低、容量最高的模組化記憶體解決方案[1],能夠滿足 AI 伺服器和資料密集型應用需求。這款全新 SOCAMM 解決方案能使資料中心在保持相同運算能力的同時,享有更充裕的頻寬、更低的功耗和更強的擴充能力,進而提升基礎架構的靈活性。


  • 速度最快:在相同容量下,SOCAMM 能提供比 RDIMM 高出 2.5 倍的頻寬,使其能更快存取更龐大的訓練資料集與更複雜的模型,同時提高推論工作負載的資料傳輸量。[2]

  • 體積最小:創新的 SOCAMM 規格尺寸為 14×90 mm,僅為業界標準 RDIMM 尺寸的三分之一,可實現更加精巧、更高效率的伺服器設計。[3]

  • 最低功耗:SOCAMM 解決方案憑藉 LPDDR5X 記憶體的優勢,其功耗僅為標準 DDR5 RDIMM 的三分之一,進而重塑 AI 架構中的功率效能曲線。[4]

  • 最高容量:SOCAMM 解決方案採用四組 16 層 LPDDR5X 堆疊的記憶體,打造 128GB 高容量記憶體模組,可提供業界最高容量的 LPDDR5X 記憶體解決方案,對於加快 AI 模型訓練速度、同時上線使用者數量增加的推論工作負載至關重要。

  • 最佳化的擴充能力和維修便利性:美光 SOCAMM 採用模組化設計和創新堆疊技術,大幅提升維修便利性,同時也有助於液冷伺服器的設計。美光 LPDDR5X 具備強化錯誤修正功能,結合專為資料中心設計的測試流程,為資料中心提供最佳的記憶體解決方案。




業界領先的 HBM 解決方案​


美光延續在 AI 領域的競爭優勢,其 HBM3E 12H 36GB 在相同立方體外形規格下,提供比 HBM3E 8H 24GB 高出 50% 的容量。[5] 此外,相較於競爭對手的 HBM3E 8H 24GB 產品,美光 HBM3E12H 36GB 的功耗降低 20%,同時記憶體容量也高出 50%。[6]

美光將持續追求卓越的功耗和效能表現,計劃將推出 HBM4 以保持技術發展動能,進一步鞏固其在 AI 記憶體解決方案供應商中的領導地位。美光 HBM4 解決方案的效能預計將比 HBM3E 提升超過 50%。[7]

完備的記憶體和儲存解決方案,專為從資料中心到邊緣裝置 AI 需求而設計​


美光也擁有一系列備受肯定的儲存產品組合,專為滿足日益增長的 AI 工作負載而設計。若要實現如光速般快速提升儲存技術的效能和能源效率,必須與生態系夥伴緊密合作,確保互通性和無縫銜接的客戶體驗。美光推出多款最佳化 SSD,可完美因應各種 AI 工作負載,例如:推論、訓練、資料準備、分析和資料湖。美光在 GTC 大會展示了以下儲存解決方案:


  • 高效能的美光 9550 NVMe SSD 和美光 7450 NVMe SSD 均已被列入 NVIDIA GB200 NVL72 推薦供應商清單。

  • 美光的 PCIe Gen6 SSD 在與頂尖 PCIe 交換器和重定時器(retimer)供應商成功進行互通性測試後,展現超過 27GB/s 的頻寬,推動業界邁向新一代的快閃儲存技術。

  • 在更小的空間中儲存更多資料,對於發揮 AI 資料中心的最大效益至關重要。美光 61.44TB 6550 ION NVMe SSD 可在 20 瓦的功耗以內,每機櫃可提供超過 44 PB 的儲存容量[8], 14GB/s的傳輸速度和每顆硬碟 200 萬次的 IOPs,是尖端 AI 叢集大規模儲存解決方案的首選硬碟。


隨著人工智慧和生成式 AI 持續擴展並整合至邊緣的終端裝置,美光正與主要生態系夥伴緊密合作,為汽車、工業和消費性領域提供創新的 AI 解決方案。除了對高效能的需求外,這些應用更仰賴更高品質、更高可靠性以及更長的壽命以滿足其使用需求。

這類型生態系合作的範例之一,就是將美光 LPDDR5X 整合到 NVIDIA DRIVE AGX Orin 平台上。這個聯合解決方案可提供更高的處理效能和頻寬,同時也能降低功耗。

採用美光的 1β (1-beta) DRAM 節點,LPDDR5X 記憶體滿足了汽車和工業應用需求,提供高達 9.6 Gbps 的速度,並搭配從 32Gb 到 128Gb 的更大容量,以支援更高的頻寬需求。

此外,美光 LPDDR5X 車用產品支援攝氏 -40 度至 125 度的工作環境,提供符合車用品質和標準的寬廣溫度範圍。





[1] 此計算結果為比較 64GB 128 位元匯流排 SOCAMM 與兩個 32GB 64 位元匯流排 RDIMM 的效能差異。
[2] 此計算結果基於 64GB 2R 8533MT/s SOCAMM 與 64GB 2Rx4 6400MT/s RDIMM 傳輸速度進行比較。
[3] 此數值為一個 SOCAMM 與一個 RDIMM 之間的面積比例計算結果。
[4] 此計算結果比較一個 128GB、128 位元匯流排寬度 SOCAMM 與兩個 128GB、128 位元匯流排寬度 DDR5 RDIMM 所用功耗(以瓦特為單位) 。
[5] 此比較基於 HBM3E 36GB 容量與 HBM3E 24GB 容量(兩者封裝尺寸均為 12x10mm)的效能差異。
[6]根據美光 HBM3E 與競爭對手 HBM3E 產品的內部計算、客戶測試與回饋結果。
[7] 此頻寬計算值藉由比較 HBM4 與 HBM3E 的規格所得出。
[8] 此估算假設單一 1U 伺服器有 20 個 E3.S 儲存插槽,並安裝 20 顆 61.44TB E3.S SSD,且每機櫃中有 36 個機櫃單位可用於部署伺服器。
▌延伸閱讀