記憶體 美光發布速度、容量傲視業界的高頻寬 HBM 記憶體

soothepain

full loading
已加入
9/17/03
訊息
20,718
互動分數
1,914
點數
113
網站
www.coolaler.com
推動生成式AI創新

採用 1β 製程節點,率先業界推出第二代 8 層堆疊 24GB HBM3

實現 1.2TB/s 以上頻寬及卓越功耗效率

美光科技(Nasdaq: MU)宣布推出業界首款第二代 8 層堆疊(8-High)24GB HBM3,並於今日開始送樣。此產品頻寬達 1.2TB/s 以上,每腳位傳輸速率超過 9.2Gb/s,較目前市面上的 HBM3 解決方案高出 50%。此外,美光第二代 HBM3 的每瓦效能較前幾代產品提升 2.5 倍,刷新 AI 數據中心的關鍵性能、容量及功耗指標。這些改進縮短了業界訓練 GPT-4 等大型語言模型及其更高階版本所需時間,幫助 AI 推論所需的基礎硬體架構發揮最佳功效,並提供卓越的總體擁有成本(TCO)。

micron_hbm3_1.jpg


奠基於先進的 1β DRAM 製程節點,美光領先業界的 HBM 解決方案能在業界標準封裝尺寸中,將24GB的晶粒組裝為8層高度的立方體。美光 12 層堆疊(12-High)36GB HBM3 亦將於 2024 年第一季開始送樣。透過此堆疊高度,美光可提供較競品解決方案高出 50% 的容量。美光第二代 HBM3 性能功耗比和每腳位傳輸速率的改善,對因應當前 AI 資料中心的高功耗需求而言至關重要。美光提供較現行 HBM3 解決方案多出一倍的直通矽晶穿孔(TSV)數量,又以五倍金屬密度減少熱阻抗,並採用高能效資料路徑設計,實現功耗的改善。

micron_hbm3_2.jpg


身為 2.5D/3D 堆疊和先進封裝技術的領導者,美光很榮幸能成為台積電 3DFabric 聯盟的合作夥伴,攜手塑造半導體和系統創新的未來。在第二代 HBM3 產品的研發中,我們與台積電的合作為順利導入和整合 AI 及高效能運算設計應用的運算系統奠定了堅實基礎。台積電已收到美光第二代 HBM3 樣品,並正與我們密切合作,以進行進一步的評估和測試,從而助力客戶的次世代高效能運算應用創新。

在生成式AI方面,美光第二代 HBM3 亦能符合多模態數兆參數AI模型所需。每組堆疊24GB的容量、大於9.2Gbps的每腳位傳輸速率除了能減少大型語言模型 30% 以上的訓練時間,進而降低總體擁有成本外,也能大幅提升每日查詢次數,讓訓練完成的模型在使用時更有效率。不僅如此,美光第二代 HBM3 傲視業界的每瓦效能也替現代 AI 資料中心扎實省下營運費用:若以裝設1000萬個GPU計算,每組堆疊節能5瓦,預計將能在五年內省下多達 5.5 億美元的營運成本。

美光副總裁暨運算產品事業群總經理 Praveen Vaidyanathan表示:「美光第二代 HBM3 的研發重點,在於為客戶及業界提供卓越的 AI 及高效能運算解決方案。我們所考慮的一項重要標準,就是第二代 HBM3 產品能否輕鬆與客戶平臺整合。對此,記憶體內建的自我測試(MBIST)不僅可徹底程式化,還能以規格中的最高每腳位傳輸速率進行測試,有助於改善與客戶的測試能力,提升協作效率,並縮短上市時間。」

NVIDIA 超大規模與高效能運算副總裁 Ian Buck 表示:「生成式 AI 的核心是加速運算,而這種運算則受益於具有高頻寬及能源效率的 HBM。我們與美光在廣泛產品領域的合作已行之有年,也渴望能在第二代 HBM3 上持續合作,以推動 AI 創新。」

美光運用其全球工程組織開發這項突破性的產品,包含於美國進行設計和製程研發、於日本進行記憶體製造,及於台灣進行先進封裝。繼採用 1α 製程節點 24Gb 單體式 DRAM 晶粒的 96GB DDR5 模組問世,以支援高容量需求的伺服器解決方案後,美光今日又宣布推出基於 1β 製程節點 24Gb 晶粒的 24Gb HBM3 產品,為美光業界技術領先地位立下新的里程碑。美光也計劃於 2024 上半年推出採用 1β 製程節點 32Gb 單體式 DRAM 晶粒的 128GB DDR5 模組。這些產品展示了美光在 AI 伺服器領域的領先技術創新。


歡迎造訪 micron.com/HBM3,了解更多產品資訊。


資源

HBM3 產品頁面
Six Five Insider Podcast 節目採訪美光產品管理資深總監 Girish Cherussery
 
▌延伸閱讀