電子科技 NVIDIA 攜手 Red Hat 共同加速企業級 AI 應用

soothepain

full loading
已加入
9/17/03
訊息
21,270
互動分數
1,933
點數
113
網站
www.coolaler.com
NVIDIA (輝達) 與 Red Hat 於 Red Hat Summit 宣布結合 NVIDIA GPU 加速運算平台以及 Red Hat 最新發表的 OpenShift 4,協助用戶針對人工智慧 (AI) 與資料科學領域的 Kubernetes 在地部署。

red_hat_openshift4.jpg


Kubernetes 管理工作以往需耗費 IT 管理者大半天的時間,如今不到一小時就能完成。對許多企業來說,透過 GPU 加速的 AI 與資料科學計畫將能更快上線且更加輕鬆。


更完善的 GPU 加速運算、更簡單的部署程序

這項合作是基於許多企業仰賴 AI 與資料科學將巨量資料轉化為可供參考使用的情資,然而有意義的 AI 與資料分析需借助 GPU 運算的力量,以加快企業 IT 軟體堆疊的運作。從 NVIDIA 驅動程式、容器執行階段到應用程式框架,每個層面的軟體都必須最佳化。


NVIDIA CUDA平行運算架構 以及 CUDA-X 加速函式庫至今已廣獲超過 120 萬開發者使用,用以加速包含 AI、高效能運算以及虛擬桌面基礎架構 (VDI) 等各種領域的應用。此外,由於 NVIDIA 的架構可以通用在從筆電、資料中心到雲端等任何想得到的運算裝置上運行,因此在 GPU 加速應用程式上投入的資源為合理的投資。


不過,加速 AI 與資料科學的工作負載只是第一步。對於許多 IT 組織來說,要把完成最佳化的軟體堆疊直接部署在超大規模的 GPU 加速資料中心,不僅費時且往往成效不彰,而這就是 NVIIDA 與 Red Hat 聯手合作的原因。


Red Hat 的 OpenShift 是領先業界的企業級 Kubernetes 平台。OpenShift 4 的強化讓用戶比以往更容易在叢集環境中部署 Kubernetes。特別是 Red Hat 在 Kubernetes Operators 所挹注的投資,讓許多資料中心的日常管理與應用程式的生命週期管理都能自動化,進而降低管理工作的複雜度。


NVIDIA 持續開發自己的 GPU operator 工具,讓 IT 管理者透過 shell 指令自動完成許多管理工作,如安裝裝置的驅動程式、確保資料中心所有節點的 GPU 容器執行時間都妥善設定以及監控各個 GPU。


透過 NVIDIA 與 Red Hat 的合作,用戶設定好叢集之後,只須執行 GPU operator 工具,便能針對叢集中所有運行節點加入必要的關聯性以簡化整個程序。如同啟用新的雲端資源一樣,企業可以輕鬆地使用 GPU 加速資料中心叢集以及透過 OpenShift 4 運作系統。


預先了解並參與早期試用計畫

Red Hat 與 NVIDIA 邀請共同用戶參與完整的早期試用計畫。欲進一步瞭解,請至網站登記。
 
▌延伸閱讀