對(duì)于那些希望讓GPU加速的人工智能和數(shù)據(jù)科學(xué)項(xiàng)目更快地啟動(dòng)和運(yùn)行的企業(yè)來(lái)說(shuō),生活變得更容易了。
NVIDIA和Red Hat推出了NVIDIA的GPU加速計(jì)算平臺(tái)和剛剛宣布的Red Hat OpenShift 4的組合,以加速用于AI和數(shù)據(jù)科學(xué)的本地Kubernetes部署。結(jié)果是:Kubernetes的管理任務(wù)過(guò)去常常讓IT管理員在一天中的大部分時(shí)間內(nèi)完成,現(xiàn)在不到一個(gè)小時(shí)就可以完成。
更多的GPU加速,更少的部署麻煩
這種合作是在企業(yè)依靠人工智能和數(shù)據(jù)科學(xué)將大量數(shù)據(jù)轉(zhuǎn)化為可操作智能的時(shí)候進(jìn)行的。但有意義的人工智能和數(shù)據(jù)分析工作,需要借助GPU計(jì)算加速整個(gè)企業(yè)IT軟件堆棧。從NVIDIA驅(qū)動(dòng)程序到容器運(yùn)行時(shí)再到應(yīng)用程序框架,每一層軟件都需要優(yōu)化。我們的CUDA并行計(jì)算架構(gòu)和CUDA- x加速庫(kù)已經(jīng)被超過(guò)120萬(wàn)名開(kāi)發(fā)人員的社區(qū)所接受,他們可以在從人工智能到高性能計(jì)算到VDI的廣泛領(lǐng)域內(nèi)加速應(yīng)用程序。
而且,由于NVIDIA的通用架構(gòu)運(yùn)行在每一臺(tái)計(jì)算機(jī)設(shè)備上,從筆記本電腦到數(shù)據(jù)中心再到云計(jì)算,因此投資于GPU加速應(yīng)用程序很容易證明這一點(diǎn),而且很有意義。然而,加快人工智能和數(shù)據(jù)科學(xué)的工作量只是第一步。在大規(guī)模、GPU加速的數(shù)據(jù)中心中以正確的方式部署優(yōu)化的軟件堆棧,對(duì)于IT組織來(lái)說(shuō)可能是令人沮喪和耗時(shí)的。這就是我們與Red Hat合作的地方。
Red Hat Openshift是業(yè)界領(lǐng)先的企業(yè)級(jí)Kubernetes平臺(tái)。Openshift 4的改進(jìn)使得跨集群部署Kubernetes比以往任何時(shí)候都容易。Red Hat對(duì)Kubernetes運(yùn)營(yíng)商的投資,尤其通過(guò)自動(dòng)化許多日常數(shù)據(jù)中心管理和應(yīng)用程序生命周期管理任務(wù),降低了管理復(fù)雜性。
NVIDIA一直在開(kāi)發(fā)自己的GPU操作程序,以自動(dòng)化IT管理人員以前通過(guò)shell腳本完成的許多工作,比如安裝設(shè)備驅(qū)動(dòng)程序,確保數(shù)據(jù)中心的所有節(jié)點(diǎn)上都有合適的GPU容器運(yùn)行時(shí),以及監(jiān)控GPU。由于我們?cè)赗ed Hat上的工作,一旦集群設(shè)置好,只需運(yùn)行GPU操作符就可以向集群中的工作節(jié)點(diǎn)添加必要的依賴項(xiàng)。就是這么簡(jiǎn)單。對(duì)于一個(gè)組織來(lái)說(shuō),讓它的GPU驅(qū)動(dòng)的數(shù)據(jù)中心集群使用OpenShift 4運(yùn)行起來(lái),就像使用新的云資源一樣簡(jiǎn)單。
原文出自:https://itbrief.com.au/story/nvidia-and-red-hat-work-together-to-accelerate-enterprise-ai
來(lái)源:itbrief