英偉達(Nvidia)在其年度GPU技術(shù)大會(GTC 2018)發(fā)表多項系統(tǒng)級升級功能,以提升其繪圖處理器(GPU)在人工智能(AI)神經(jīng)網(wǎng)路訓(xùn)練方面的性能,并與ARM合作將其技術(shù)擴展到推論領(lǐng)域。
針對可能會在2019年或之后推出的7nm GPU,Nvidia并未提供詳細的開發(fā)藍圖。不過,由于其他競爭對手——如AMD才剛進入這個領(lǐng)域、英特爾(Intel)預(yù)計要到明年后才會推出Nervana加速器,而新創(chuàng)公司Graphcore至今仍不動聲色,這讓Nvidia還有時間慢慢琢磨。就在幾個月前,英特爾和Graphcore都計劃在今年發(fā)布量產(chǎn)芯片。
Nvidia的高階Tesla V100 GPU現(xiàn)可提供32GB HBM2 DRAM,較去年5月發(fā)布時支援更高2倍的記憶體容量。此外,該公司還宣布推出采用臺積電(TSMC) 12nm FinFET制程制造的100W芯片——NVSwitch,支援18個NVLink 2.0埠,可鏈接16個GPU至共享記憶體。
Nvidia率先打造出可支援10kW功率與高達2 petaflops性能的強大AI訓(xùn)練系統(tǒng)。其DGX-2在10U機箱中封裝了12組NVSwitch芯片和16組GPU,足以支援兩個Intel Xeon主機、Infiniband或乙太網(wǎng)路(Ethernet)以及多達60個固態(tài)硬盤(SSD)。
Cray、慧與科技(Hewlett Packard Enterprise;HPE)、IBM、聯(lián)想(Lenovo)、美超微(Supermicro)和泰安電腦(Tyan)等公司都已宣布將在今年6月前開始出貨搭載這款32GB芯片的系統(tǒng)。甲骨文(Oracle)則計劃今年底在云端服務(wù)中搭載該芯片。
Nvidia透過廣泛地升級記憶體、互連與軟件最佳化,以提高AI性能。Nvidia表示,它在兩天內(nèi)完成FAIRSeq翻譯模型的訓(xùn)練,較去年9月時采用8組GPU與16GB記憶體的測試提高了8倍。此外,SAP則指采用ResNet-152模型,使其于影像辨識方面取得10%的進展。
為了超越Nvidia,英特爾計劃在明年量產(chǎn)支援12組100Gbit/s鏈路的Nervana芯片,而Nvidia Volta則支援6個25Gbit/s NVLinks。Nervana芯片支援非同相記憶體,可在打造加速器叢集(包括環(huán)狀網(wǎng)路)時提供更大的靈活性,但在編程時將會更加困難。
為了簡化編碼作業(yè),英特爾宣布開放其Ngraph編譯器,目的在于來自第三方AI架構(gòu)(如Google TensorFlow)的軟件轉(zhuǎn)變?yōu)榭稍谟⑻貭朮eon、Nervana及其FPGA芯片上執(zhí)行的程式碼。
英特爾和幾家資料中心合作伙伴正針對執(zhí)行于加速器原型上的程式碼進行微調(diào)。該公司計劃在5月下旬的開發(fā)者大會上發(fā)布其計劃細節(jié),但預(yù)計要到明年之后才會量產(chǎn)芯片。屆時,Nvidia將英特爾計劃升級加速器開發(fā)藍圖的壓力,而必須盡快推出下一代芯片。
Tirias Research資深分析師Kevin Krewell說 :“目前的Nervana產(chǎn)品將成為一款真正的軟件開發(fā)工具。它是在英特爾收購該公司之前,以28nm制程技術(shù)打造的,因而不至于與Nvidia 12nm Volta設(shè)計相互競爭?!?/p>
他補充說,為Volta升級記憶體和NVSwitch,“讓Nvidia得以在競爭中保持領(lǐng)先。我們都期待采用更先進的下一代制程技術(shù),但是,就量產(chǎn)出貨的芯片而言,Volta目前還沒有競爭對手。”
至于幾家新創(chuàng)公司,Wave Computing預(yù)計今年推出首款針對資料中心和開發(fā)人員打造的訓(xùn)練系統(tǒng)。這一市場還有新的業(yè)者持續(xù)出現(xiàn)中。例如新創(chuàng)公司SambaNova Systems在獲得5,600萬美元的投資后首度在上周登場,其投資方包括Google的母公司Alphabet。
SambaNova Systems的共同創(chuàng)辦人Kunle Olukotun之前還成立了新創(chuàng)公司Afara Websystems,并打造了Niagara服務(wù)器處理器,后來被升陽公司(Sun Microsystems)收購,而Oracle后來并購了升陽。

Nvidia DGX-2將自第三季開始銷售?聯(lián)手ARM加速深度學(xué)習推論計劃
Nvidia目前在資料中心的神經(jīng)網(wǎng)路模型訓(xùn)練方面占主導(dǎo)地位,但在網(wǎng)路邊緣的更廣泛推論領(lǐng)域仍是個新手。為了加強其市場地位,Nvidia和ARM展開合作,將Nvidia的開放來源硬件導(dǎo)入推論作業(yè),成為ARM機器學(xué)習產(chǎn)品計劃的一部份。
Nvidia去年宣布將開放其Xavier推論加速器IP,至今已發(fā)布了多個RTL版本了。這些IP目前正面對來自益華(Cadence)、Ceva和新思科技(Synopsys)等公司的AI加速器競爭。
至于ARM將選擇哪一款Nvidia IP目前仍不清楚。ARM至今只是草擬了將AI芯片作為其廣泛Project Trillium的一部份。ARM目前僅透露計劃將其新興神經(jīng)網(wǎng)路軟件移植到Nvidia IP上。
Nvidia負責Xavier的移動事業(yè)部門副總裁暨總經(jīng)理Deepu Talla表示,他注意到業(yè)界開始使用免費的模組化IP設(shè)計多種芯片。然而,迄今為止還沒有人發(fā)布相關(guān)資訊。
Nvidia希望在推論方面的努力能夠擴展到使用其機器學(xué)習軟件,該軟件同時也用于訓(xùn)練AI模型。為此,該公司發(fā)布了幾項更新其程式碼的計劃,并將其整合至第三方AI架構(gòu)中。
此外,Nvidia最新的TensorRT 4 Runtime軟件也增強對于推論作業(yè)的支持,并整合于1.7版Google TensorFlow架構(gòu)中。Nvidia還將該Runtime軟件與Kaldi語音架構(gòu)、Windows ML和Matlab等整合在一起。

該公司并宣布,上周推出的RTX光影追蹤軟件采用V100 Quadro GV100芯片,支援32GB記憶體和兩組NVLink。
該軟件可為游戲、影片和設(shè)計模型提供更快速、更逼真的渲染,執(zhí)行于Nvidia專有的API以及微軟(Microsoft)用于光線追蹤的DirectX,未來還將支援Vulkan。
Nvidia專業(yè)視覺化部門副總裁Bob Pette表示,相較于基于CPU的渲染,該軟件進一步提升了10倍到100倍;他并預(yù)計這一市場將在2020年達到超過20億美元的規(guī)模。
電子發(fā)燒友App














評論