NVIDIA于本日宣布NVIDIA A100 80GB GPU,這一立異將撐持NVIDIA HGX AI 超等較量爭(zhēng)論平臺(tái)。該GPU內(nèi)存比上一代提拔一倍,能夠?yàn)檠芯咳藛T和工程師們供應(yīng)空前的速度和性能,助力實(shí)現(xiàn)新一輪AI和科學(xué)技術(shù)打破。
全新A100接納HBM2e手藝,可將A100 40GB GPU的高帶寬內(nèi)存增加一倍至80GB,給予每秒跨越2TB的內(nèi)存帶寬。這使得數(shù)據(jù)可以快速傳輸?shù)江h(huán)球最快的數(shù)據(jù)中心GPU A100上,使研究人員可以更快地加快其運(yùn)用,處置懲罰最大范圍的模子和數(shù)據(jù)集。
NVIDIA使用深度進(jìn)修研討副總裁Bryan Catanzaro暗示:“若想取得HPC和AI的最新研討成果,則需求構(gòu)建最大的模子,而這需求比以往更大的內(nèi)存容量和更高的帶寬。A100 80GB GPU所給予的內(nèi)存是六個(gè)月前推出的前代產(chǎn)物的兩倍,突破了每秒2TB的限定,使研討人員能夠應(yīng)對(duì)環(huán)球科學(xué)及大數(shù)據(jù)層面最嚴(yán)肅的挑釁?!?/p>
適用于NVIDIA DGXTM A100 和NVIDIA DGX StationTM A100 體系的NVIDIA A100 80GB GPU還于本日宣布,估計(jì)將于本季度發(fā)貨。
搶先的體系供應(yīng)商源訊、戴爾高新科技、富士通、技嘉高新科技、慧取、海潮、遐想、云達(dá)高新科技、超微估計(jì)將于2021年上半年,供應(yīng)基于HGX A100集成底板的體系,該集成底板搭載4-8個(gè)A100 80GB GPU。
知足大流量數(shù)據(jù)事情負(fù)載需求
A100 80GB版本基于A100 40GB的多樣化功用,成為須要大批數(shù)據(jù)存儲(chǔ)空間的各種使用的抱負(fù)挑選。
DLRM等引薦體系模子為AI鍛煉供應(yīng)了涵蓋數(shù)十億用戶和產(chǎn)品信息的海量表單。A100 80GB可實(shí)現(xiàn)高達(dá)3倍加快,使企業(yè)能夠從新快速鍛煉這一些模子,進(jìn)而供應(yīng)越發(fā)切確的引薦。
HGX服務(wù)器中搭載的A100 80GB還可鍛煉具有更多參數(shù)的最大模子,如GPT-2。GPT-2是具有超凡生成文本才能的自然語(yǔ)言處置模子。這就消除對(duì)數(shù)據(jù)或模子并行架構(gòu)的需求,由于實(shí)現(xiàn)并行架構(gòu)需求破費(fèi)大批工夫,并且跨多個(gè)節(jié)點(diǎn)運(yùn)轉(zhuǎn)遲鈍。
憑仗其多實(shí)例GPU(MIG)手藝,A100可分割為多達(dá)7個(gè)GPU實(shí)例,每一個(gè)實(shí)例具有10GB內(nèi)存。該手藝是一種寧?kù)o的硬件斷絕辦法,正在處置懲罰各種較小的事情負(fù)載時(shí),可實(shí)現(xiàn)GPU最好利用率。關(guān)于如RNN-T等主動(dòng)言語(yǔ)辨認(rèn)模子的AI推理,單個(gè)A100 80GB MIG實(shí)例可處置懲罰更大范圍的批量數(shù)據(jù),將生產(chǎn)中的推理吞吐量進(jìn)步1.25倍。
正在TB級(jí)零售大數(shù)據(jù)剖析基準(zhǔn)上,A100 80GB將其性能增加了2倍,使其成為可對(duì)最大范圍數(shù)據(jù)集舉行快速剖析的抱負(fù)平臺(tái)。伴隨著數(shù)據(jù)的靜態(tài)更新,企業(yè)能夠?qū)崟r(shí)做出環(huán)節(jié)決議。
關(guān)于科學(xué)利用,A100 80GB可為天氣預(yù)報(bào)和量子化學(xué)等行業(yè)供應(yīng)偉大的加快。質(zhì)料摹擬軟件Quantum Espresso接納單節(jié)點(diǎn)A100 80GB實(shí)現(xiàn)了近2倍的吞吐量提拔。
RIKEN盤算科學(xué)中間負(fù)責(zé)人Satoshi Matsuoka透露表現(xiàn):“快速、足夠的內(nèi)存帶寬和容量對(duì)實(shí)現(xiàn)高性能超等盤算運(yùn)用來(lái)講至關(guān)重要。具有80GB HBM2e GPU內(nèi)存的NVIDIA A100供應(yīng)2TB/s的環(huán)球最快帶寬,可扶助我們大幅進(jìn)步運(yùn)用性能?!?/p>
A100 80GB的要害特征
A100 80GB具有NVIDIA Ampere架構(gòu)突破性特征:
●第三代Tensor Core中心:經(jīng)由過(guò)程全新TF32,將上一代Volta架構(gòu)的AI吞吐量進(jìn)步多達(dá)20倍。經(jīng)由過(guò)程FP64,將HPC性能進(jìn)步多達(dá)2.5倍。經(jīng)由過(guò)程 INT8,將AI推理性能進(jìn)步多達(dá)20倍,而且撐持BF16數(shù)據(jù)格式。
●更大、更快的HBM2e GPU內(nèi)存:使內(nèi)存容量增加一倍,正在業(yè)內(nèi)領(lǐng)先實(shí)現(xiàn)2TB/s以上的內(nèi)存帶寬。
●MIG手藝:將單個(gè)自力實(shí)例的內(nèi)存增加一倍,可最多給予七個(gè)MIG,每一個(gè)實(shí)例具有10GB內(nèi)存。
●結(jié)構(gòu)化稀少:將推理稀少模子的速度進(jìn)步2倍。
●第三代NVLink和NVSwitch,相較于上一代互連技能,可以使GPU之間的帶寬增添至本來(lái)的兩倍,將數(shù)據(jù)密集型事情負(fù)載的GPU數(shù)據(jù)傳輸速度進(jìn)步至每秒600 gigabytes。
NVIDIA HGX AI 超等較量爭(zhēng)論平臺(tái)
A100 80GB GPU是NVIDIA HGX AI超等盤算平臺(tái)的環(huán)節(jié)組件。該平臺(tái)將NVIDIA GPU、NVIDIA NVLink? 、NVIDIA InfiniBand網(wǎng)絡(luò)和全面優(yōu)化的NVIDIA AI和HPC軟件倉(cāng)庫(kù)的所有功效整合在一起,以給予最優(yōu)勝的運(yùn)用性能。該平臺(tái)使研究人員和科學(xué)家可以將HPC、數(shù)據(jù)闡明和深度進(jìn)修盤算技術(shù)結(jié)合起來(lái),配合推進(jìn)科學(xué)提高。