Nvidia zdrobi nove preizkuse MLPerf, toda Googlova prihodnost je obetavna

NVIDIA DGX SuperPOD 2020

Doslej v merilih MLPerf AI ni bilo nobenih težav. Nvidia ne le zmaga v vsem, ampak je še vedno edino podjetje, ki celo tekmuje v vsaki kategoriji. Današnja objava rezultatov MLPerf Training 0.7 ni kaj dosti drugačna. Nvidia je svoje grafične procesorje A100 začela pošiljati pravočasno, da je predstavila rezultate v kategoriji Released za komercialno dostopne izdelke, kjer je dosegla vrhunsko uspešnost. Vendar je bilo nekaj zanimivih Googlovih rezultatov v kategoriji Raziskave.

MLPerf Training 0.7 doda tri pomembna nova merila uspešnosti

MLPerf je dodal dve novi in ​​eno nadgrajeno merilo za usposabljanje, da bi odseval naraščajočo raznolikost uporabe strojnega učenja v proizvodnih nastavitvah. Prvi, model globokega učenja (DLRM) vključuje usposabljanje priporočevalnega mehanizma, ki je med drugimi velikimi kategorijami še posebej pomemben v aplikacijah za e-poslovanje. Kot namig za njegovo uporabo je usposobljen na množici podatkov o razmerju med prikazi in kliki.



Drugi dodatek je čas usposabljanja za BERT, splošno spoštovan model obdelave naravnih jezikov (NLP). Medtem ko je bil BERT sam zgrajen za ustvarjanje večjih in bolj zapletenih različic, je primerjalno analiziranje časa usposabljanja na izvirniku dober posrednik za razmestitve NLP, ker je BERT eden izmed razredov modelov transformatorjev, ki se v ta namen pogosto uporabljajo.



Nazadnje, s tem, da postaja učenje okrepitve (RL) vedno bolj pomembno na področjih, kot je robotika, je merilo MiniGo nadgrajeno na MiniGo Full (na plošči 19 x 19), kar je zelo smiselno.

MLPerf Training je z novo izdajo svoji zbirki dodal tri pomembna nova merila uspešnosti

MLPerf Training je z novo izdajo svoji zbirki dodal tri pomembna nova merila uspešnosti



Rezultati

Komercialno dostopne alternative Nvidiji večinoma v nekaterih kategorijah sploh niso sodelovale ali niti Nvidijine zadnje generacije V100 niso mogle preseči zmogljivosti za vsak procesor. Izjema je Googlov TPU v3, ki je v primerjavi z ResNet-50 premagal V100 za 20 odstotkov, za A100 pa šele za 20 odstotkov. Zanimivo je bilo tudi videti, kako se Huawei s svojim procesorjem Ascend tekmuje z uglednim vstopom za ResNet-50. Čeprav podjetje še vedno močno zaostaja za Nvidijo in Googlom na področju umetne inteligence, se še naprej osredotoča na to.

Kot lahko vidite iz spodnjega grafikona, je A100 od 1,5-krat do 2,5-krat večji od V100, odvisno od referenčne vrednosti:

Kot običajno se je Nvidia večinoma pomerila sama s seboj - ta diaprojekcija na pospeševanje procesorja v primerjavi z V100

Kot ponavadi se je Nvidia večinoma pomerila sama s seboj. Ta diaprojekcija na pospeševanje procesorja nad V100



Če imate proračun, Nvidijina rešitev tudi presega vse, kar je bilo predloženo. Modeli, ki so včasih trajali dneve, se lahko v nekaj minutah usposobijo za SELENE SuperPOD podjetja, ki vključuje 2.048 A100-jev:

Kot je bilo pričakovano, Nvidia

Po pričakovanjih je Nvidijin SuperPOD s sedežem v Amperu podrl vse rekorde glede časa treninga. Upoštevajte, da je Googlova oddaja uporabila samo 16 TPU-jev, medtem ko je SuperPOD uporabil tisoč ali več, zato je za oceno čipov head-to-head bolje uporabiti predhodni grafikon s številkami na procesor.

Nvidijina arhitektura je še posebej primerna za učenje ojačitve

Medtem ko so številne vrste specializirane strojne opreme zasnovane posebej za strojno učenje, jih večina odlikuje bodisi pri usposabljanju bodisi pri sklepanju sklepov. Okrepitveno učenje (RL) zahteva preplet obeh. Nvidijina strojna oprema, ki temelji na GPGPU, je idealna za to nalogo. In ker se podatki med vadbo generirajo in porabijo, so Nvidijine hitre povezave v pomoč tudi za RL. Nazadnje, ker so roboti za trening v resničnem svetu dragi in potencialno nevarni, so Nvidijina simulacijska orodja, pospešena z GPU, koristna pri vadbi RL v laboratoriju.

Google namiguje z impresivnimi rezultati TPU v4

Google Research se je s prihodnjim čipom TPU v4 predstavil impresivno

Google Research se je s prihodnjim čipom TPU v4 predstavil impresivno

Morda je najbolj presenetljiva novica novih meril uspešnost Googlovega TPU v4. Medtem ko je v4 TPU v kategoriji Raziskave - kar pomeni, da v prodaji ne bo na voljo vsaj 6 mesecev, je njegova zmogljivost na skoraj amperski ravni za številne naloge usposabljanja precej impresivna. Zanimivo je bilo tudi videti, da se Intel s kmalu izpuščenim CPU natehta s spodobnim izvajalcem pri učenju okrepitev. To bi mu moralo pomagati pri prihodnjih robotiziranih aplikacijah, ki morda ne bodo zahtevale ločenega grafičnega procesorja. Celotni rezultati so na voljo pri MLPerf.

Copyright © Vse Pravice Pridržane | 2007es.com