Nvidia presenta la seva primera GPU basada en Ampere, que augmenta la barra per al centre de dades AI

En lloc de l'extravagància de diversos dies que normalment és el GTC insígnia de Nvidia a San José, la companyia ha desenvolupat una sèrie de xerrades i anuncis en línia. Fins i tot la nota principal s’ha fet virtual, amb la popular i tradicional conversa de Jensen que es va traslladar a YouTube. Per ser sincer, de totes maneres és més fàcil cobrir les claus d’una transmissió en directe d’una oficina, de totes maneres, tot i que trobo a faltar totes les demostracions pràctiques i la socialització que comporta la conferència presencial.

En qualsevol cas, l’esdeveniment d’aquest any va comptar amb un impressionant conjunt d’anuncis sobre la nova arquitectura Ampere de Nividia, tant per al centre de dades com per a la intel·ligència artificial a la vora, començant per la GPU A100 Ampere-architecture.

GPU Nvidia A100



Nvidia A100: el xip més gran del món de 7 nm inclou 54 mil milions de transistors

La primera GPU basada en Ampere de Nvidia, la seva nova A100 és també el xip de 7 nm més gran i complex del món, amb 54.000 milions de transistors sorprenents. Nvidia reclama guanys de rendiment de fins a 20 vegades més que els models anteriors de Volta. L'A100 no és només per a IA, ja que Nvidia creu que és un dispositiu GPGPU ideal per a aplicacions que inclouen anàlisi de dades, informàtica científica i gràfics al núvol. Per a tasques més lleugeres com inferències, un sol A100 es pot particionar en fins a set talls per executar diverses càrregues en paral·lel. Per contra, NVLink permet que diversos A100 s’acoblin estretament.

Tots els principals proveïdors de núvols han dit que pensen donar suport a l'A100, inclosos Google, Amazon, Microsoft i Baidu. Microsoft ja té previst impulsar l’embolcall de la seva generació de llenguatge natural de Turing passant a l’A100 per a la formació.

TF32 innovador té com a objectiu optimitzar el rendiment de la IA

Juntament amb l’A100, Nvidia llança un nou tipus de punt flotant de precisió única (TF32) per als nuclis tensors de l’A100. És un híbrid de FP16 i FP32 que pretén mantenir alguns dels avantatges del rendiment de passar a FP16 sense perdre tanta precisió. Els nous nuclis de l’A100 també admetran directament FP64, cosa que els farà cada vegada més útils per a diverses aplicacions HPC. Juntament amb un nou format de dades, l’A100 també admet matrius escasses, de manera que es poden representar de manera més eficient xarxes d’IA que contenen molts nodes poc importants.

Nvidia DGX A100: 5 PetaFLOPS en un sol node

Nvidia DGX A100Juntament amb l'A100, Nvidia va anunciar el seu nou equip de centre de dades, el DGX A100, una important actualització dels seus actuals models DGX. El primer DGX A100 ja s’utilitza al laboratori nacional Argonne del Departament d’Energia dels Estats Units per ajudar en la investigació del COVID-19. Cada DGX A100 disposa de 8 GPU A100, que proporcionen 156 TFLOPS de rendiment FP64 i 320 GB de memòria GPU. Té un preu a partir de 'només' (les seves paraules) 199.000 dòlars. Les interconnexions Mellanox permeten múltiples desplegaments de GPU, però també es pot particionar un únic DGX A100 en fins a 56 instàncies per permetre executar una quantitat de càrregues de treball més petites.

A més del seu propi DGX A100, Nvidia espera que diversos dels seus socis tradicionals, inclosos Atos, Supermicro i Dell, incorporin l'A100 als seus propis servidors. Per ajudar en aquest esforç, Nvidia també ven l'accelerador del centre de dades HGX A100.

Nvidia HGX A100 Hyperscale Data Center Accelerator

Nvidia DGX A100 InternsL'HGX A100 inclou els blocs de construcció subjacents del superordinador DGX A100 en un factor de forma adequat per al desplegament al núvol. Nvidia fa algunes afirmacions molt impressionants pel que fa als rendiments de preus i els guanys d’eficiència energètica que els seus socis al núvol poden esperar de passar a la nova arquitectura. En concret, amb els sistemes DGX-1 actuals, Nvidia diu que un clúster de núvol típic inclou 50 unitats DGX-1 per a la formació, 600 CPU per inferència, costa 11 milions de dòlars, ocupa 25 racks i consumeix 630 kW de potència. Amb Ampere i el DGX A100, Nvidia diu que només es necessita un tipus d’ordinador i molt menys: 5 unitats DGX A100, tant per a formació com per inferència, amb un cost d’1 milió de dòlars, que ocupen 1 bastidor i només consumeixen 28 kW de potència. poder.

DGX A100 SuperPOD

Per descomptat, si sou un centre de càlcul hiperescala, mai no podreu tenir prou potència de processador. Per tant, Nvidia ha creat un SuperPOD a partir de 140 sistemes DGX A100, 170 commutadors InfiniBand, tela de xarxa de 280 TB / s (amb 15 km de cable òptic) i 4PB d’emmagatzematge flash. Nvidia afirma que tot aquest maquinari ofereix més de 700 petaflops de rendiment d’IA i que Nvidia l’ha creat en menys de tres setmanes per utilitzar-lo per a la seva pròpia investigació interna. Si teniu l’espai i els diners, Nvidia ha publicat l’arquitectura de referència per al seu SuperPOD, de manera que pugueu construir el vostre. Joel i jo crec que sembla l’objectiu d’un gran article sobre bricolatge. Hauria de poder executar el seu Deep Space Nine projecte de gran escala en aproximadament un minut.

Nvidia amplia el seu superordinador SaturnV

Per descomptat, Nvidia també ha ampliat molt el seu superordinador SaturnV per aprofitar Ampere. SaturnV estava compost per 1800 sistemes DGX-1, però Nividia ara ha afegit 4 SuperPODs DGX A100, portant SaturnV a una capacitat total de 4,6 exaflops. Segons Nvidia, això el converteix en el superordinador d’intel·ligència artificial més ràpid del món.

Per a AI on the Edge Nvidia

Per a AI on the Edge, el nou EGX A100 de Nvidia ofereix un càlcul massiu juntament amb seguretat local i de xarxa

Jetson EGX A100 porta l'A100 a la vora

Ampere i l’A100 no es limiten al centre de dades. Nvidia també va anunciar una GPU d’alta potència i dissenyada específicament per a computació de vora. El Jetson EGX A100 està construït al voltant d’un A100, però també inclou una connectivitat d’alt rendiment Mellanox CX6 DX que s’assegura mitjançant un motor de criptografia de velocitat de línia. La GPU també inclou suport per a models xifrats per ajudar a protegir la propietat intel·lectual d’un OEM. Les actualitzacions dels jocs d’eines basats en Jetson de Nvidia per a diverses indústries (incloses Clara, Jarvis, Aerial, Isaac i Metropolis) ajudaran els fabricants d’OEM a construir robots, dispositius mèdics i una gran varietat d’altres productes de gamma alta que utilitzen l’EGX A100.

Copyright © Tots Els Drets Reservats | 2007es.com