NVIDIA CEO Jensen Huang ha dato il calci della conferenza sulla tecnologia grafica dell’azienda (GTC) con un discorso chiave a chiave pieno di annunci. La chiave rivela include la prima CPU discreta di NVIDIA, denominata Grace, nonché la sua architettura tramoggia di prossima generazione, che arriverà più tardi nel 2022.
The Grace CPU SuperChip è la prima CPU discreta di Nvidia di sempre, ma non sarà al centro del tuo prossimo PC di gioco. NVIDIA ha annunciato la CPU della grazia nel 2021, ma questo superamento, come la chiama Nvidia, è qualcosa di nuovo. Mette insieme due cpus di grazia, simile a Apple M1 Ultra, collegata attraverso la tecnologia NVLINK di NVIDIA.
A differenza della M1 Ultra, tuttavia, la grazia SuperChip non è costruita per prestazioni generali. La GPU 144-core è costruita per A.I., Science di dati e applicazioni con elevati requisiti di memoria. La CPU utilizza ancora core del braccio, nonostante l’offerta di $ 40 miliardi di dollari di NVIDIA per acquistare la Società.
Oltre alla grazia SuperChip, Nvidia ha mostrato la sua architettura tramoggia di prossima generazi1. Questa non è l’architettura che alimenta la RTX 4080, secondo la speculazi1. Invece, è costruito per gli acceleratori dei data center di NVIDIA. NVIDIA sta debutando l’architettura nella GPU H100, che sostituirà il precedente A100 di NVIDIA.
Nvidia chiama il H100 il “chip più avanzato del mondo”. È costruito utilizzando il processo di produzione N4 di TSMC TSMC, imballando in uno sconcertante 80 miliardi di transistor. Come se non fosse abbastanza, è anche la prima GPU per supportare la memoria PCIE 5.0 e HBM3. NVIDIA afferma che solo 20 GPU H100 possono “sostenere l’equivalente del traffico Internet del mondo intero”, mostrando il potere di PCIe 5.0 e HBM3.
I clienti saranno in grado di accedere alla GPU attraverso i server DGX di quarta generazione di NVIDIA, che combinano otto GPU H100 e 640 GB di memoria HBM3. Queste macchine, secondo Nvidia, forniscono 32 petaflops di A.I. Performance, che è sei volte tanto quanto l’A100 dell’ultimo GEN.
Se il DGX non offre abbastanza potenza, NVIDIA offre anche il suo superpod DGX H100. Ciò si basa su Nvidia affittando i suoi acceleratori superpodi l’anno scorso, consentendo a quelli senza il budget per i massicci centri dati per sfruttare il potere di A.I. Questa macchina combina 32 sistemi DGX H100, offrendo un massiccio 20 TB di memoria HBM3 e 1 EXOFLOP di A.I. prestazione.
NVIDIA sta debutando la nuova architettura con il proprio supercomputer EOS, che include 18 superpodi DGX H100 per un totale di 576 GPU G100. Abilitazione di questo sistema è la quarta generazione di Nvlink NVIDIA, che fornisce un’elevata interconnessione di larghezza di banda tra massicci cluster di GPU.
Poiché il numero di GPU scale, NVIDIA ha mostrato che l’ultimo-gen A100 sarebbe flatline. Hopper e il quarto-gen Nvlink non hanno questo problema, secondo la compagnia. Poiché il numero di GPU scale nelle migliaia, NVIDIA afferma che i sistemi basati su H100 possono fornire fino a nove volte più velocemente A.I. addestramento rispetto ai sistemi basati su A100.
Questa architettura next-gen fornisce “benefici prestazionali che cambiano gioco”, secondo Nvidia. Anche se eccitante per il mondo di A.I. E computing ad alte prestazioni, siamo ancora in attesa di annunci con impazienza attorno al prossimo GRX 4080 di NVIDIA, che si dice che venga lanciato entro la fine dell’anno.
Lascia un commento