
(Bloomberg/Ian King) — I nuovi attesissimi prodotti per data center Rubin di Nvidia Corp. sono prossimi al rilascio quest’anno e i clienti potranno presto provare la tecnologia, contribuendo ad accelerare lo sviluppo dell’intelligenza artificiale.
Tutti e sei i nuovi chip Rubin provengono da partner di produzione e hanno già superato alcuni dei test fondamentali che dimostrano che sono sulla buona strada per l’implementazione da parte dei clienti, ha affermato Nvidia. L’amministratore delegato Jensen Huang ha pubblicizzato i prodotti durante una presentazione principale alla fiera CES di Las Vegas lunedì.
“La corsa per l’IA è iniziata”, ha detto. “Tutti stanno cercando di arrivare al livello successivo.”
Le osservazioni di Huang segnalano che Nvidia sta mantenendo il suo vantaggio come principale produttore di acceleratori di intelligenza artificiale, i chip utilizzati dagli operatori dei data center per sviluppare ed eseguire modelli di intelligenza artificiale.
Rubin è l’ultimo acceleratore di Nvidia ed è 3,5 volte migliore nell’addestramento e cinque volte migliore nell’esecuzione del software AI rispetto al suo predecessore, Blackwell, ha affermato la società. Una nuova unità di elaborazione centrale è dotata di 88 core, gli elementi chiave per l’elaborazione dei dati, e fornisce il doppio delle prestazioni del componente che sta sostituendo.
L’azienda fornirà i dettagli dei suoi nuovi prodotti all’inizio dell’anno rispetto a quanto fa di solito, come parte di una spinta per mantenere l’industria agganciata al suo hardware, che ha sostenuto un’esplosione nell’uso dell’intelligenza artificiale. Nvidia di solito si tuffa nei dettagli del prodotto durante il suo evento GTC primaverile a San Jose, in California.
Per Huang, il CES è l’ennesima tappa della sua maratona di apparizioni agli eventi, dove ha annunciato prodotti, collaborazioni e investimenti tutti volti a dare slancio all’implementazione dei sistemi di intelligenza artificiale. La sua controparte presso il rivale più vicino di Nvidia, Lisa Su di Advanced Micro Devices Inc., terrà una presentazione principale allo show più tardi lunedì.
Alcuni a Wall Street hanno espresso preoccupazione per il fatto che la concorrenza stia aumentando per Nvidia e che la spesa per l’intelligenza artificiale non possa continuare al ritmo attuale. Anche gli operatori dei data center stanno sviluppando i propri acceleratori di intelligenza artificiale. Ma Nvidia ha mantenuto previsioni rialziste a lungo termine che puntano a un mercato totale di trilioni di dollari.
Il nuovo hardware, che include anche componenti di rete e connettività, farà parte del supercomputer DGX SuperPod e sarà disponibile anche come prodotti individuali che i clienti potranno utilizzare in modo più modulare. L’incremento delle prestazioni è necessario perché l’intelligenza artificiale si è spostata verso reti di modelli più specializzate che non solo vagliano enormi quantità di input, ma devono risolvere problemi particolari attraverso processi a più fasi.
L’azienda ha sottolineato che i sistemi basati su Rubin saranno più economici da gestire rispetto alle versioni Blackwell perché restituiranno gli stessi risultati utilizzando un numero inferiore di componenti. Microsoft Corp. e altri grandi fornitori di computer remoti saranno tra i primi a implementare il nuovo hardware nella seconda metà dell’anno, ha affermato Nvidia.
Per ora, la maggior parte della spesa per computer basati su Nvidia proviene dai budget di spesa in conto capitale di una manciata di clienti, tra cui Microsoft, Google Cloud di Alphabet Inc. e AWS di Amazon.com Inc.. Nvidia sta promuovendo software e hardware volti ad ampliare l’adozione dell’intelligenza artificiale in tutta l’economia, compresa la robotica, l’assistenza sanitaria e l’industria pesante.
Come parte di questo impegno, Nvidia ha annunciato un gruppo di strumenti progettati per accelerare lo sviluppo di veicoli e robot autonomi.
Altre storie come questa sono disponibili su Bloomberg.com
©2026 Bloomberg LP



