A LMA FINANZA
← Home
☀️
🤖 Tech & AI

Nvidia GTC 2026: Jensen Huang vede $1 trilione di ordini — presentata Vera Rubin, la piattaforma AI di prossima generazione

17 Marzo 2026 · Redazione Alma Finanza

Il GTC 2026, la conferenza annuale di Nvidia dedicata agli sviluppatori e all'intelligenza artificiale, si e' aperta il 16 marzo a San Jose con 30.000 partecipanti in presenza. Il keynote di Jensen Huang, CEO e cofondatore di Nvidia, ha dominato la scena tech globale: la stima di $1 trilione di ordini cumulati tra le piattaforme Blackwell e Vera Rubin entro il 2027, la presentazione della nuova architettura Vera Rubin, partnership strategiche con Groq e Uber, la fisica dei robot applicata al mondo reale e il ventesimo anniversario di CUDA. Il titolo Nvidia (NVDA) ha risposto con un rialzo nella seduta del 17 marzo, confermando l'interesse del mercato per gli annunci della conferenza.

Il keynote di Jensen Huang: $1 trilione in ordini entro il 2027

Il momento piu' atteso del GTC 2026 e' stato il keynote di Jensen Huang, che ha delineato la visione di Nvidia per i prossimi anni con una dichiarazione destinata a fare rumore sui mercati: il CEO ha stimato che la domanda combinata delle piattaforme Blackwell (la generazione attuale, in piena produzione) e Vera Rubin (la prossima generazione, annunciata al GTC) potrebbe generare ordini superiori a $1 trilione entro il 2027.

Per dare la misura dell'ambizione di questa proiezione: l'intero fatturato di Nvidia nell'anno fiscale 2026 (concluso a gennaio 2026) si e' attestato intorno a $130 miliardi, con i Data Center come segmento largamente dominante. Raggiungere un backlog/ordini da $1 trilione nell'arco di poco piu' di due anni richiederebbe una crescita composta straordinaria — ma Jensen Huang ha sottolineato come la diffusione dell'AI nelle enterprise, nei datacenter sovrani e nell'automazione fisica stia ancora muovendo i suoi primissimi passi su scala globale.

IndicatoreDato / ProiezioneContesto
Partecipanti GTC 202630.000 in presenzaSan Jose, 16-19 marzo 2026
Ordini stimati Blackwell + Vera Rubin$1 trilioneStima cumulativa entro il 2027 (dichiarazione Jensen Huang)
Ricavi Nvidia FY2026 (anno fiscale)~$130BAnno concluso gennaio 2026, crescita +114% YoY
Reazione titolo NVDA il 17 marzoIn rialzoSeduta 17 marzo 2026
GPU deployate dai Cloud Partner>1 milioneAnno su anno, footprint AI factory raddoppiato YoY
Robot esposti al GTC110Padiglione "Physical AI", 17-19 marzo

Vera Rubin: la nuova piattaforma AI di prossima generazione

L'annuncio tecnico piu' atteso del GTC 2026 e' stato la presentazione ufficiale della piattaforma Vera Rubin, che rappresenta il successore dell'architettura Blackwell nella roadmap di Nvidia. Il nome e' un tributo a Vera Rubin, l'astrofisica statunitense le cui ricerche hanno fornito la prima evidenza osservativa convincente dell'esistenza della materia oscura.

La piattaforma Vera Rubin e' composta da due elementi distinti che lavorano in sinergia:

  • CPU Vera: Il processore centrale di nuova generazione progettato da Nvidia, ottimizzato per orchestrare i carichi di lavoro AI su scala datacenter. La CPU Vera succede alla Grace CPU presente nelle piattaforme attuali e porta miglioramenti sostanziali in termini di larghezza di banda di memoria e latenza di interconnessione.
  • GPU Rubin: L'acceleratore grafico di nuova generazione, progettato per il training e l'inferenza dei modelli AI di nuova generazione. La GPU Rubin e' il cuore computazionale della piattaforma e promette un salto prestazionale significativo rispetto alle GPU Blackwell.

Insieme, CPU Vera e GPU Rubin formano il backbone — la spina dorsale — dei server AI di prossima generazione che Nvidia prevede di consegnare ai clienti enterprise e ai cloud provider a partire dal 2027. La piattaforma e' progettata per essere compatibile con l'ecosistema NVLink e NVSwitch gia' adottato dai clienti Blackwell, facilitando la transizione generazionale.

💡 Impara: La legge di scaling dell'AI e perche' conta per Nvidia

L'industria dell'intelligenza artificiale segue una dinamica ben precisa: modelli piu' grandi — con piu' parametri — producono risultati migliori, ma richiedono hardware sempre piu' potente per essere addestrati. Nvidia domina questo ciclo: ogni generazione di GPU (Hopper → Blackwell → Vera Rubin) offre prestazioni esponenzialmente superiori, consentendo ai laboratori di AI di addestrare modelli che sarebbero stati impraticabili con la generazione precedente. Il mercato interpreta il passaggio da miliardi a trilioni di dollari in ordini come la conferma che l'AI computing si trova ancora nelle fasi iniziali di adozione: la curva di scaling non mostra segni di appiattimento, e la domanda di GPU continua a superare l'offerta disponibile.

Roadmap generazionale: da Hopper a Vera Rubin

Nvidia ha confermato al GTC 2026 una roadmap di aggiornamenti architetturali con cadenza biennale. La successione delle piattaforme riflette la strategia dell'azienda di anticipare e alimentare la crescita della domanda di AI computing:

Architettura / PiattaformaAnno lancioGPU principaleStato (marzo 2026)
Hopper2022H100 / H200In fase di sostituzione progressiva
Blackwell2024-2025B100 / B200 / GB200In piena produzione e consegna
Vera Rubin2027 (previsto)GPU Rubin + CPU VeraAnnunciata al GTC 2026

DLSS 5: il futuro del rendering neurale

Tra gli annunci del GTC 2026 figura anche DLSS 5 (Deep Learning Super Sampling versione 5), la quinta iterazione della tecnologia di Nvidia che utilizza reti neurali per migliorare la qualita' delle immagini nei videogiochi e nelle applicazioni 3D in tempo reale. DLSS 5 porta il concetto di neural rendering guidato da 3D: invece di semplicemente aumentare la risoluzione di un'immagine gia' renderizzata (come facevano le versioni precedenti), DLSS 5 utilizza dati 3D della scena per predire e ricostruire i dettagli con una qualita' visiva prossima al ray tracing completo, a una frazione del costo computazionale.

L'importanza di DLSS 5 va oltre il gaming: le stesse tecnologie di rendering neurale trovano applicazione nella simulazione robotica, nella visualizzazione architetturale e nella progettazione industriale — tutti mercati in cui Nvidia sta ampliando la propria presenza con la piattaforma Omniverse.

Partnership Groq: 35x tokens/watt rispetto a Rubin GPU

Una delle partnership piu' sorprendenti annunciate al GTC 2026 e' quella tra Nvidia e Groq, startup specializzata in chip per inferenza AI (Language Processing Unit, LPU). L'accordo prevede l'integrazione del Groq 3 LPU in rack da 256 LPU all'interno dell'ecosistema di infrastruttura AI di Nvidia.

Il dato tecnico piu' significativo: il rack Groq da 256 LPU garantisce un'efficienza energetica di 35 volte superiore rispetto alle GPU Rubin per il task specifico dell'inferenza AI, misurata in token generati per watt consumato (tokens/watt). Questo posiziona il Groq LPU come soluzione complementare — non sostitutiva — alle GPU Nvidia per i carichi di lavoro di inferenza a bassa latenza, dove l'efficienza energetica e' critica.

ChipTipoUso ottimaleEfficienza inferenza
GPU Rubin (Nvidia)GPUTraining + inferenza general-purposeRiferimento (1x)
Groq 3 LPULPU (Language Processing Unit)Inferenza a bassa latenza, tokens/watt35x vs Rubin GPU

La partnership rivela una logica di ecosistema: Nvidia non punta a dominare ogni singolo segmento dell'infrastruttura AI, ma a posizionarsi come il sistema operativo dell'AI — integrando chip complementari (come quelli di Groq) nell'ecosistema CUDA e NVLink per offrire ai clienti la soluzione ottimale per ogni caso d'uso.

💡 Impara: Cos'e' un LPU e come si differenzia da una GPU?

Un LPU (Language Processing Unit) e' un tipo di processore specializzato esclusivamente per l'esecuzione (inferenza) di modelli linguistici di grandi dimensioni (LLM). A differenza di una GPU — progettata per essere versatile e gestire sia training che inferenza di qualsiasi tipo di rete neurale — un LPU e' ottimizzato per un singolo task: generare token il piu' velocemente possibile con il minor consumo energetico. Il vantaggio e' enorme in termini di latenza (risposta quasi istantanea) e costo per token generato. Lo svantaggio: non puo' essere utilizzato per addestrare modelli o per task diversi dall'inferenza su LLM. Groq e' il pioniere di questa categoria di chip e il Groq 3 LPU rappresenta l'ultima generazione della sua architettura.

Partnership Uber: guida autonoma in 28 citta' su 4 continenti entro il 2028

Il GTC 2026 ha visto anche il lancio di una partnership tra Nvidia e Uber per il deployment della guida autonoma su scala commerciale. L'accordo prevede che la tecnologia Drive Hyperion di Nvidia alimenti una flotta di veicoli a guida autonoma che operera' in 28 citta' distribuite su 4 continenti entro il 2028.

Uber ha scelto di non sviluppare internamente la propria piattaforma autonoma — dopo la cessione di Uber ATG a Aurora nel 2020 — e si posiziona come aggregatore di offerta: la piattaforma Uber mettera' in contatto i passeggeri con i veicoli autonomi di vari partner tecnologici, tra cui quelli basati su Drive Hyperion. La presenza in 28 citta' su 4 continenti entro il 2028 rappresenterebbe il deployment commerciale di robotaxi su scala globale piu' ambizioso mai annunciato.

Drive Hyperion: Nissan, BYD, Geely, Isuzu, Hyundai per Level 4

La piattaforma Drive Hyperion di Nvidia — che integra hardware (GPU automotive), software (DriveOS) e dati di training per la guida autonoma — ha consolidato la sua posizione come standard de facto per i costruttori che puntano alla guida autonoma di Level 4. Al GTC 2026, Nvidia ha confermato che i seguenti produttori stanno sviluppando veicoli autonomi Level 4 su Drive Hyperion:

  • Nissan — costruttore giapponese storico, partner Nvidia per la guida autonoma avanzata
  • BYD — leader cinese dei veicoli elettrici, con il piu' alto volume di produzione EV al mondo nel 2025
  • Geely — gruppo cinese proprietario di marchi come Volvo Cars, Polestar e Zeekr
  • Isuzu — specializzato in veicoli commerciali pesanti, con applicazioni per trasporto merci autonomo
  • Hyundai — gruppo coreano con ambizioni significative nell'elettrico e nell'autonomia

💡 Impara: La guida autonoma Level 4 e il salto verso il deployment commerciale

I livelli di automazione della guida, definiti dalla Society of Automotive Engineers (SAE), vanno da 0 (nessuna automazione) a 5 (automazione completa in ogni condizione). Il Level 4 significa che il veicolo puo' guidarsi completamente da solo in un dominio operativo definito (per esempio, un'area urbana specifica o condizioni meteorologiche non estreme) senza alcun intervento umano. Il conducente non deve monitorare la strada, ma il sistema ha limiti di contesto. La partnership Nvidia-Uber per 28 citta' entro il 2028 rappresenta un punto di svolta storico: la guida autonoma passa dalla fase di sperimentazione (robo-taxi in aree ristrette) al deployment commerciale di massa. Per i mercati finanziari, questo segnala che la monetizzazione della guida autonoma potrebbe iniziare prima del previsto.

Physical AI: 110 robot al padiglione GTC

Una delle sezioni piu' spettacolari del GTC 2026 e' stata il padiglione dedicato alla "Physical AI" — la strategia di Nvidia per portare l'intelligenza artificiale nel mondo fisico attraverso robot, sistemi di automazione industriale e veicoli autonomi. Al padiglione erano esposti 110 robot di produttori e startup provenienti da tutto il mondo, tutti sviluppati con la piattaforma Nvidia (Isaac, Cosmos, o Drive).

Jensen Huang ha dedicato una parte significativa del suo keynote alla tesi che la robotica sia il prossimo grande mercato per l'AI computing: mentre i modelli linguistici hanno dimostrato che le reti neurali possono ragionare e generare testo, la prossima frontiera e' insegnare ai sistemi AI a percepire, pianificare e agire nel mondo fisico in modo affidabile. Nvidia si posiziona come il fornitore di infrastruttura computazionale per questa transizione, con piattaforme come Isaac (per la simulazione robotica) e Cosmos (per la generazione di dati sintetici di training).

Cloud Partners: AI factory footprint raddoppiato YoY, oltre 1 milione di GPU

Nvidia ha condiviso al GTC 2026 i dati sul deployment dell'infrastruttura AI da parte dei suoi principali cloud partner (Microsoft Azure, Google Cloud, Amazon AWS, Oracle Cloud e altri). Il dato aggregato piu' significativo: il footprint delle AI factory dei cloud partner e' raddoppiato anno su anno, con oltre 1 milione di GPU Nvidia deployate nelle loro infrastrutture a livello globale.

Il termine "AI factory" — coniato da Jensen Huang — indica un datacenter ottimizzato esclusivamente per il calcolo AI, in contrapposizione ai datacenter tradizionali che gestiscono carichi di lavoro misti. La distinzione e' rilevante: un'AI factory e' progettata intorno alle GPU ad alta densita', con sistemi di raffreddamento avanzati (liquido o immersione), reti di interconnessione ad altissima velocita' (come NVLink e InfiniBand) e software ottimizzato per massimizzare l'utilizzo delle GPU. Il raddoppio del footprint YoY conferma che la domanda di infrastruttura AI non sta rallentando.

DGX Station con GB300 Superchip: prima consegna ad Andrej Karpathy

Nvidia ha annunciato al GTC 2026 la DGX Station, una workstation AI di ultima generazione equipaggiata con il GB300 superchip — la variante desktop/workstation della piattaforma Blackwell Ultra. La DGX Station e' progettata per ricercatori, ingegneri AI e team che necessitano di potenza computazionale da datacenter in un fattore di forma da workstation (puo' essere installata in un ufficio o laboratorio senza le infrastrutture di un datacenter).

Il simbolismo dell'annuncio non e' sfuggito al pubblico tech: Andrej Karpathy — ex direttore dell'AI di Tesla, ex ricercatore di OpenAI e tra le figure piu' rispettate nel campo dell'AI — e' stato indicato come il destinatario della prima DGX Station con GB300 consegnata. Karpathy ha fondato Eureka Labs, una startup focalizzata sulla creazione di strumenti AI per l'educazione, e utilizza la DGX Station per i propri esperimenti di ricerca.

20° Anniversario di CUDA: il fondamento invisibile dell'AI moderna

Il GTC 2026 ha coinciso con un traguardo storico per Nvidia: il ventesimo anniversario di CUDA (Compute Unified Device Architecture), la piattaforma di programmazione parallela lanciata nel 2006 che ha trasformato le GPU da acceleratori grafici a processori di calcolo general-purpose.

Senza CUDA, l'attuale rivoluzione dell'AI semplicemente non sarebbe avvenuta nella forma in cui la conosciamo: e' stato CUDA a rendere possibile il paper di 2012 di AlexNet (che ha dimostrato per la prima volta la superiorita' delle deep neural network su GPU), e da li' e' iniziata la catena di eventi che ha portato ai transformer, a GPT e all'esplosione dell'AI generativa. In vent'anni, l'ecosistema CUDA ha accumulato oltre 5 milioni di sviluppatori nel mondo e migliaia di librerie ottimizzate, creando il "fossato competitivo" piu' profondo che Nvidia possiede — piu' di qualsiasi vantaggio hardware.

AnnoMilestone CUDA / Nvidia AI
2006Lancio di CUDA 1.0: le GPU diventano programmabili per calcolo general-purpose
2012AlexNet vince ImageNet usando GPU NVIDIA + CUDA: nasce il deep learning moderno
2016Lancio di Tesla P100 (architettura Pascal): prima GPU dedicata all'AI training
2017Volta architecture + Tensor Core: accelerazione specifica per AI
2020A100 (Ampere): GPU che alimenta l'addestramento di GPT-3
2022H100 (Hopper): la GPU dell'era ChatGPT
2024-2025Blackwell: in produzione, ordini record
2026 (GTC)Vera Rubin annunciata; 20° anniversario di CUDA

Partnership Enterprise: Oracle, IBM, Dell

Nvidia ha annunciato al GTC 2026 una serie di accordi con player storici dell'IT enterprise per portare l'AI nelle grandi organizzazioni:

  • Oracle: Integrazione approfondita tra la piattaforma GPU di Nvidia e Oracle Cloud Infrastructure (OCI), con focus sui carichi di lavoro AI enterprise e il supporto per applicazioni Oracle AI. Oracle si sta posizionando aggressivamente come alternativa ai big cloud americani per le aziende che cercano un partner AI enterprise affidabile.
  • IBM: Partnership per portare le capacita' AI di Nvidia nelle implementazioni enterprise di IBM watsonx, la piattaforma AI di IBM. La collaborazione punta alle aziende che vogliono deployare AI su dati proprietari senza affidarsi al cloud pubblico (AI on-premises o hybrid).
  • Dell Technologies: Espansione della partnership per i sistemi PowerEdge con GPU Nvidia, mirati ai clienti enterprise che acquistano infrastruttura AI on-premises. Dell e' uno dei principali system integrator per il mercato enterprise globale e la partnership con Nvidia rafforza entrambe le posizioni.

Riepilogo: i principali annunci del GTC 2026

AnnuncioDettaglio chiave
Stima ordini Blackwell + Vera Rubin$1 trilione entro il 2027 (dichiarazione CEO)
Vera Rubin platformCPU Vera + GPU Rubin, backbone server AI next-gen, prevista 2027
DLSS 5Neural rendering guidato da 3D, qualita' prossima al ray tracing completo
Partnership GroqGroq 3 LPU, rack 256 LPU, +35x tokens/watt vs Rubin GPU in inferenza
Partnership UberGuida autonoma in 28 citta' su 4 continenti entro il 2028 su Drive Hyperion
OEM Level 4Nissan, BYD, Geely, Isuzu, Hyundai su Drive Hyperion
Physical AI / Robot110 robot esposti al GTC; Jensen Huang: robotica e' il prossimo grande mercato AI
Cloud Partners footprintRaddoppiato YoY, oltre 1 milione di GPU Nvidia deployate
DGX Station GB300Prima consegna ad Andrej Karpathy (Eureka Labs)
20° anniversario CUDA5 milioni di sviluppatori nell'ecosistema CUDA a livello globale
Partnership enterpriseOracle, IBM, Dell per AI enterprise on-premises e hybrid

Cosa osservare nelle prossime settimane

Il GTC 2026 ha tracciato la roadmap di Nvidia per i prossimi due anni. Gli elementi da monitorare includono:

  • Tempi di consegna Vera Rubin: La piattaforma e' stata annunciata ma i campioni di produzione e i dettagli sulle prestazioni effettive non sono stati divulgati. Eventuali conferme sulla timeline di produzione e sui clienti anchor saranno catalizzatori importanti per il titolo NVDA.
  • Esecuzione sulla partnership Uber: Il target di 28 citta' su 4 continenti entro il 2028 e' ambizioso. Il ritmo delle approvazioni regolamentari nei diversi paesi sara' determinante per capire se la timeline e' realistica.
  • Adozione Drive Hyperion Level 4: I costruttori annunciati (Nissan, BYD, Geely, Isuzu, Hyundai) si trovano in fasi diverse dello sviluppo. Le prime omologazioni Level 4 in mercati chiave (Cina, USA, Europa) segneranno un momento di discontinuita' nel settore automotive.
  • Traiettoria degli ordini verso $1 trilione: La proiezione di Jensen Huang e' una stima, non una guidance ufficiale. I risultati trimestrali di Nvidia dei prossimi 6-8 trimestri saranno il banco di prova per verificare se la domanda si materializza ai livelli annunciati.
  • Competizione da AMD, Intel e startup AI chip: Mentre Nvidia domina il mercato attuale, la finestra del 2025-2027 vedra' i competitor tentare di erodere quota con chip alternativi per l'inferenza (Groq, Cerebras, Tenstorrent) e il training (AMD MI400, Intel Gaudi).

💡 Impara: Cosa sono le "AI factory" e perche' Nvidia le ha inventate

Il termine "AI factory" e' stato coniato da Jensen Huang per descrivere una nuova categoria di infrastruttura: un datacenter progettato dall'inizio alla fine per eseguire carichi di lavoro AI a scala massima. A differenza di un datacenter tradizionale — che gestisce server web, database, email e mille altri carichi — un'AI factory e' un "impianto di produzione" di intelligenza artificiale: entra dati grezzi, escono modelli addestrati o risposte generate. Il concetto e' strategicamente importante per Nvidia: posiziona le GPU non come "componenti hardware" ma come il cuore di un'infrastruttura produttiva, analoga a una fabbrica manifatturiera. Questo cambiamento di narrativa aiuta a giustificare investimenti da miliardi di dollari e contratti pluriennali con i cloud provider.

Nota: le informazioni contenute in questo articolo sono a scopo puramente informativo e non costituiscono in alcun modo una raccomandazione di investimento o consulenza finanziaria. Le proiezioni e stime riportate sono dichiarazioni del management di Nvidia e non rappresentano garanzie di risultati futuri. Le performance passate non sono indicative dei risultati futuri. Ogni decisione di investimento deve essere presa in autonomia, consultando un consulente finanziario qualificato.