Come le TPU di Google potrebbero dare filo da torcere a Nvidia

Vogliamo in questo articolo approfondire meglio la competizione e le differenze tra il nuovo prodotto di Google e l’attuale dominatore del mercato prodotto da Nvidia. Tutti parlano di chip, ma chi lo padroneggia e ne parla correttamente? Capiamo insieme meglio questo mercato che sarà fondamentale per il prossimo futuro.

Sommario

  • Le unità di elaborazione tensoriale (TPU) di Google sono considerate un’ alternativa credibile agli acceleratori AI di Nvidia per l’addestramento e la gestione di modelli linguistici complessi di grandi dimensioni.
  • Le TPU sono state progettate specificamente per la moltiplicazione di matrici, che è l’operazione principale coinvolta nell’addestramento delle reti neurali, e sono considerate meno
    adattabili e più specializzate delle GPU Nvidia, ma anche meno energetiche.
  • I principali nomi dell’intelligenza artificiale, tra cui Anthropic e Salesforce, stanno adottando le TPU, e i maggiori sviluppatori di intelligenza artificiale stanno cercando di mitigare la loro dipendenza dai chip Nvidia, indicando un grande potenziale mercato per le TPU.

Da quando Nvidia Corp. ha dominato il mercato dei chip per l’intelligenza artificiale, i clienti hanno sempre espresso il desiderio di vedere più concorrenza. A quanto pare, una delle alternative più formidabili potrebbe essere stata nascosta in bella vista.
Google ha rilasciato le sue unità di elaborazione tensoriale un decennio fa per contribuire ad accelerare il motore di ricerca web dell’azienda e ad aumentare l’efficienza. Successivamente sono state adattate per attività di apprendimento automatico nelle applicazioni di intelligenza artificiale di Google.
Ora l’azienda si sta assicurando importanti accordi per le TPU, il che suggerisce che potrebbero essere un’ alternativa credibile agli acceleratori di intelligenza artificiale di Nvidia per l’addestramento e la gestione dei complessi modelli linguistici di grandi dimensioni di oggi. Queste unità sono chiamate unità di elaborazione grafica (GPU).
Ecco maggiori informazioni sulle TPU, sul loro funzionamento, sulle loro potenzialità e sui loro limiti.

Qual è la differenza tra una GPU e una TPU?

Entrambi i tipi di chip possono gestire l’elevato numero di calcoli coinvolti nell’addestramento dei modelli di intelligenza artificiale, ma lo fanno in modi diversi. Le GPU di Nvidia sono state originariamente sviluppate per riprodurre immagini di videogiochi in modo realistico, elaborando più attività in parallelo tramite migliaia di “core” di elaborazione. Questa architettura consente inoltre di eseguire attività di intelligenza artificiale a velocità irraggiungibili dalle tecnologie concorrenti.

Le TPU sono state progettate specificamente per un tipo di lavoro correlato all’intelligenza artificiale noto come moltiplicazione di matrici, che è l’operazione principale coinvolta nell’addestramento delle reti neurali che generano risposte ai prompt nei chatbot di intelligenza artificiale come ChatGPT di OpenAI e Claude di Anthropic PBC. Gran parte di questo lavoro comporta calcoli ripetitivi eseguiti in sequenza anziché in parallelo. Le TPU sono state sviluppate per svolgere queste attività in modo efficiente. Sono considerate meno adattabili e più specializzate delle GPU Nvidia, ma anche meno esigenti in termini di energia durante l’esecuzione di tali operazioni. Le GPU Nvidia sono considerate più adattabili e programmabili, ma questa flessibilità può renderle più costose da gestire.

Come hanno fatto le TPU a emergere come contendenti dell’intelligenza artificiale?

Google ha iniziato a lavorare sulla sua prima TPU nel 2013 e l’ha rilasciata due anni dopo. Inizialmente, è stata utilizzata per accelerare il motore di ricerca web dell’azienda e aumentarne l’efficienza. Google ha iniziato a integrare le TPU nella sua piattaforma cloud nel 2018, consentendo ai clienti di abbonarsi a servizi di elaborazione basati sulla stessa tecnologia che aveva potenziato il motore di ricerca.

I chip sono stati adattati anche per supportare lo sviluppo interno dell’intelligenza artificiale di Google. Mentre l’azienda e la sua unità DeepMind sviluppavano modelli di intelligenza artificiale all’avanguardia come Gemini, ha potuto trasferire le conoscenze acquisite dai suoi team di intelligenza artificiale ai progettisti di chip TPU, che a loro volta hanno potuto personalizzare i chip a vantaggio dei team di intelligenza artificiale interni.

L’ultima versione della TPU di Google, chiamata Ironwood, è stata presentata ad aprile. È raffreddata a liquido e progettata per eseguire carichi di lavoro di inferenza AI, ovvero utilizzando i modelli di intelligenza artificiale anziché addestrarli. È disponibile in due configurazioni: un pod da 256 chip o uno ancora più grande da 9.216 chip.

Le TPU possono funzionare meglio delle GPU per alcune applicazioni di intelligenza artificiale, poiché Google può “eliminare molte altre parti del chip” che non sono progettate per l’intelligenza artificiale, ha affermato l’analista di Seaport Jay Goldberg, che vanta una rara valutazione di vendita sulle azioni Nvidia. Giunta alla settima generazione del prodotto, Google ha migliorato le prestazioni dei chip, li ha resi più potenti e ha ridotto l’energia necessaria per utilizzarli, il che li rende meno costosi da gestire.

Chi vuole le TPU?

Tra gli attuali clienti di TPU figurano Safe Superintelligence, la startup fondata l’anno scorso dal co-fondatore di OpenAI Ilya Sutskever, nonché Salesforce Inc. e Midjourney, insieme ad Anthropic.

In base a un accordo annunciato a ottobre, Anthropic avrebbe avuto accesso a oltre un gigawatt di potenza di calcolo di Google tramite ben 1 milione di TPU. Il mese successivo, The Information ha riportato che Meta Platforms Inc. era in trattative per utilizzare le TPU di Google nei suoi data center nel 2027.

Questi sviluppi sottolineano come i principali nomi dell’intelligenza artificiale stiano adottando le TPU nella corsa ad aumentare la potenza di calcolo per far fronte alla domanda incontrollata.

Quali sono le prospettive di maggiori vendite di TPU?

I più grandi sviluppatori di intelligenza artificiale stanno spendendo decine di miliardi di dollari in costosi chip Nvidia e sono ansiosi di mitigare questa dipendenza e di mitigare l’impatto della carenza, il che indica un grande potenziale mercato per le TPU.

Per ora, le aziende che desiderano utilizzare le TPU di Google devono sottoscrivere un contratto per noleggiare la potenza di calcolo nel cloud di Google. Questa situazione potrebbe presto cambiare. L’accordo con Anthropic rende più probabile un’espansione verso altri cloud, affermano gli analisti di Bloomberg Intelligence.

Nessuno, Google compresa, sta attualmente pensando di sostituire completamente le GPU Nvidia; il ritmo dello sviluppo dell’intelligenza artificiale rende ciò impossibile al momento. Google è ancora uno dei principali clienti di Nvidia, nonostante disponga di chip proprietari, perché deve garantire flessibilità ai clienti, ha affermato Gaurav Gupta, analista di Gartner. Se l’algoritmo o il modello di un cliente cambia, le GPU sono più adatte a gestire una gamma più ampia di carichi di lavoro. “Nvidia è una generazione avanti rispetto al settore”, secondo un portavoce di Nvidia. “Siamo entusiasti del successo di Google: hanno fatto grandi progressi nell’intelligenza artificiale e continuiamo a fornirglieli”.

Anche le aziende tecnologiche che stanno sottoscrivendo contratti per le TPU continuano a investire pesantemente nei chip Nvidia. Anthropic, ad esempio, ha annunciato un importante accordo con Nvidia poche settimane dopo l’accordo con Google per le TPU. La migliore speranza per le TPU di Google potrebbe essere quella di entrare a far parte del paniere di prodotti necessari per alimentare la crescita dell’intelligenza artificiale.