Seguici su

Attualità

Google Alphabet presenta il suo Chip per la AI, Trillium

Alphabet presenta il proprio nuovo chip per la Ai, casualmente pochi giorni dopo che OpenAI aveva presentato l’ultimo aggiornamento al proprio modello

Pubblicato

il

Alphabet, la società madre di Google, ha annunciato il lancio di una nuova offerta nella sua famiglia di chip per data center di intelligenza artificiale, chiamata Trillium.

Trillium, secondo l’azienda, è il suo hardware più avanzato specifico per l’AI, utilizzati nelle unità di  elaborazioni Tensor, o TPU, anche queste sviluppate per la AI.

I chip personalizzati per i centri dati AI di Google sono una delle poche opzioni disponibili sul mercato che non provengano da Nvidia. Uno dei pochi elementi che evitano una pericolosa posizione di monopolio.

Secondo i rapporti, mentre Nvidia gode attualmente di una quota di mercato dell’80% nel segmento dei chip AI, Google domina il restante 20%.

È importante notare che Google non vende i chip. L’azienda, tuttavia, li noleggia attraverso la sua piattaforma di cloud computing.

Velocità ed efficienza di Trillium

“Le TPU Trillium raggiungono un impressionante aumento di 4,7 volte delle prestazioni di calcolo di picco per chip rispetto a TPU v5e”, ha dichiarato Google in un post sul blog.

Nella sua ultima offerta, l’azienda sostiene anche di aver raddoppiato la capacità e la larghezza di banda della memoria ad alta larghezza di banda (HBM) e di aver raddoppiato la larghezza di banda dell’interconnessione tra chip (ICI) rispetto a TPU v5e.

“Inoltre, Trillium è dotato di SparseCore di terza generazione, un acceleratore specializzato nell’elaborazione di embeddings ultra-grandi, comuni nei carichi di lavoro avanzati di classificazione e raccomandazione”, si legge nel post del blog.

Ha anche aggiunto che possono addestrare la prossima ondata di ‘modelli di fondazione’ a una latenza ridotta e a un costo inferiore.

Le TPU Trillium di sesta generazione sono più efficienti dal punto di vista energetico di oltre il 67% rispetto alla TPU v5e, secondo Google. In consumo energetico è uno dei fattori chiave nella scelta dei chip per le AI.


Caratteristiche aggiuntive e come aiuterà i futuri modelli di AI

Inoltre, Trillium può scalare fino a 256 TPU in un singolo pod ad alta larghezza di banda e bassa latenza.

“Oltre a questa scalabilità a livello di pod, con la tecnologia multislice e le unità di elaborazione dell’intelligenza (IPU) Titanium, le TPU di Trillium possono scalare fino a centinaia di pod, collegando decine di migliaia di chip in un supercomputer su scala edilizia interconnesso da una rete di data center multi-petabit al secondo”, si legge nel blog.

Per ottenere un aumento di 4,7 volte delle prestazioni di calcolo per chip Trillium, l’azienda ha ampliato le dimensioni delle unità di moltiplicazione a matrice (MXU) e ha aumentato la velocità di clock.

“Le TPU Trillium alimenteranno la prossima ondata di modelli e agenti AI e non vediamo l’ora di aiutare i nostri clienti a disporre di queste capacità avanzate”, ha dichiarato l’azienda nel post sul blog.

Un impulso per i servizi di cloud computing di Google e Gemini

Il nuovo chip aiuterà aziende come Deep Genomics, Deloitte e altre che utilizzano i servizi Google Cloud.

“Il supporto per l’addestramento e il servizio di modelli multimodali a contesto lungo sulle TPU Trillium consentirà anche a Google DeepMind di addestrare e servire le future generazioni di modelli Gemini in modo più rapido, efficiente e con una latenza inferiore rispetto al passato”, ha dichiarato l’azienda.

Le TPU Trillium fanno parte dell’AI Hypercomputer di Google Cloud, un’architettura di supercomputing progettata specificamente per carichi di lavoro AI all’avanguardia.

“Gemini 1.5 Pro è il modello di AI più grande e più capace di Google ed è stato addestrato utilizzando decine di migliaia di acceleratori TPU”, ha dichiarato Jeff Dean, Chief Scientist di Google Deepmind e Google Research.

“Il nostro team è entusiasta dell’annuncio della sesta generazione di TPU e non vediamo l’ora di aumentare le prestazioni e l’efficienza per l’addestramento e l’inferenza su scala dei nostri modelli Gemini”.

L’uso di questi nuovi Chip dovrebbe permettere a Google di rispondere a OpenAI che proprio recentemente ha presentato un upgrade la proprio modello AI, affermando la propria superiorità sulla materia.


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento