AttualitàEconomiaScienza
L’illusione dell’Intelligenza Artificiale “facile”: Meta e xAI si scontrano con i limiti della tecnologia
Meta ritarda il lancio del modello AI Avocado per problemi tecnici, mentre Elon Musk licenzia i vertici di xAI per le scarse prestazioni di Grok. Perché miliardi di investimenti non bastano per dominare l’Intelligenza Artificiale.

I mercati finanziari continuano a premiare le promesse dell’Intelligenza Artificiale, celebrando ogni annuncio come una rivoluzione imminente, ma la realtà industriale sta presentando un conto molto diverso. Mark Zuckerberg ed Elon Musk, due dei principali attori della corsa tecnologica globale, si trovano attualmente a gestire una fase di stallo tecnico che mette a nudo quanto sia complesso passare dalle slide di marketing alla realtà operativa dei modelli computazionali.
L’implementazione dell’Intelligenza Artificiale non è un semplice problema di spesa, ma un rompicapo infrastrutturale e matematico di prim’ordine.
Il “frullato” di Meta: investimenti enormi, ma benchmark deludenti
Mark Zuckerberg ha scommesso il futuro della sua azienda sulla supremazia nell’AI, ma il raccolto di quest’anno sembra infestato da difetti di programmazione. Secondo recenti indiscrezioni, Meta ha dovuto posticipare, da marzo ad almeno maggio, il lancio di Avocado, il suo modello di base di nuova generazione.
Il motivo è tecnico: nei test interni, il modello ha mostrato prestazioni deludenti nel ragionamento logico, nella scrittura e, soprattutto, nella stesura di codice. Pur superando i modelli precedenti di Meta e la versione 2.5 di Google, Avocado insegue a distanza il più recente Gemini 3.0. Questo ritardo arriva nonostante un piano di investimenti che potremmo definire estremo nei superconduttori con lo sviluppo di 4 nuovi chip dedicati.
- Una stima di spesa in conto capitale (Capex) per quest’anno tra i 115 e i 135 miliardi di dollari, quasi il doppio rispetto all’anno precedente.
- Impegni a lungo termine che sfiorano i 600 miliardi di dollari in investimenti negli Stati Uniti.
- Una partecipazione di 14,3 miliardi di dollari in Scale AI, mossa che ha portato Alexandr Wang a diventare il capo dell’AI di Meta.
Il neonato “TBD Lab” doveva sfornare innovazioni a tema fruttato (Avocado come modello base, Mango per immagini/video e l’imponente Watermelon per il futuro), ma i leader della divisione starebbero persino valutando di prendere in licenza i modelli della rivale Google per mantenere competitivi i propri prodotti. Un’ammissione di debolezza che dimostra come i capitali, da soli, non generino automaticamente superintelligenza.
La “terapia d’urto” di Elon Musk su xAI
Dall’altra parte della barricata, Elon Musk non se la passa meglio, ma reagisce con il suo consueto approccio radicale. xAI, la sua startup nata solo due anni fa, sta subendo una brutale riorganizzazione. Il prodotto di punta per la programmazione, Grok, arranca rispetto a concorrenti come Claude Code di Anthropic e Codex di OpenAI.
La reazione di Musk è stata implacabile, applicando il metodo già visto in Tesla e SpaceX:
- Epurazione del vertice: Sono stati allontanati leader tecnici chiave, tra cui Zihang Dai e Guodong Zhang, ritenuti responsabili delle carenze nella fase di pre-addestramento e nel coding. Oggi, degli 11 co-fondatori originali, ne restano solo due.
- Integrazione e “Fixer”: Musk ha importato manager fidati da SpaceX e Tesla per supervisionare il lavoro, concentrandosi in modo maniacale sulla qualità dei dati per l’addestramento.
- Il progetto Macrohard: Per ovviare ai problemi, xAI sta sviluppando agenti digitali (“Digital Optimus”) capaci di osservare e simulare le funzioni aziendali per automatizzare intere imprese.
Il tutto avviene all’ombra di un’infrastruttura titanica: il supercluster di Memphis, che conta già 200.000 GPU ed è in espansione verso il milione di unità.
Perché l’implementazione dell’AI è così difficile?
L’analisi di queste due crisi aziendali ci permette di trarre conclusioni tecniche sulle reali difficoltà di implementazione dell’Intelligenza Artificiale, lontane dalla narrativa mainstream:
- Il limite della forza bruta: Fino a ieri si credeva che bastasse aggiungere potenza di calcolo (GPU) e dati grezzi per ottenere modelli migliori. Oggi scopriamo che la “legge di scala” ha dei rendimenti decrescenti. Serve qualità, non solo quantità, anzi aggiungere quantità dà vantaggi limitati, esattamente come essere più muscolosi non significa essere più intelligenti.
- Il collo di bottiglia dei dati: Come ha scoperto Musk, la qualità dei dati di addestramento è tutto. L’ingestione indiscriminata di dati dal web produce modelli confusi, incapaci di logica rigorosa come quella richiesta nella programmazione informatica.
- L’usura del capitale umano: Sviluppare queste tecnologie richiede sforzi titanici. Le pressioni per rispettare scadenze irrealistiche stanno causando un fortissimo tasso di esaurimento (burnout) tra i migliori ingegneri del mondo.
| Azienda | Modello in difficoltà | Causa principale del ritardo | Soluzione proposta (o in atto) |
| Meta | Avocado | Scarse performance logiche e di coding rispetto ai competitor | Possibile licenza di modelli terzi (Gemini) |
| xAI | Grok (Coding) | Dati di addestramento scadenti, gap con Anthropic/OpenAI | Licenziamenti mirati, revisione dei dati, acquisizione talenti |
La spesa in deficit per infrastrutture AI sta sostenendo l’industria dell’hardware, ma l’effettivo ritorno sull’investimento e l’applicazione reale nell’economia produttiva richiedono un salto qualitativo algoritmico che, al momento, sfugge persino ai colossi della Silicon Valley. La AI quindi si rivela molto più sfuggente di quanto si pensasse.







You must be logged in to post a comment Login