Seguici su

Economia

Scale AI, comprato da Meta per 14,3 miliardi, licenzia un intero team AI. Scoppio della bolla o servitù sui dati ?

L’IA non ha più bisogno di “tuttologi”: perché i tagli di Scale AI non sono la fine della bolla, ma l’inizio della vera (e costosa) ottimizzazione del settore.

Pubblicato

il

L’eco della “rivoluzione dell’Intelligenza Artificiale” continua a magnificare le sorti progressive della Silicon Valley, promettendo efficienza, produttività e, naturalmente, valutazioni stratosferiche, ma dietro questa spesso si nasconde uno sfruttamento ai limiti della servitù. L’ultima notizia da Scale AI, un colosso dell’addestramento AI valutato la bellezza di 14,3 miliardi di dollari, non è un nuovo mirabolante modello linguistico, ma un taglio di personale.

Un taglio piccolo, certo, ma estremamente simbolico. L’azienda ha appena chiuso un intero team di contractor a Dallas, noto internamente come NPO (New Projects Organization). La loro colpa? Essere “generalisti”.

Stiamo assistendo ai primi scricchiolii della bolla dell’intelligenza artficiale, all’inizio della sua fine? O, più prosaicamente, è semplicemente finito il “pranzo gratis” e ora le aziende iniziano a fare sul serio, ottimizzando i fondi? La risposta, come sempre, sta nel mezzo e rivela la vera natura economica di questa tecnologia: l’IA non è magia, è lavoro umano cristallizzato. E ora, quel lavoro sta cambiando pelle.

La fine della Fase 1: Il tramonto del “tuttologo”

Per capire cosa sta succedendo a Scale AI (e, per estensione, a concorrenti come xAI di Musk, che sta facendo mosse simili), dobbiamo capire come si “costruisce” un’IA. La prima fase, quella che ci ha regalato i vari ChatGPT e l’esplosione dell’IA generativa, era basata sulla quantità.

I modelli linguistici dovevano imparare la grammatica, la sintassi, lo stile, il “buon senso” conversazionale. Per fare questo, le aziende hanno assunto migliaia di “addestratori generalisti” – spesso laureati in lettere, scrittori, o semplicemente persone con una buona padronanza della lingua – per riscrivere le risposte dei chatbot, valutarne la coerenza, insegnare loro a non essere tossici. Il team NPO di Dallas faceva esattamente questo: “migliorare la capacità di scrittura” dei bot.

Oggi, quel lavoro è in gran parte finito. I chatbot hanno imparato a scrivere. Ora inizia la Fase 2, quella della qualità e della specializzazione.

Il problema attuale non è più far scrivere l’IA in modo fluente; è farle dire cose corrette. Come sottolineato dalla stessa Scale AI, la domanda dell’industria si sta spostando verso “input da esseri umani con competenze in campi di nicchia, come la medicina, la robotica e la finanza”.

È inutile che un chatbot scriva un parere legale impeccabile nella forma, se poi cita leggi inesistenti. È pericoloso se fornisce consigli medici fluenti ma clinicamente errati. La “bolla” dei generalisti si sta sgonfiando perché il loro lavoro è stato, in un certo senso, completato (o automatizzato dalla stessa IA che hanno contribuito a creare). Ora servono gli esperti: medici che correggano diagnosi, ingegneri che validino dati sulla robotica, finanzieri che verifichino strategie di investimento.

Alexandr Wang, fondatore di Scale AI a destra e Zuckerberg a Sinistra

Il contesto strategico: Il “peccato originale” dell’accordo con Meta

L’analisi puramente tecnica, però, non basta. C’è un retroscena squisitamente di mercato. La mossa di Scale AI non arriva nel vuoto, ma segue due eventi sismici per l’azienda.

Il primo, a giugno, è stato il massiccio accordo con Meta. Un affare da miliardi che, di fatto, ha legato Scale AI a uno dei giganti in competizione nel settore. La reazione dei concorrenti di Meta non si è fatta attendere: Google e OpenAI, clienti di lunga data di Scale, hanno “bruscamente interrotto” il loro lavoro con l’azienda.

Il secondo evento, poche settimane dopo, è stata la conseguenza del primo: Scale AI ha licenziato il 14% della sua forza lavoro (200 dipendenti e 500 contractor), citando un “eccesso di assunzioni” e non meglio specificate “forze di mercato”.

I tagli di oggi a Dallas sono la coda di quella ristrutturazione. Scale AI ha perso clienti enormi (Google, OpenAI) e ne ha acquisito uno (Meta) che, evidentemente, ha esigenze diverse. Non siamo di fronte a un crollo del mercato AI, ma a un classico “shakeout” (una scrematura) guidato dalla concorrenza strategica. L’investimento di Meta ha costretto Scale AI a una dieta dimagrante e a una specializzazione forzata, abbandonando i lussuosi progetti “generalisti” che servivano a clienti ormai perduti.

Dal contratto al “Gig”. Il proletariato dei dati

Cosa è successo ai lavoratori licenziati a Dallas?  Hanno ricevuto quattro settimane di liquidazione e copertura sanitaria fino alla fine del mese. Ma, con un tocco di ironia che solo la Silicon Valley sa regalare, è stato loro offerto qualcos’altro. L’e-mail dell’agenzia di somministrazione (HireArt) recitava: “Mentre affrontate questa transizione, vogliamo assicurarci che siate a conoscenza di opportunità alternative”.

L’opportunità alternativa? Unirsi a Outlier, la piattaforma di gig work (lavoro a chiamata) di proprietà della stessa Scale AI.

Questo passaggio è fondamentale. Scale AI sta trasformando i suoi contractor (lavoratori a contratto, già precari ma con una parvenza di struttura) in gig worker (lavoratori della “gig economy”, totalmente precari, pagati a cottimo, senza tutele, senza assicurazione sanitaria). Un passo avanti, si, verso la servitù della gleba.

Dal punto di vista dell’azienda (e dei suoi investitori da 14 miliardi di dollari) è una mossa economicamente perfetta:

  1. Si scarica il rischio: L’azienda non ha più dipendenti o contractor da gestire.
  2. Si abbattono i costi fissi: Niente più stipendi, uffici, coperture sanitarie.
  3. Si paga solo il lavoro utile: Si paga la singola task (micro-compito) solo quando serve.

L’IA, venduta come la frontiera dell’innovazione, si basa sul modello di lavoro più antico e precario del mondo: il cottimo. I “proletari dei dati”, che hanno costruito le fondamenta di modelli miliardari, sono i primi ad essere espulsi dal ciclo produttivo stabile, per essere riammessi solo come lavoratori atomizzati su una piattaforma.

Outlier, che lavora a cottimo

Conclusione: Non è la fine della bolla, è la fine dei “pranzi gratis”

Torniamo alla domanda iniziale: la bolla dell’IA sta scoppiando o è un miglior impiego di fondi?

La risposta è che non è una bolla che scoppia, ma una bolla che si sta razionalizzando. È la fine della Fase 1, quella dell’entusiasmo irrazionale e degli investimenti “a pioggia” su qualunque cosa avesse l’etichetta “AI”.

Possiamo riassumere l’assestamento in questi punti:

  • Fine del Lavoro Generalista: L’addestramento di base è finito. I modelli sono fluenti.
  • Inizio del Lavoro Specializzato: Ora inizia la parte difficile e costosa: insegnare ai modelli l’accuratezza esperta. Questo richiede lavoro più costoso (un medico costa più di un laureato in lettere), non meno, ma anche non generalista.
  • Razionalizzazione dei Costi: Le aziende tagliano il superfluo (i generalisti) per concentrare i fondi sul necessario (gli specialisti).
  • Precarizzazione del Lavoro: Il lavoro “vecchio” (generalista) non scompare, ma viene spostato su piattaforme gig a costo zero per l’azienda, scaricando il rischio sull’individuo.
  • Consolidamento Strategico: Gli accordi (come quello Meta-Scale) stanno ridisegnando la mappa, costringendo i fornitori a scegliere da che parte stare e a ottimizzare la loro offerta per i loro nuovi padroni.

Non stiamo vedendo la fine dell’IA. Stiamo vedendo la fine dell’idea che l’IA si potesse costruire a basso costo con un esercito di “tuttologi” intercambiabili. La vera sfida economica dell’IA – pagare migliaia di specialisti per renderla davvero affidabile – è appena iniziata.

I primi a pagare il conto di questa “ottimizzazione” sono, come sempre, i lavoratori meno protetti, ironicamente licenziati perché l’IA che hanno addestrato è diventata abbastanza brava… come generalista.

Domande e risposte per i lettori

D1: Perché Scale AI sta licenziando addestratori “generalisti”? R: Li licenzia perché la prima fase dell’addestramento AI è terminata. I modelli linguistici hanno già imparato a scrivere e conversare fluentemente grazie ai generalisti. Ora l’industria ha bisogno di “specialisti” (medici, ingegneri, avvocati) per insegnare ai modelli l’accuratezza e la correttezza in campi tecnici. Si passa dalla quantità di dati (per imparare a scrivere) alla qualità dei dati (per imparare a ragionare correttamente).

D2: Questo significa che la “bolla” dell’Intelligenza Artificiale sta scoppiando? R: No, non sta scoppiando, ma si sta “razionalizzando”. È finito il periodo in cui si investiva su tutto ciò che fosse “AI”. Ora le aziende ottimizzano i fondi: tagliano i costi superflui (l’addestramento generico, ormai maturo) per investire in modo mirato sull’addestramento specializzato, che è molto più costoso e complesso. È più un “assestamento” di mercato che un crollo.

D3: Cosa succede ai lavoratori licenziati e cosa rivela sul futuro del lavoro nell’IA? R: I contractor licenziati hanno ricevuto una piccola liquidazione e l’offerta di iscriversi alla piattaforma di “gig work” (lavoro a chiamata) della stessa azienda, chiamata Outlier. Questo rivela una tendenza chiara: l’industria dell’IA, pur valendo miliardi, si basa su modelli di lavoro estremamente precari. Le aziende stanno spostando il rischio dai loro bilanci ai singoli lavoratori, trasformando contratti già deboli in puro lavoro a cottimo.

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento