Economia

Quando l’Intelligenza Artificiale diventa… avida stupidità: il clamoroso caso Deloitte in Australia

Una delle più grandi società di consulenza al mondo costretta a rimborsare il governo australiano. La causa? Un report pieno di errori e citazioni inventate, generato da un’intelligenza artificiale “allucinata”. Un caso che fa tremare l’intero settore.

Pubblicato

il

Sembra la trama di un film comico, ma è la cronaca di un disastro annunciato nel mondo dorato della consulenza. Deloitte, uno dei colossi delle “Big Four”, è stata costretta a rimborsare parzialmente il governo australiano per un report pieno zeppo di errori. La causa? L’utilizzo, forse un po’ troppo disinvolto, dell’intelligenza artificiale generativa.

La vicenda, tanto imbarazzante quanto istruttiva, ha origine da un contratto da 439.000 dollari australiani (circa 270.000 euro) che il Dipartimento del Lavoro di Canberra aveva affidato a Deloitte. L’obiettivo era una “revisione indipendente” di un sistema di welfare che penalizzava automaticamente chi cercava lavoro. Un compito delicato, che richiedeva precisione e affidabilità.

Peccato che il risultato finale sia stato tutt’altro che impeccabile. Come riportato dall’Australian Financial Review, il documento conteneva una serie di svarioni piuttosto grossolani, tra cui:

  • Citazioni fantasma: Riferimenti a report accademici completamente inesistenti, uno dei difetti classici dei documenti redatti dalla AI.
  • Attribuzioni errate: Note a piè di pagina che rimandavano a studi di fantomatici ricercatori delle università di Sydney e di Lund, in Svezia.
  • Sintesi legali imprecise: Un riassunto di procedimenti legali che non corrispondeva alla realtà.

In pratica, l’IA utilizzata da Deloitte ha avuto delle “allucinazioni”, un termine tecnico che descrive la tendenza di questi modelli a inventare di sana pianta informazioni, presentandole però con la massima sicurezza. Un po’ come uno studente impreparato che cerca di riempire il foglio durante un’interrogazione, ma un problema che colpisce anche le AI più avanzate, che, per accontentare il cliente, si inventano le cose.

La toppa, peggiore del buco?

Di fronte all’evidenza, Deloitte ha dovuto fare marcia indietro. Ha pubblicato una versione corretta del report e ha ammesso, in un’appendice, di aver utilizzato una “catena di strumenti basata su un modello linguistico di grandi dimensioni di IA generativa (Azure OpenAI GPT-4o)“. Sebbene non abbia collegato direttamente l’IA agli errori, l’ammissione è suonata come una confessione. L’azienda ha poi rimborsato l’ultima rata del contratto, affermando che “la sostanza e le raccomandazioni del report non sono cambiate” e che “la questione è stata risolta direttamente con il cliente”. Una classica dichiarazione per minimizzare i danni d’immagine.

L’episodio, però, è un potente campanello d’allarme. Le grandi società di consulenza, da McKinsey alle Big Four, stanno investendo miliardi nello sviluppo di soluzioni basate sull’IA per accelerare i processi e battere la concorrenza. Questa corsa alla tecnologia, tuttavia, nasconde insidie enormi. Già a giugno, l’autorità di regolamentazione contabile del Regno Unito aveva avvertito che le grandi aziende non stavano monitorando adeguatamente l’impatto dell’IA sulla qualità delle loro revisioni. Soprattutto la AI può essere utile, ma solo se accompagnata ad uno stretto controllo dei dati e dei risultati. Si può dire che la AI aumente l’efficienza, ma, per il momento, non sostituisce l’uomo.

Il caso Deloitte dimostra che fidarsi ciecamente degli algoritmi, senza una rigorosa e competente supervisione umana, può portare a risultati disastrosi. L’intelligenza artificiale può essere uno strumento formidabile, ma per ora, senza un controllo umano, rischia di produrre solo costosa e imbarazzante stupidità artificiale.

La AI non è sempre intelligente…

Domande e Risposte per i Lettori

1. Cosa sono esattamente le “allucinazioni” dell’Intelligenza Artificiale?

Le “allucinazioni” sono un fenomeno in cui un modello di IA generativa, come GPT-4, produce informazioni false, fuorvianti o completamente inventate, ma le presenta come se fossero fatti reali e verificati. Questo accade perché l’IA non “comprende” il contenuto, ma si limita a prevedere la sequenza di parole più probabile in base ai dati su cui è stata addestrata. Se non trova una risposta precisa nei suoi dati, può “creare” la risposta più plausibile, inventando fonti, eventi o dettagli. È uno dei maggiori rischi legati all’uso di queste tecnologie in ambiti professionali e accademici.

2. Perché una società come Deloitte ha commesso un errore così banale?

L’errore di Deloitte evidenzia un problema diffuso: la fretta di adottare nuove tecnologie per ridurre i costi e aumentare l’efficienza, a volte a scapito del controllo qualità. In un settore ultra-competitivo come quello della consulenza, mostrarsi all’avanguardia nell’uso dell’IA è un grande vantaggio di marketing. È probabile che i processi di revisione e controllo umano non siano stati sufficientemente rigorosi o non fossero ancora adeguati a individuare questo nuovo tipo di errori generati dall’IA. L’incidente serve da lezione per l’intero settore sulla necessità di non delegare ciecamente il pensiero critico alle macchine.

3. Questo incidente frenerà l’adozione dell’IA nel mondo della consulenza e della finanza?

Probabilmente no, non la frenerà, ma potrebbe renderla più matura e consapevole. Invece di una corsa all’oro senza regole, le aziende saranno costrette a implementare protocolli di verifica più stringenti e a investire nella formazione del personale per supervisionare l’operato degli algoritmi. Questo caso non dimostra che l’IA è inutile, ma che è uno strumento da maneggiare con estrema cura. Anzi, potrebbe persino accelerare lo sviluppo di sistemi di “controllo delle allucinazioni” e di IA più affidabili, trasformando un fallimento imbarazzante in un’opportunità di miglioramento per l’intero settore.

You must be logged in to post a comment Login

Lascia un commento

Annulla risposta

Exit mobile version