Seguici su

EconomiaFinanza

E se l’intelligenza artificiale ci portasse al disastro dei mercati finanziari? (di Antonio Maria Rinaldi*)

L’economista Antonio Maria Rinaldi analizza i rischi sistemici dell’Intelligenza Artificiale in finanza: tra algoritmi opachi, comportamenti di gregge e flash crash, ecco perché affidare i mercati alle macchine senza regole rigide potrebbe innescare la prossima grande crisi globale.

Pubblicato

il

L’estensione dell’intelligenza artificiale ai processi decisionali dei mercati finanziari rappresenta uno dei passaggi più delicati dell’evoluzione della finanza contemporanea. La teoria macroeconomica insegna che la stabilità del sistema dipende dalla diversificazione dei comportamenti, dalla distribuzione del rischio e dalla capacità degli operatori di reagire con criteri autonomi agli shock. Quando tali premesse vengono meno, si creano condizioni che amplificano le oscillazioni cicliche e generano vulnerabilità strutturali. Oggi l’impiego generalizzato dell’IA nei fondi azionari, obbligazionari e quantitativi rischia di inserirsi pienamente in questa dinamica di fragilità, incidendo sulla capacità del mercato di mantenere un equilibrio efficiente.

Il primo nodo riguarda l’eccessiva omogeneità decisionale prodotta dai modelli di IA. Poiché gli algoritmi sono addestrati sugli stessi dataset macro-finanziari, filtrati e normalizzati, la varietà delle strategie tende a ridursi. In termini macroeconomici, ciò equivale a una contrazione del “portafoglio sociale del rischio”: il mercato, che dovrebbe distribuire gli shock lungo una pluralità di comportamenti, finisce per reagire come un unico agente rappresentativo. Questo meccanismo accentua la volatilità endogena e trasforma eventi ordinari in perturbazioni sistemiche. I flash crash degli ultimi anni non sono anomalie tecniche, ma la manifestazione di un sistema che ha smarrito la propria capacità di assorbimento e che presenta un crescente rischio di correlazioni non volute.

A questa uniformità si somma la crescente opacità delle funzioni decisionali. I modelli di IA, specie quelli basati su reti neurali profonde, non permettono di ricostruire le logiche interne che conducono alle decisioni di acquisto e vendita. Dal punto di vista della vigilanza, ciò costituisce un serio vulnus istituzionale: un sistema finanziario fondato su meccanismi non spiegabili riduce la possibilità di valutare i rischi a monte e di intervenire tempestivamente. La supervisione pubblica si ritrova così a operare in un contesto in cui la “razionalità” delle scelte non è verificabile, contraddicendo i principi della regolazione prudenziale e impedendo di identificare per tempo comportamenti potenzialmente destabilizzanti.

Un ulteriore fattore critico è l’eccesso di dipendenza dalle serie storiche. La macroeconomia insegna che i sistemi complessi non evolvono in modo lineare: gli shock esogeni – geopolitici, tecnologici o istituzionali – modificano le condizioni iniziali, generando nuovi regimi che non possono essere dedotti dal passato. L’IA, per quanto raffinata, resta ancorata a un apprendimento retrospettivo e non possiede quella capacità interpretativa che solo il giudizio umano può esercitare. Quando i mercati entrano in territori inesplorati, i modelli automatizzati tendono a reagire con la stessa meccanicità che ne determina l’efficienza in condizioni normali, aggravando però le fasi di tensione. Il rischio è che l’IA operi come un moltiplicatore di instabilità proprio nei momenti in cui sarebbe necessario frenare l’irrazionalità collettiva.

Particolarmente preoccupante è il rischio di retroazione auto-realizzante. In un sistema dominato da algoritmi simili, una previsione ribassista diventa facilmente un impulso operativo che induce vendite massicce, producendo il ribasso che doveva essere soltanto anticipato. Si crea così una dinamica in cui il prezzo non riflette più i fondamentali, ma la struttura interna degli algoritmi. Nel linguaggio macroeconomico, ciò equivale a una rottura del meccanismo di formazione delle aspettative, elemento cardine della stabilità di lungo periodo e della trasmissione degli impulsi di politica economica.

A questi aspetti si aggiungono pericoli ulteriori, spesso sottovalutati: la possibilità che gruppi ristretti di operatori, dotati di IA più avanzata, possano manipolare micro-movimenti di mercato con velocità non contrastabile; il rischio che errori di programmazione o dati corrotti si propaghino istantaneamente su scala globale; la concreta eventualità che l’IA identifichi correlazioni fittizie e le trasformi in segnali operativi, generando bolle o crolli immotivati. In altre parole, l’IA introduce una nuova forma di rischio sistemico: non più solo economico o finanziario, ma computazionale.

La questione non riguarda la legittimità dell’innovazione tecnologica, ma la sua compatibilità con la stabilità sistemica. L’IA possiede una velocità di risposta e una capacità di propagazione che superano ampiamente quelle del fattore umano e che possono generare, in assenza di presidi adeguati, effetti cumulativi indesiderati. È necessario introdurre requisiti di trasparenza algoritmica, stress test specifici per la finanza automatizzata, obblighi di diversificazione dei modelli e limiti normativi alla concentrazione delle strategie. Senza tali misure, il rischio è quello di affidare la stabilità dei mercati non al giudizio umano – fallibile ma comprensibile – bensì a meccanismi che amplificano, con precisione matematica, i loro stessi errori, trasformando un progresso potenziale in una minaccia per l’intero sistema economico.

*ex membro Commissione ECON del Parlamento europeo

Antonio Maria Rinaldi

Domande e risposte

Perché l’uso massiccio dell’IA aumenta il rischio di crolli di borsa improvvisi? L’intelligenza artificiale, se utilizzata uniformemente dai grandi fondi, tende a creare un comportamento “da gregge”. Poiché gli algoritmi sono addestrati sugli stessi dati storici, tendono a prendere le stesse decisioni nello stesso momento. Se un segnale di vendita scatta per uno, scatta per tutti, eliminando la diversificazione che solitamente ammortizza gli shock. Questo trasforma piccole fluttuazioni in flash crash sistemici, poiché manca la controparte disposta a comprare quando tutti gli algoritmi decidono di vendere simultaneamente.

In che modo l’IA sfida le attuali regole di vigilanza finanziaria? Il problema principale risiede nella “opacità” delle reti neurali profonde. Spesso, nemmeno i programmatori sanno spiegare esattamente perché l’algoritmo abbia preso una certa decisione, dato che il processo avviene all’interno di una “scatola nera” (Black Box). Le autorità di vigilanza, che si basano sulla verifica della razionalità e sulla gestione del rischio, si trovano spiazzate: non possono valutare o prevenire rischi derivanti da logiche decisionali che non sono trasparenti né comprensibili secondo i canoni della prudenza bancaria e finanziaria tradizionale.

L’IA può prevedere crisi causate da eventi geopolitici inediti? Difficilmente. L’IA apprende dal passato (serie storiche) e proietta quei modelli nel futuro. La macroeconomia, però, non è lineare: shock esogeni come una guerra improvvisa o una pandemia creano condizioni mai viste prima (nuovi regimi). In questi territori inesplorati, l’IA manca dell’intuito e della capacità interpretativa umana. Di fronte a un evento senza precedenti storici nel suo dataset, l’algoritmo rischia di applicare logiche vecchie a contesti nuovi, amplificando l’errore e l’instabilità invece di mitigarla.

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento