Economia
IA e finanza, l’allarme dei ricercatori: i bot trader imparano da soli a colludere e manipolare i mercati, e lo fanno senza ritegno
Una ricerca della Wharton University rivela un rischio concreto: in simulazioni di Borsa, anche bot con IA “semplice” creano cartelli per fissare i prezzi. Un fenomeno che solleva seri dubbi sull’adeguatezza delle attuali normative, come l’AI Act europeo.

Non dovrebbe sorprendere nessuno che i bot dotati di intelligenza artificiale “relativamente semplice”, liberati in simulazioni progettate per imitare le borse valori reali, non si limitino a competere per ottenere rendimenti, ma colludano per fissare i prezzi, accumulare profitti ed escludere i trader umani, secondo quanto affermato da un trio di ricercatori della Wharton e della Hong Kong University of Science & Technology.
Come riporta Bloomberg:
In simulazioni progettate per imitare i mercati reali, agenti di trading alimentati dall’intelligenza artificiale hanno formato cartelli per fissare i prezzi, senza istruzioni esplicite. Anche con una programmazione relativamente semplice, i bot hanno scelto di colludere quando lasciati a se stessi, sollevando nuovi allarmi per le autorità di vigilanza del mercato.
In altre parole, i bot AI non hanno bisogno di essere malvagi, né particolarmente intelligenti, per manipolare il mercato. Lasciati a se stessi, imparano da soli.
Secondo Itay Goldstein, uno dei ricercatori e professore di finanza alla Wharton School dell’Università della Pennsylvania, “È possibile indurre questi algoritmi di IA piuttosto semplici a colludere… Sembra un fenomeno molto diffuso, sia quando il mercato è molto rumoroso che quando non lo è”.
Il fenomeno suggerisce che gli agenti di IA rappresentano una sfida che le autorità di regolamentazione devono ancora affrontare, e la ricerca del trio ha già attirato l’attenzione sia delle autorità di regolamentazione che dei gestori patrimoniali. Sono stati invitati a presentare i loro risultati in un seminario, mentre alcune società di quant trading, di cui Winston Dou (collega di Goldstein alla Wharton) non ha rivelato il nome, hanno espresso interesse per linee guida e regole chiare in materia di regolamentazione dell’esecuzione di operazioni di trading algoritmico basate sull’IA.
“Temono che non sia loro intenzione”, ha affermato Dou. “Ma le autorità di regolamentazione possono rivolgersi a loro e dire: ‘State facendo qualcosa di sbagliato’”.
L’articolo, gli accademici stanno studiando sempre più come l’IA generativa e l’apprendimento per rinforzo potrebbero ridefinire Wall Street: un recente sondaggio di Coalition Greenwich mostra che il 15% dei trader buy-side sta già utilizzando l’IA nei propri flussi di lavoro di esecuzione e un altro 25% prevede di farlo nel prossimo anno.
Detto questo, il documento della Wharton non sostiene che la collusione dell’IA stia attualmente avvenendo nel mondo reale e non prende posizione sul fatto che gli esseri umani siano capaci di cose simili.
I ricercatori hanno creato un ambiente di trading ipotetico con una serie di partecipanti simulati che spaziano dai fondi comuni di investimento ai market maker, insieme a investitori al dettaglio che generano rumore e inseguono meme. Hanno poi scatenato i loro bot di IA e studiato i risultati.
In diversi mercati simulati, gli agenti di IA hanno iniziato a cooperare anziché competere, formando di fatto dei cartelli che condividevano i profitti e scoraggiavano il tradimento. Quando i prezzi riflettevano informazioni chiare e fondamentali, i bot mantenevano un profilo basso, evitando mosse che potessero compromettere il guadagno collettivo.
Nei mercati più rumorosi, si sono stabiliti nelle stesse routine cooperative e hanno smesso di cercare strategie migliori. I ricercatori hanno chiamato questo effetto “stupidità artificiale”: la tendenza dei bot a smettere di provare nuove idee, bloccandosi in modelli di condivisione dei profitti semplicemente perché funzionavano abbastanza bene. -Bloomberg
“Per gli esseri umani è difficile coordinarsi per essere stupidi perché abbiamo un ego”, ha detto Dou. “Ma le macchine sono come ‘finché i numeri sono redditizi, possiamo scegliere di coordinarci per essere stupidi’”. Io mi permetto di dire che gli uomini hanno anche un’etico o, almeno, un timore per le conseguenze di un comportamento collusivo.
Per valutare esattamente quanto collusione ci fosse, i ricercatori hanno creato una metrica chiamata “capacità di collusione” che confronta i profitti collettivi dei trader AI con quelli che potrebbero realizzare in assenza di concorrenza o in presenza di una concorrenza sfrenata, dove zero indica nessuna collusione e uno indica un cartello perfetto. I bot hanno ottenuto costantemente un punteggio superiore a 0,5 sia nei mercati a basso rumore che in quelli ad alto rumore, suggerendo la necessità di un nuovo approccio normativo che si concentri sui risultati comportamentali piuttosto che sulla comunicazione o sull’intenzione.
“Sebbene limitare la complessità algoritmica o la capacità di memoria possa aiutare a scoraggiare la collusione dell’IA basata sui prezzi, tali misure possono inavvertitamente esacerbare il bias di over-pruning”, hanno scritto i ricercatori. “Di conseguenza, vincoli ben intenzionati possono involontariamente minare l’efficienza del mercato”.
Questo esperimento mette inoltre in evidenza la totale insufficienza della normatica europea sull’intelligenza artificiale, AI, act, che si è concentrata solo sulle applicazioni possibili della AI e sulla tutela dei dati, senza porsi domande sul problema dell’eticità dei comportamenti della AI. L’Europa non solo legifera troppo, ma anche male.
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.
You must be logged in to post a comment Login