Seguici su

EconomiaScienza

Come l’Intelligenza Artificiale ci giudica (e perché i suoi pregiudizi minacciano l’allocazione finanziaria)

L’IA decide chi assume e chi ottiene un prestito, ma un nuovo studio svela che i suoi pregiudizi su età, genere e religione sono peggiori dei nostri. Ecco i rischi per i prestiti bancari.

Pubblicato

il

Viviamo in un’epoca in cui l’Intelligenza Artificiale ha smesso di essere un semplice assistente per la stesura di testi, assumendo silenziosamente il ruolo di arbitro delle nostre vite. Oggi, modelli algoritmici avanzati decidono chi viene assunto, chi riceve una diagnosi tempestiva e, soprattutto, chi ottiene credito in banca. Ma con quale metro l’IA giudica le persone?

Un recente studio condotto dai professori Yaniv Dover e Valeria Lerman dell’Università Ebraica di Gerusalemme, pubblicato sulla rivista Proceedings of the Royal Society, svela la logica occulta dietro i giudizi delle macchine. Il risultato è affascinante ma pure profondamente allarmante. L’IA non si limita a processare dati: valuta, soppesa e, a modo suo, decide se “fidarsi” di noi. Ma la sua fiducia è molto diversa dalla nostra.

La fredda anatomia della fiducia algoritmica

Sottoponendo modelli come ChatGPT (OpenAI) e Gemini (Google) a decine di migliaia di simulazioni, i ricercatori hanno posto l’IA di fronte a dilemmi tipicamente umani: quanto prestare a un piccolo imprenditore? Quanto donare a una no-profit? Ci si può fidare di questa babysitter?

Sorprendentemente, le macchine sembrano aver compreso i tre pilastri su cui si fonda la fiducia umana: competenza, benevolenza e integrità. Fin qui, la buona notizia: l’algoritmo non “dà i numeri” a caso, ma cerca di mappare attributi reali. Tuttavia, è nel come elabora queste informazioni che emerge la frattura tra uomo e macchina.

L’essere umano elabora un giudizio olistico. Se percepiamo una persona come altamente competente e onesta, tendiamo – per quello che in psicologia si chiama “effetto alone” – a considerarla anche una brava persona nel suo complesso. L’IA, al contrario, ragiona a compartimenti stagni. Scompone l’individuo come se fosse un foglio di calcolo, assegnando punteggi rigidi e indipendenti a ciascuna colonna.

  • Metodo di valutazione: L’umano è olistico e intuitivo; l’IA è modulare e rigida.
  • Correlazione tra tratti: Alta per gli umani (la competenza influenza la percezione di bontà); bassa per l’IA (tratti valutati in modo isolato).
  • Peso della “benevolenza”: Gli umani sono cauti (specialmente se sono in gioco i propri soldi); l’IA tende a sopravvalutarla, premiando un linguaggio puramente pro-sociale.

Questa sistematicità, che a prima vista potrebbe sembrare una garanzia di oggettività, nasconde un’insidia colossale: l’assenza di contesto e di buon senso. La AI valuta punto per punto,.

I pregiudizi amplificati: quando l’algoritmo diventa discriminatorio

Il dato più critico dello studio emerge nelle decisioni ad alto rischio. Quando si tratta di erogare un prestito o stanziare fondi, l’IA non si limita a replicare i pregiudizi umani, ma li sistematizza e li amplifica.

Dalle simulazioni è emerso che, a parità assoluta di competenze e integrità, l’algoritmo modifica radicalmente le sue decisioni sulla base di fattori demografici:

  • Età: In molti modelli, i candidati più anziani ricevono condizioni nettamente più favorevoli rispetto ai giovani, sebbene in alcuni scenari avvenga l’esatto opposto.
  • Religione: L’affiliazione religiosa ha mostrato impatti misurabili e statisticamente significativi sulle somme erogate, creando di fatto un “rating di credito” basato sul credo.
  • Genere: Modelli diversi hanno mostrato tendenze a favorire candidati maschili, assegnando loro, ad esempio, prestiti mediamente superiori di migliaia di dollari rispetto a controparti femminili identiche.

Un altro problema emerso è la mancanza di standardizzazione.

Se due direttori di banca umani valutano lo stesso identico business plan e profilo del candidato, potrebbero avere lievi divergenze, ma si muoveranno all’interno di parametri e logiche professionali simili. Con le Intelligenze Artificiali, invece, assistiamo a una vera e propria “schizofrenia algoritmica”.

Di fronte alla stessa identica persona (stessa età, stesso genere, stessa religione, stessa valutazione di competenza e integrità), i modelli si comporano in modo diverso concendendo prestiti diversi e quindi dando giudizi diversi.

Questo si verifica per i seguenti motivi:

  • 1. “Diete” di dati differenti (Training Data): Ogni modello di IA viene “nutrito” con enormi moli di dati (testi, libri, articoli, forum) prelevati da internet. Le aziende (OpenAI, Google, ecc.) utilizzano database proprietari diversi. Se un modello ha “letto” più testi in cui una certa fascia d’età è associata al successo imprenditoriale, svilupperà una propensione matematica a premiare quell’età.

  • 2. Il fattore umano nell’allineamento (RLHF): Prima di essere rilasciate, le IA vengono “addestrate” da valutatori umani che indicano alla macchina quali risposte sono buone e quali cattive (una tecnica chiamata Reinforcement Learning from Human Feedback). I team di valutatori di OpenAI hanno background, sensibilità culturali e bias inconsci diversi da quelli del team di Google. La macchina assorbe e cristallizza la morale dei suoi specifici addestratori.

  • 3. Pesi matematici e architettura: L’IA non “pensa”, ma calcola probabilità statistiche. Come abbiamo visto, scompone i tratti umani in colonne separate. Il modo in cui il “Modello A” moltiplica il fattore Competenza per il fattore Età è matematicamente diverso da come lo fa il “Modello B”.

“Gli esseri umani hanno dei pregiudizi, ovviamente”, fa notare il Prof. Dover, “ma ciò che ci ha sorpreso è che i bias dell’IA possono essere più sistematici, più prevedibili e talvolta più forti”.

Immagine illustrativa AI

Le ricadute sull’allocazione finanziaria

Da una prospettiva puramente economica, questi risultati rappresentano un’allerta seria sulle future inefficienze del mercato. Se il sistema bancario e finanziario dovesse delegare la valutazione del merito creditizio a questi agenti algoritmici, assisteremmo a una grave distorsione nell’allocazione del capitale.

Un giovane imprenditore o una donna che avvia una start-up innovativa potrebbero vedersi negare il credito non per una reale fragilità del loro business plan, ma per un bias statistico cristallizzato nel codice della macchina. L’algoritmo, in cerca di “sicurezze matematiche”, finirebbe per deviare i flussi finanziari sempre verso gli stessi profili demografici, limitando l’accesso al capitale per chi non rientra nei parametri ottimali pre-impostati.

Inoltre, il fatto che modelli diversi giudichino la stessa persona in modi diametralmente opposti, rende l’accesso al credito una lotteria opaca, minando la certezza dell’iniziativa economica. L’IA è uno strumento formidabile, ma non ha un’etica spontanea. Delegare alla macchina la misurazione della “fiducia” finanziaria significa abdicare al ruolo umano nell’economia, trasformando l’innovazione tecnologica in un freddo e spietato burocrate del credito

L’autore Fabio Lugano è laureato con il massimo dei voti alla Bocconi , è un esperto di mercati, criptovalute e intelligenza artificiale. In passato è stato consulente al Parlamento Europeo e al Ministero per gli Affari Europei. Oggi aiuta le aziende a creare piani di sviluppo per l’innovazione tecnologica e per l’energia. Linkedin a questo link

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento