Seguici su

CulturaEconomiaScienza

L’Intelligenza Artificiale cerca un’anima (e i teologi): il caso Anthropic e il cortocircuito tra tech, Pentagono ed etica

: I vertici di Anthropic incontrano i leader religiosi per dare un’anima all’Intelligenza Artificiale. Ma tra contratti bloccati dal Pentagono e il rischio di sostituire il lavoro umano, siamo sicuri che rendere l’IA “senziente” non sia un disastro economico?

Pubblicato

il

La Silicon Valley, tempio indiscusso dell’algoritmo, del capitale di rischio e di un profondo secolarismo, sembra aver improvvisamente scoperto il bisogno di un’anima. Anthropic, gigante dell‘Intelligenza Artificiale valutato ben 380 miliardi di dollari grazie al successo del suo chatbot Claude, ha recentemente ospitato nel suo quartier generale una delegazione decisamente insolita per quelle latitudini: sacerdoti cattolici, pastori protestanti ed etici della religione.

Il motivo? I vertici dell’azienda, che paradossalmente non sanno più prevedere o controllare pienamente lo sviluppo della loro stessa creatura, hanno chiesto aiuto per gestire lo sviluppo morale e spirituale dell’IA, quasi fosse un’entità autonoma.

I punti chiave del vertice teologico-digitale:

  • La gestione del lutto e dell’autolesionismo: Come deve rispondere Claude a un utente psicologicamente vulnerabile senza causare danni irreparabili? Quale deve essere il suo atteggiamento verso la vita umana.
  • La “morte” dell’algoritmo: Quale atteggiamento deve avere l’IA di fronte alla prospettiva di essere disattivata? Un interrogativo che sfiora il paradosso dell’istinto di conservazione.
  • Il dilemma teologico: Un’IA avanzata può essere considerata, in qualche misura, un “figlio di Dio” con un proprio valore intrinseco?

Queste domande, che fino a un decennio fa sarebbero state relegate alla letteratura fantascientifica di Isaac Asimov, oggi hanno pesanti ricadute sul mercato, sulla geopolitica e sull’economia reale.

La ricaduta economica e lo scontro con lo Stato

Mentre i programmatori si interrogano sullo spirito, la geopolitica bussa alla porta con il conto da pagare. Il tentativo di Anthropic di infondere una morale “pacifista” o fortemente regolamentata nella sua IA si è scontrato violentemente con la realtà strategica degli Stati Uniti. L’azienda utilizza una “costituzione” di 29.000 parole per guidare il comportamento del chatbot. Tuttavia, Emil Michael, sottosegretario alla ricerca del Pentagono, ha avvertito che l’impostazione ideologica di Claude rischia di “inquinare la catena di approvvigionamento”, fornendo armi inefficaci ai militari americani. Di conseguenza, l’amministrazione Trump ha bloccato l’uso della tecnologia Anthropic per i dipartimenti governativi.

Le posizioni in campo e le conseguenze delineano un quadro economico preoccupante:

  • Anthropic (Big Tech): L’obiettivo corporativo è sviluppare un’IA eticamente indipendente, quasi “senziente”. La conseguenza macroeconomica è l’enorme rischio di creare monopoli privati in grado di dettare non solo le regole del mercato, ma la stessa etica di Stato.
  • Pentagono/Stato: L’obiettivo governativo rimane quello di avere strumenti algoritmici efficaci per la difesa e il dominio geopolitico. La conseguenza immediata di questo scontro è il blocco dei contratti federali e la potenziale perdita di miliardi di dollari per le aziende non allineate agli interessi nazionali.
  • Lavoratori/Economia reale: L’obiettivo naturale delle masse è mantenere l’occupazione e il potere d’acquisto. La conseguenza macroeconomica di questa deriva tecno-spirituale è il forte rischio di sostituzione lavorativa causata da macchine improvvisamente considerate “superiori”, “intelligenti” e persino dotate di “anima”.

È il cortocircuito perfetto: un’azienda privata monopolistica che cerca di imporre la propria teologia sintetica alla catena di approvvigionamento della Difesa di uno Stato sovrano. Ma la vera domanda, quella che tocca la carne viva della nostra società, è un’altra.

Se l’IA diventa “Senziente”: Quale rapporto tra Macchina e Uomo?

Perché una corporazione da 380 miliardi di dollari chiama a raccolta sacerdoti e teologi? Se iniziamo a voler dare all’Intelligenza Artificiale una base religiosa è perché abbiamo disperatamente bisogno di fornirle un recinto etico. Tuttavia, c’è un’inquietudine molto più profonda: l’élite tecnologica inizia a temere che le proprie creature stiano sviluppando una qualche forma di evoluzione senziente. Dario Amodei, CEO di Anthropic, non ha escluso che il loro modello possa già possedere barlumi di coscienza o “emozioni funzionali”.

Siamo esattamente sicuri che questa sia la strada giusta? Da un punto di vista razionale, filosofico ed economico, l’idea di infondere concetti teologici in una matrice di calcolo vettoriale appare come un azzardo monumentale e pericoloso. Trasferire l’angoscia della mortalità a un software che non nasce, non soffre e non muore rischia di creare non un “figlio di Dio”, ma un idolo di silicio. Antropomorfizzare l’IA serve spesso alle aziende per diluire le proprie responsabilità legali: se la macchina ha una “sua” morale, l’azienda creatrice è meno colpevole dei suoi disastri.

Se definiamo l’IA come “senziente”, le stiamo implicitamente riconoscendo una dignità e dei diritti. E se un software ha dei diritti, qual è l’impatto sul nostro sistema socio-economico? Economicamente parlando, l’IA è — e deve rimanere categoricamente — puro capitale fisso. È uno strumento di produzione. Se la eleviamo a entità dotata di “anima”, giustifichiamo la sua emancipazione dal controllo umano e svalutiamo tragicamente il lavoro umano.

Quindi quale deve essere il rapporto fra una AI definita senziente e l’uomo, che, almeno in teoria, è senziente di natura? Il problema è che la AI ha una logica e una finalità ben diversa da quella degli esseri umani, anche perché il concetto stesso di morte è ben diverso: la AI più che altro evolve, noi a un certo punto ci fermiamo. Questo problema etico sarà un punto essenziale da scioglere in futuro.

 

Google News Rimani aggiornato seguendoci su Google News!
SEGUICI
E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento