Seguici su

Cultura

La AI è inspiegabile, imprevedibile e incontrollabile. Un nuovo libro mette in allarme sugli sviluppi dell’intelligenza artificiale

Il Dr.  Roman V.Yampolskiy è professore associato di ruolo presso l’Università di Louisville e ha pubblicato i risultati delle sue ricerche nel libro intitolato “Intelligenza artificiale, inspiegabile, imprevedibile, incontrollabile”

Pubblicato

il

La AI è inspiegabile, imprevedibile e incontrollabile
La AI è inspiegabile, imprevedibile e incontrollabile

Il Dr.  Roman V.Yampolskiy è professore associato di ruolo presso l’Università di Louisville e ha pubblicato i risultati delle sue ricerche nel libro intitolato “AI Unexplainable, Unpredictable, Uncontrollable” “Intelligenza artificiale, inspiegabile, imprevedibile, incontrollabile“. In questo libro l’esperto, compiendo un’analisi approndita  della letteratura scientifica sull’IA e ha concluso che non esistono prove a sostegno dell’idea che l’IA possa essere controllata in modo sicuro.

Anche le misure che potrebbero essere prese per prevenire eventuali incidenti e migliorare la sicurezza sarebbe insufficienti.

Il suo lavoro sulla sicurezza dell’IA è stato parzialmente finanziato da Elon Musk e dal Future of Life Institute (FLI), fondato da Max Tegmark, professore del MIT e da Jaan Tallinn, co-fondatore di Skype. FLI è lo stesso istituto che ha chiesto una moratoria di sei mesi sullo sviluppo di strumenti di intelligenza artificiale più potenti del GPT-4 di OpenAI.

La lettera aperta dell’istituto è stata firmata da oltre 33.000 tecnici, tra cui Musk, il co-fondatore di Apple Steve Wozniak, il “padrino dell’intelligenza artificiale” Yoshua Bengio e altri esperti, come riporta Interesting Engineering.
Preoccupazione per la gestione e la regolamentazione dei rischi dell’IA

Con l’ingresso sul mercato di nuovi strumenti di IA nell’ultimo anno, il Dr. Yampolskiy suggerisce che i sistemi avanzati di IA presenteranno sempre dei rischi, nonostante i loro potenziali benefici, a causa della loro intrinseca imprevedibilità e autonomia.

“Perché molti ricercatori pensano che il problema del controllo dell’IA sia risolvibile? Per quanto ne sappiamo, non c’è nessuna prova a riguardo, nessuna dimostrazione. Prima di imbarcarsi nella ricerca di un’IA controllata, è importante dimostrare che il problema è risolvibile”, ha dichiarato il Dr. Yampolskiy in un comunicato stampa.

“Questo, unito alle statistiche che mostrano come lo sviluppo della superintelligenza dell’IA sia un evento quasi garantito, dimostra che dovremmo sostenere un significativo sforzo di sicurezza dell’IA”, ha aggiunto.

Lo sviluppo della superintelligenza è inevitabile

Poiché l’IA, compresa la superintelligenza, è in grado di apprendere, adattarsi e agire in modo semi-autonomo, diventa sempre più difficile garantirne la sicurezza, soprattutto con l’aumento delle sue capacità.

Si può dire che l’IA superintelligente avrà una mente propria. Allora come possiamo controllarla? Le leggi della robotica di Isaac Asimov, che stabiliscono un comportamento etico tra uomini e robot, sono ancora valide per il mondo di oggi?

Il dottor Yampolskiy, la cui principale area di interesse è la sicurezza dell’IA, ha spiegato: “Siamo di fronte a un evento quasi garantito che potrebbe causare una catastrofe esistenziale”.

“Non c’è da stupirsi che molti lo considerino il problema più importante che l’umanità abbia mai affrontato. Il risultato potrebbe essere la prosperità o l’estinzione e il destino dell’universo è in bilico”, ha aggiunto.

Una sfida importante è rappresentata dalle infinite potenziali decisioni e fallimenti degli esseri superintelligenti, che rendono difficile la previsione e la mitigazione.

Inoltre, la mancanza di spiegazioni nelle decisioni dell’IA solleva preoccupazioni, poiché la comprensione di queste decisioni è fondamentale per ridurre gli incidenti e garantire risultati privi di pregiudizi, in particolare in settori critici come l’assistenza sanitaria e la finanza, dove l’IA è penetrata.

Con l’aumento dell’autonomia dell’IA, il controllo umano diminuisce, causando problemi di sicurezza. Il Dr. Yampolskiy propone un equilibrio tra capacità e controllo, riconoscendo che la superintelligenza può intrinsecamente non essere controllabile. Quindi il livello di intelligenza dovrebbe essere limitato per permettere un certo livello, comunque, di controllo. 

Discute inoltre dell’importanza di allineare l’IA con i valori umani, esattamente come faceva Asimov con le sue famose tre leggi della robotica, suggerendo metodi per ridurre al minimo i rischi, come rendere l’IA modificabile, trasparente e classificabile come controllabile o non controllabile.

Nonostante queste sfide, il Dr. Yampolskiy incoraggia a continuare la ricerca e gli investimenti nella sicurezza dell’IA, sottolineando che, anche se il raggiungimento di un’IA sicura al 100% potrebbe essere difficile, bisogna comunque cercare di raggiungere un buon livello di sicurezza.


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento