Seguici su

Attualità

Per gli esperti la AI è un rischio come la guerra nucleare o la pandemia

Pubblicato

il

In una semplice dichiarazione di 22 parole in inglese, un gruppo di ricercatori, ingegneri e amministratori delegati dell’IA ha espresso preoccupazione per la minaccia esistenziale rappresentata dall’intelligenza artificiale. Il rapporto sottolinea l’urgente necessità di dare priorità alla mitigazione dei rischi dell’intelligenza artificiale accanto a pericoli di portata globale come le pandemie e la guerra nucleare.

La dichiarazione recita: “Mitigare il rischio di estinzione da parte dell’IA dovrebbe essere una priorità globale insieme ad altri rischi di scala sociale come le pandemie e la guerra nucleare”.

Tra i firmatari si annoverano Demis Hassabis, CEO di Google DeepMind, e Sam Altman, CEO di OpenAI. Anche i vincitori del Premio Turing Geoffrey Hinton e Youshua Bengio hanno sostenuto l’allarme. Allo stesso tempo, Yann LeCun, il terzo vincitore, deve ancora firmare.

La dichiarazione, pubblicata dal Center for AI Safety di San Francisco, contribuisce al dibattito in corso sulla sicurezza dell’intelligenza artificiale. All’inizio dell’anno, alcuni sostenitori del messaggio di 22 parole hanno scritto una lettera aperta per chiedere una “pausa” di sei mesi nello sviluppo dell’intelligenza artificiale. Tuttavia, la lettera è stata criticata a causa delle diverse opinioni sulla gravità del rischio dell’IA e sulla soluzione proposta.

Dan Hendrycks, direttore esecutivo del Center for AI Safety, ha spiegato che la brevità dell’ultima dichiarazione è stata voluta per evitare di generare ulteriori disaccordi. Inoltre, Hendrycks ha sottolineato che proporre numerosi interventi potenziali per mitigare la minaccia dell’IA avrebbe potuto diluire il messaggio. Invece, la dichiarazione concisa rappresenta una preoccupazione collettiva da parte di influenti figure del settore che da tempo nutrono timori sul rischio dell’IA.

Dibattiti a favore e contro la decisione

Sebbene il dibattito sia ben noto, i dettagli possono essere complessi e spesso ruotano attorno a scenari ipotetici in cui i sistemi di IA superano i limiti di sicurezza dei controlli. I sostenitori del rischio dell’IA sottolineano i rapidi progressi di tecnologie come i modelli linguistici di grandi dimensioni come prova di potenziali futuri aumenti di intelligenza che potrebbero diventare incontrollabili.

D’altro canto, gli scettici sottolineano le attuali limitazioni dei sistemi di IA, come ad esempio le continue sfide nello sviluppo di auto a guida autonoma, nonostante gli ingenti investimenti e sforzi.

A prescindere dalle diverse prospettive, i sostenitori e gli scettici del rischio dell’IA riconoscono le minacce attuali che i sistemi di IA pongono. Queste minacce vanno dall’agevolazione della sorveglianza di massa e degli algoritmi di “polizia predittiva” difettosi alla creazione e alla diffusione di disinformazione e di disinformazione.

Mentre il dibattito continua, questo avviso conciso ma d’impatto funge da campanello d’allarme per il mondo, esortandoci ad affrontare le sfide poste dall’IA e a trovare il modo di mitigarne i potenziali rischi. Il futuro dell’IA e il suo impatto sull’umanità sono in bilico e sottolineano la necessità di una navigazione prudente e previdente.


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento