Seguici su

Attualità

Elon Musk e Steve Wozniak chiedono una moratoria per l’Intelligenza Artificiale. Troppo pericolosa

Pubblicato

il

La capacità aumentata amplifica l'appiattimento culturale e produttivo dovuto al passaggio dall'era dei mestieri all'era dei tuttologi.

Elon Musk, Steve Wozniak, il pioniere dell’IA Yoshua Bengio e altri hanno firmato una lettera aperta in cui chiedono una pausa di sei mesi nello sviluppo di nuovi strumenti di IA più potenti del GPT-4, la tecnologia rilasciata all’inizio del mese dalla startup OpenAI sostenuta da Microsoft, come riporta il Wall Street Journal.

I sistemi di IA contemporanei stanno diventando competitivi per l’uomo in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine occupino i nostri canali di informazione: Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. futureoflife.org

“Abbiamo raggiunto il punto in cui questi sistemi sono abbastanza intelligenti da poter essere utilizzati in modi pericolosi per la società”, ha detto Bengio, direttore del Montreal Institute for Learning Algorithms dell’Università di Montreal, aggiungendo: “E non lo capiamo ancora”.

Le loro preoccupazioni sono state esposte in una lettera intitolata “Pause Giant AI Experiments: An Open Letter“, promossa dal Future of Life Institute, un’organizzazione no-profit consigliata da Musk.

La lettera non chiede di fermare tutto lo sviluppo dell’IA, ma esorta le aziende a interrompere temporaneamente l’addestramento di sistemi più potenti del GPT-4, la tecnologia rilasciata questo mese dalla startup OpenAI sostenuta da Microsoft Corp. Questo include la prossima generazione della tecnologia di OpenAI, GPT-5.

I funzionari di OpenAI affermano di non aver ancora iniziato la formazione di GPT-5. In un’intervista, l’amministratore delegato di OpenAI Sam Altman ha dichiarato che l’azienda ha da tempo dato priorità alla sicurezza nello sviluppo e ha trascorso più di sei mesi a effettuare test di sicurezza su GPT-4 prima del suo lancio. –WSJ

Secondo Goldman, invece, fino a 300 milioni di posti di lavoro potrebbero essere sostituiti dall’IA, poiché “due terzi delle occupazioni potrebbero essere parzialmente automatizzati dall’IA”. Una situazione che porterebbe a sconvolgimenti sociali di difficile gestione. 

La cosiddetta IA generativa crea contenuti originali sulla base di suggerimenti umani, una tecnologia che è già stata implementata nel motore di ricerca Bing di Microsoft e in altri strumenti. Poco dopo, Google ha implementato un rivale chiamato Bard. Altre aziende, tra cui Adobe, Salesforce e Zoom, hanno introdotto strumenti avanzati di IA. “La gara inizia oggi”, ha dichiarato il mese scorso il CEO di Microsoft Satya Nadella. “Ci muoveremo, e in fretta”.

Uno degli organizzatori della lettera, Max Tegmark, che dirige il Future of Life Institute ed è professore di fisica al Massachusetts Institute of Technology, la definisce una “corsa al suicidio”.

“È un peccato inquadrare la questione come una corsa agli armamenti”, ha detto. “È piuttosto una corsa al suicidio. Non è importante chi arriverà per primo. Significa solo che l’umanità nel suo complesso potrebbe perdere il controllo del proprio destino”.

Il Future of Life Institute ha iniziato a lavorare alla lettera la settimana scorsa e inizialmente ha permesso a chiunque di firmare senza verificare l’identità. A un certo punto, il nome del signor Altman è stato aggiunto alla lettera, ma poi è stato rimosso. Il signor Altman ha dichiarato di non aver mai firmato la lettera. Ha dichiarato che l’azienda si coordina spesso con altre aziende di IA per quanto riguarda gli standard di sicurezza e per discutere di problemi più ampi.

 


Telegram
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.

⇒ Iscrivetevi subito


E tu cosa ne pensi?

You must be logged in to post a comment Login

Lascia un commento