banner
Casa / Notizia / I CEO di OpenAI e Google DeepMind firmano una dichiarazione in cui avvertono che l'intelligenza artificiale rappresenta un "rischio di estinzione"
Notizia

I CEO di OpenAI e Google DeepMind firmano una dichiarazione in cui avvertono che l'intelligenza artificiale rappresenta un "rischio di estinzione"

Jul 08, 2023Jul 08, 2023

Oltre 350 esperti del settore dell’intelligenza artificiale, tra cui OpenAI e Google, avvertono che l’intelligenza artificiale è pericolosa quanto le grandi pandemie e la guerra nucleare.

-

Un gruppo di esperti di intelligenza artificiale (AI) ha avvertito che l’intelligenza artificiale potrebbe rappresentare una minaccia per l’umanità se non verrà sviluppata e utilizzata in modo responsabile. Il gruppo, che comprende ricercatori di Google, Microsoft e OpenAI, ha pubblicato un articolo sulla rivista Nature il 30 maggio 2023, delineando le proprie preoccupazioni.

Sam Altman, CEO di OpenAI, Dario Amodei, CEO di Anthropic, e Demis Hassabis, CEO di Google DeepMind sono i firmatari più importanti.

"Mitigare il rischio di estinzione dell'intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare", si legge nella lettera aperta. Il New York Times riporta che la dichiarazione sarà rilasciata dal Center for AI Safety, una nuova organizzazione no-profit. Oltre 350 ricercatori, ingegneri e dirigenti aziendali nel campo dell’intelligenza artificiale hanno co-firmato la lettera.

Geoffrey Hinton e Yoshua Bengio sono due importanti ricercatori che hanno firmato. Questi sono due dei tre ricercatori che hanno vinto un Premio Turing per lo sviluppo delle reti neurali. Entrambi gli innovatori nel campo dell'intelligenza artificiale, Hinton e Bengio, sono conosciuti come i "padrini" dell'innovazione dell'intelligenza artificiale. All'inizio di questo mese, Hinton ha lasciato la sua posizione in Google dopo essersi sentito frustrato dalla mancanza di visione e leadership di Google nello sviluppo dell'intelligenza artificiale. Ha anche messo in guardia sui potenziali pericoli dell’intelligenza artificiale.

Gli esperti sostengono che l’intelligenza artificiale potrebbe essere utilizzata per creare armi autonome in grado di uccidere senza l’intervento umano. Temono anche che l’intelligenza artificiale possa essere utilizzata per manipolare le persone o diffondere disinformazione. Il gruppo chiede uno sforzo globale per sviluppare l’intelligenza artificiale in modo sicuro e responsabile.

L’avvertimento degli esperti di intelligenza artificiale arriva in un momento in cui l’intelligenza artificiale sta rapidamente diventando più potente. Negli ultimi anni, l’intelligenza artificiale è stata utilizzata per sviluppare auto a guida autonoma, software di riconoscimento facciale e persino chatbot basati sull’intelligenza artificiale. Poiché l’intelligenza artificiale continua a svilupparsi, è importante considerare i potenziali rischi e i potenziali benefici.

Gli esperti di intelligenza artificiale che hanno pubblicato l’articolo su Nature non sono i primi a mettere in guardia sui potenziali pericoli dell’intelligenza artificiale. Nel 2015, Elon Musk e Stephen Hawking hanno scritto una lettera aperta chiedendo il divieto delle armi autonome. E nel 2017 il Future of Life Institute, organizzazione no-profit che promuove la ricerca sui rischi esistenziali, ha pubblicato un rapporto sui pericoli dell’IA.

Gli avvertimenti degli esperti di intelligenza artificiale e di altri esperti sono un campanello d’allarme. È chiaro che l’intelligenza artificiale è una tecnologia potente con il potenziale per causare gravi danni. È essenziale sviluppare l’intelligenza artificiale in modo responsabile e adottare misure per mitigare i rischi.

Ci sono molte preoccupazioni sull’intelligenza artificiale e sui legislatori e anche coloro che sono coinvolti nel settore dell’intelligenza artificiale le stanno esprimendo. Forse il più grande paradosso della tecnologia in questo momento è che lo sviluppo continua di un’intelligenza artificiale generativa avanzata nonostante molte figure importanti ne parlino dei pericoli. Immagino che la domanda ovvia sia: se dirigenti come Sam Altman sono preoccupati, perché stanno ancora sviluppando sistemi di intelligenza artificiale? È puramente orientato al profitto o è arroganza e convinzione di poter controllare questa tecnologia?

Sam Altman è il co-fondatore di OpenAI (insieme a Elon Musk) e attuale CEO della società di ricerca sull'intelligenza artificiale. È diventato uno dei leader tecnologici più potenti negli ultimi mesi poiché ChatGPT è diventato il chatbot AI più diffuso. Altman ha anche coltivato una profonda partnership con Microsoft a seguito di miliardi di dollari di investimenti da parte della società di Redmond.

Mentre OpenAI e Microsoft hanno ampliato i loro prodotti AI come GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot e GitHub Copilot. Tuttavia, i critici di Altman sostengono che OpenAI è stata troppo veloce nello sviluppare i suoi prodotti di intelligenza artificiale generativa senza attendere normative adeguate. Elon Musk, ex partner di Altman presso OpenAI, è uno di questi critici, affermando che il modo in cui l'azienda è ora non è quello che intendeva.

Musk si è anche unito ad altri leader tecnologici nella creazione del progetto Initiative for Life, che invita gli sviluppatori di intelligenza artificiale a cessare lo sviluppo di modelli più potenti di GPT-4 per almeno sei mesi. Vale la pena notare che Altman ha recentemente affermato che GPT-5 non è stato sviluppato da OpenAI. Questa settimana, Altman ha parlato in un’audizione del Congresso negli Stati Uniti e ha ammesso che sono necessarie norme chiare e rigorose per lo sviluppo dell’intelligenza artificiale.