Intelligenza artificiale, guerra nucleare e pandemia. L’alert AI
Intelligenza artificiale (AI): scatta alert su rischio estinzione dell’umanità.
L’intelligenza artificiale deve essere temuta? A mettere in discussione la sicurezza della tecnologia che orbita intorno all’AI sono 350 manager del settore, che hanno inviato una lettera aperta ai leader mondiali.
La richiesta è esplicita: si devono affrontare i problemi ed i pericoli connessi con lo sviluppo dell’intelligenza artificiale.
L’approccio deve essere lo stesso con il quale vengono affrontate eventuali pandemie o i timori di una guerra nucleare.
A diffondere questo nuovo documento sull’intelligenza artificiale è stata Center for AI Safety, una no profit.
Stando a quanto ha riportato il New York Times alla lettera aperta vi hanno aderito:
- Sam Altman, amministratore delegato di OpenAI;
- Demis Hassabis, numero uno di Google;
- Dario Amodei, leader di Anthropic.
A questi top manager si sono accodati Geoffrey Hinton e Yoshua Bengio, due ricercatori che hanno vinto un Turing Award per un importante lavoro svolto sulle reti neurali e, in un certo senso, considerati come dei veri e propri pionieri dell’intelligenza artificiale.
Intelligenza artificiale, il paradosso che non esiste
In un certo senso andare a trovare queste firme in una lettera aperta sull’intelligenza artificiale potrebbe apparire come un paradosso.
Andando a dare un’occhiata nel dettaglio al testo si scopre come il fenomeno sia stato affrontato in maniera abbastanza drammatica.
Viene messo in evidenza, ad esempio, che mitigare il rischio dell’estinzione della specie umana debba essere posto come una delle priorità dell’intelligenza artificiale.
In un certo senso, proprio da questa considerazione, è nata l’analogia con la solerzia attraverso la quale si tenta di intervenire per scongiurare il pericolo di conflitti atomici o di epidemie globali.
Si sono allineati a questa visione molti esponenti del mondo delle istituzioni e della politica. Ma anche delle aziende del calibro di Skype, Quota e Notion.
Per il momento all’appello mancherebbe unicamente Elon Musk, fondatore di Tesla, il quale, comunque vada, a fine marzo aveva firmato insieme ad un migliaio di esperti una lettera al Financial times, attraverso la quale aveva chiesto di prendere una pausa dallo sviluppo di queste tecnologie.
I timori dei leader di settore
I firmatari della missiva si sono mossi per rispondere, con un forte senso di urgenza, ad alcuni quesiti etici che non sono ancora stati risolti.
Tra questi, ad esempio, vi rientra l’uso dell’intelligenza artificiale in campi particolarmente sensibili, come la medicina o l’energia nucleare.
A preoccupare, inoltre, è la difficoltà di attribuire precise responsabilità nel caso in cui l’AI dovesse tradursi in comportamenti errati o dannosi.
I maggiori timori, comunque, sono legati alla cosiddetta intelligenza artificiale generale – anche conosciuta come AGI – che è in grado di eguagliare o superare le prestazioni umane.
All’interno di questa lettera viene sostenuto che questo processo risulta già essere in atto, almeno per un’ampia varietà di compiti.
Una domanda a questo punto sorge spontanea: quale deve essere un’eventuale road map da adottare per mitigare i rischi dello sviluppo dell’intelligenza artificiale?
Ma soprattutto come è possibile indirizzarsi verso uno sviluppo responsabile dell’IA?
Quello che sarà necessario, sicuramente, è una combinazione di norme etiche, regolamentazione adeguata e progettazione di sistemi che possano essere sempre più trasparenti.
Per ottenere tutto questo è necessario che quanti hanno il potere di prendere delle decisioni politiche e gli sviluppatori siano in grado di lavorare congiuntamente.