Elon Musk: «L’intelligenza artificiale è un rischio per l'umanità». In una lettera (con altri mille manager) chiede stop di 6 mesi

L'allarme è del patron di Tesla e di altri 1000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto "scenario Terminator"

Mercoledì 29 Marzo 2023
Elon Musk: «L intelligenza artificiale è un rischio per l'umanità». In una lettera chiede lo stop di 6 mesi

L'intelligenza artificiale pone «profondi rischi per la società e l'umanità» e per questo servirebbe una «pausa» di almeno sei mesi nell'«addestramento» dei sistemi più avanzati. L'allarme è di Elon Musk e di altri mille fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto "scenario Terminator" e consentire lo sviluppo di protocolli di sicurezza condivisi. La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente. A sottoscriverla infatti ci sono il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai. Oltre ovviamente al miliardario visionario patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver, con la sua spinta all'innovazione, contribuito a trasformare radicalmente l'industria dello spazio con SpaceX e rivoluzionare quella dell'auto spianando la strada già più di un decennio fa alle vetture elettriche che si guidano da sole.

Intelligenza artificiale, gli investimenti di Musk

Fanatico della tecnologia, Musk ha investito in società di intelligenza artificiale ed era anche nel consiglio di amministrazione di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari.

Investimenti, ha spiegato più volte, non per guadagnare ma per tenersi al passo con i tempi e quindi conoscere queste tecnologie. Nel mirino dei big non c'è tutta l'intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. «I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili», si legge nella lettera in cui si parla di una «corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare».

Elon Musk porta nello spazio il libro di Papa Francesco sulla pace: potremo captare i messaggi del satellite italiano. Così si manda il proprio nome in orbita

Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica "Skynet" protagonista dei film di James Cameron e la sua decisione di distruggere l'umanità; oppure, più prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino - ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina - vede l'intelligenza artificiale come uno «strumento o un'arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria». Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell'hi-tech a chiedere una pausa di sei mesi da usare per lo «sviluppo congiunto e l'implementazione di protocolli condivisi» che assicurino la «sicurezza» dei sistemi «al di là di ogni ragionevole dubbio», prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più «accurati, trasparenti, credibili e leali» gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti. «La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici - prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell'IA, e non corriamo impreparati verso l'autunno».

 

Ultimo aggiornamento: 20:17 © RIPRODUZIONE RISERVATA