Economia

Musk mette in guardia sull’intelligenza artificiale

Questa notizia è stata scritta più di un anno fa old news

Elon Musk ritiene che sia necessario prendersi una pausa dall’AI. L’intelligenza artificiale pone dei profondi rischi per la società e l’umanità: questo è il motivo per il quale è importante prendersi una pausa di sei mesi e stoppare l’addestramento dei sistemi più avanzati.

A lanciare questo allarme contro l’AI è, oltre a Elon Musk, un folto gruppo di ricercatori e manager (complessivamente sono 1.000), che hanno firmato una lettera aperta, nella quale viene chiesto uno stop od una moratoria all’intelligenza artificiale.

Il timore è che possa verificarsi uno scenario alla Terminator: per questo lo stop dovrebbe consentire di sviluppare dei protocolli di sicurezza che siano condivisi.

L’intelligenza artificiale fa paura

La lettera aperta è stata pubblicata dalla no profit Future of Life: nella missiva sono presenti altre firme illustri, oltre a quella di Elon Musk. Questo è il motivo per il quale il suo contenuto è stato preso seriamente.

Il documento è stato sottoscritto, tra gli altri, da Steve Wozniak, cofondatore di Apple, e dai manager di Pinterest e di Skype. Non mancano nemmeno i fondatori di alcune startup, il cui business principale è proprio l’intelligenza artificiale: Stability AI e Charatcters.ai.

Ricordiamo, tra l’altro, che Elon Musk, sull’AI ha investito parecchie risorse: il miliardario aspira a migliorare il cervello umano con Neuralink e ha contribuito a trasformare radicalmente l’industria dello spazio attraverso SpaceX.  Con Tesla ha rivoluzionato il mondo dell’automotive, spianando la strada ai veicoli elettrici che si guidano da soli.

Musk, senza dubbio, è un fanatico della tecnologia ed ha investito parecchi capitali in OpenAI, il colosso del settore nel quale, ultimamente, Microsoft ha immesso del capitale. Secondo Musk questi investimenti sono stati effettuati per tenersi al passo con i tempi e conoscere queste tecnologie, non per guadagnare.

Di cosa hanno paura i big della tecnologia

Ma di cosa hanno paura i big della tecnologia? A finire sul banco degli imputati non è tutta l’AI, ma solo i sistemi più avanzati di GPT-4, la chatbot di OpenAI, che è in grado di raccontare le barzellette e superare con agilità gli esami per diventare avvocato.

Nella lettera aperta si legge:

I sistemi potenti di AI dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili. Una corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare.

Il timore è che, se questa corsa non viene fermata, possa concretizzarsi Skynet, il protagonista del film “Terminator“, diretto da James Cameron, che ha deciso di distruggere l’umanità.

O molto più prosaicamente, si potrebbe correre il rischio di far finire in mani sbagliate questi potenti sistemi, con delle ricadute che potrebbero essere devastanti. Il senatore Mike Gallagher, a capo della commissione della camera sulla Cina ha avvertito, ad esempio, che Pechino vede l’intelligenza artificiale come uno strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria.

Il timore di conseguenze catastrofiche ha quindi spinto i manager dell’hi-tech a chiedere una pausa di sei mesi da usare per lo sviluppo congiunto e l’implementazione di protocolli condivisi che assicurino la sicurezza dei sistemi al di là di ogni ragionevole dubbio. La lettera infine invita i laboratori di AI a concentrarsi nel rendere più accurati, trasparenti, credibili e leali gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti.