Economia

Intelligenza artificiale, Altman lancia l’allarme: “Va regolamentata subito”

L’intelligenza artificiale deve essere regolamentata. A prendere posizione in questo senso adesso è Sam Altman, numero uno di OpenAI, nei cui laboratori è stata sviluppata l’ormai celebre e discussa Chat GPT. Nel corso dell’audizione tenuta al Congresso Usa, Altman si è reso disponibile a collaborare direttamente con il governo statunitense per creare una serie di norme che possano garantire un vero e proprio equilibrio tra la sicurezza degli utenti e l’accesso all’intelligenza artificiale e ai benefici che questa può garantire.

Come se questo non bastasse, Altman ha poi aggiunto che è importante che l’intelligenza artificiale sia sviluppata con dei valori democratici. Ricordiamo che solo e soltanto due mesi fa, il numero uno di OpenAI – nel corso di un incontro organizzato da Microsoft – aveva elogiato le prestazioni di Chat GPT. Diversa è stata la sua presa di posizione di fronte alla Commissione Giustizia del Senato statunitense: in questo caso Altman si è mostrato leggermente più prudente, arrivando a chiedere un quadro normativo che possa andare a mitigare gli eventuali rischi connessi all’intelligenza artificiale.

Le regole per l’intelligenza artificiale

La presa di posizione di Sam Altman, in un certo senso, può sembrare inaspettata. Il manager ritiene che sia indispensabile l’intervento dei governi per regolamentare lo sviluppo e il successivo uso dell’intelligenza artificiale. Anzi, secondo il manager il loro intervento sarà fondamentale.

Classe 1985, Sam Altman ritiene che ogni tipo di intelligenza artificiale debba essere sviluppata rispettando i valori democratici. Per questo motivo, almeno in questo settore, la leadership degli Stati Uniti risulta essere di fondamentale importanza.

Con il lancio di Chat GPT è sicuramente aumentato l’interesse delle aziende e del pubblico per quella che viene definita come intelligenza artificiale generativa. Stiamo parlando, in estrema sintesi, di un software che è in grado di creare testi, immagini, suoni o video a seguito di un addestramento che viene effettuato grazie a degli enormi database.

Sono in molti, oggi come oggi, ad essere preoccupati del potenziale manifestato. Entro la fine dell’anno, ad esempio, l’Unione europea dovrebbe essere in grado di dotarsi della prima legge al mondo che regolamenta l’intelligenza artificiale: l’AI Act. Questa particolare norma ha ottenuto il prima via libera dell’Eurocamera nel corso degli ultimi giorni. Il suo relatore è l’eurodeputato del Partito Democratico Brando Benifei.

I rischi a cui si può andare incontro

Sam Altman ha fatto il punto della situazione sull’AI parlando alla Commissione del Senato per la privacy, la tecnologia e la legge. Il manager ha spiegato che “l’intelligenza artificiale ha il potenziale per migliorare praticamente ogni aspetto della nostra vita, ma crea anche seri rischi. Uno dei miei più grandi timori è che questa industria, questa tecnologia, possa causare danni significativi alla società. Se questa tecnologia va nella direzione sbagliata, può avere conseguenze imprevedibili. Noi vogliamo lavorare con il governo per evitare che ciò accada”.

Soffermandosi su Chat GPT, Altman ha spiegato che benché sia stata sviluppata da una società privata, questa risulta essere controllata da un’organizzazione no profit. Questo impone di lavorare per distribuire ampiamente i benefici dell’intelligenza artificiale. Ma soprattutto di andare a massimizzare la sicurezza dei sistemi basati sull’IA. Sam Altman si è espresso a favore di un quadro normativo per l’AI, preferibilmente a livello internazionale.