Economia

Chat GPT, al via la task force europea per garantire la privacy

Questa notizia è stata scritta più di un anno fa old news

Prende il via una vera e propria task force dei garanti nazionali sulla privacy su Chat GPT. Lo scorso giovedì, l’organismo che riunisce i garanti nazionali della privacy in Europa ha effettuato il primo passo per concordare una linea comune nel definire le norme sulla privacy sull’intelligenza artificiale.

La decisione del Comitato europeo per la protezione dei dati (Edpb) prende il via dalla decisione del Garante sulla privacy italiano che, lo scorso mese, aveva deciso di frenare Chat GPT. Questa decisione, almeno stando all’opinione del commissario tedesco per la protezione dei dati, potrebbe essere seguita in Germania. Anche il commissario spagnolo ha anticipato che avvierà un’indagine sulle potenziali violazioni commesse da Chat GPT.

Chat GPT, i dubbi sulla privacy

Ricordiamo che Chat GPT è un programma di intelligenza artificiale, il quale, nel corso degli ultimi mesi, ha attirato l’attenzione del pubblico per la sua capacità di scrivere rapidamente risposte a un’ampia gamma di domande. Chat GPT è cresciuto fino a diventare l’applicazione consumer con la più rapida crescita nella storia con oltre 100 milioni di utenti attivi mensili, sollevando domande sulle minacce tutto questo può comportare per la sicurezza, la privacy ed i posti di lavoro.

In Europa a muoversi è stato direttamente il Comitato Europeo per la Protezione dei Dati (European Data Protection Board, Edpb), che è, in estrema sintesi, l’ente dell’Unione europea incaricato di garantire l’applicazione coerente del Gdpr nei vari paesi membri e del quale fanno parte i rappresentanti delle varie autorità nazionali. L’Agencia Española de Protección de Datos, il garante spagnolo, ha chiesto che venisse messo in agenda il dibattito sui potenziali rischi di ChatGPT e ha richiesto la creazione di una task force, dedicata proprio alla questione.

Lo scopo di questa task force dovrebbe essere quello di andare a favorire la cooperazione e lo scambio di informazioni su possibili azioni di adempimento sulla provacy, che verranno condotte dalle varie autorità di protezione dei dati. Per il momento non si hanno altre informazioni, perché l’ente, almeno fino a questo momento, non ha risposto alla richiesta di delucidazione avanzata direttamente da Reuters. Da un punto di vista ufficioso, al momento sembra che non ci sia una presa di posizione europea comune su ChatGPT e privacy.

Dove vuole arrivare la task force

Reuters cita una fonte – che non vuole essere identificata perché non autorizzata a parlare pubblicamente – secondo cui gli Stati membri vorrebbero allineare le varie posizioni politiche sull’intelligenza artificiale, anche se questo potrebbe richiedere un po’ di tempo.

Secondo quanto riferisce la fonte citata da Reuters, gli Stati membri non avrebbero intenzione di punire o stabilire regole che influenzeranno OpenAI, proprietario di Chat GPT e supportato da Microsoft, ma piuttosto di creare politiche generali che siano trasparenti.

Perché Chat GPT preoccupa così tanto? L’intelligenza artificiale sviluppata da OpenAI è cresciuta in maniera molto rapida e nell’arco di poco tempo è arrivata ad avere oltre 100 milioni di utenti attivi mensili. Sabrina Küspert, esperta di intelligenza artificiale e collaboratrice del think tank tecnologico tedesco Stiftung ha spiegato che “il problema è la velocità con cui la società si trova improvvisamente a confrontarsi con questa tecnologia. Per alcuni, Chat GPT e la tecnologia alla base sono uno sviluppo dannoso, mentre altri ne sono entusiasti. La verità probabilmente sta nel mezzo”.

Inoltre, occorrono probabilmente un’analisi e una regolamentazione a livello globale del chatbot e dell’AI. Anche perchè l’innovazione non si può bloccare: lo dimostra la censura da parte del Garante Italiano della privacy di Chat GPT, aggirato con una semplice VPN o con  PizzaGPT e altri strumenti simili, che si sono diffusi grazie alle API open source di OpenAI.