Economia

Intelligenza artificiale, lobby di OpenAI sull’AI Act. Ecco come

Nel corso delle ultime settimane Sam Altman, ceo di OpenAI, si è recato nelle principali capitali mondiali dove ha incontrato i più importanti capi di governo. In più occasioni si è espresso a favore di una regolamentazione a livello globale dell’intelligenza artificiale.

Se questo era l’atteggiamento ufficiale tenuto dal manager, dietro le quinte OpenAI avrebbe fatto molte pressioni perché alcuni elementi significativi della legislazione sull’intelligenza artificiale più completa al momento – ossia l’AI Act dell’Unione europea, fosse annacquata, in modo che l’onere normativo per l’azienda potesse essere ridotto ai minimi termini. Questo è quanto emerge da alcuni documenti che il “Time” ha reso pubblici in questi giorni.

Intelligenza artificiale: il pressing occulto

Ma cosa accadeva in realtà dietro le quinte? OpenAI, secondo quanto riporta il “Time”, avrebbe proposto delle modifiche, che in un secondo momento sono state apportate al testo definitivo della legge europea, che è stata approvata dal parlamento europeo lo scorso 14 giugno 2023.

OpenAI, nel corso del 2022, ha ribadito in più occasioni ai funzionari europei che la legge sull’intelligenza artificiale non avrebbe dovuto prendere in considerazione i sistemi AI generici, tra il quali rientra GPT-3 il precursore di Chat GPT e il generatore di immagini Dall-E 2, come ad alto rischio. Questa designazione, in altre parole, li avrebbe sottoposti a severi requisiti legali, tra i quali rientrano la trasparenza, la tracciabilità e la supervisione umana.

Questa argomentazione ha portato OpenAI ad essere perfettamente in linea con Microsoft, che ha investito 13 miliardi di dollari nella società, e Google. I due colossi del web, già in precedenza, avevano esercitato alcune pressioni sui funzionari dell’Ue per un allentamento dell’onere normativo della legge sui grandi fornitori di intelligenza artificiale.

Google e Microsoft hanno sostenuto che l’onere di conformarsi ai requisiti più rigorosi della legge dovrebbe ricadere sulle aziende che si sono esplicitamente prefissate di applicare un’intelligenza artificiale a un caso d’uso ad alto rischio, non sulle aziende (spesso più grandi) che costruiscono sistemi di intelligenza artificiale generici.

Una vera e propria lobby

Il pressing effettuato in questi mesi direttamente da OpenAI in Europa non è stato segnalato in precedenza, anche se Sam Altman, ultimamente, è diventato più esplicito sulla legislazione in materia.

È necessario segnalare, comunque vada, che lo sforzo di lobby di OpenAI sembra proprio aver avuto successo. La bozza finale della legge approvata in Europa, infatti, non hanno tenuto conto delle formulazioni contenute all’interno delle bozze precedenti, nelle quali si suggeriva che i sistemi di intelligenza artificiale di uso generale dovessero essere considerati ad alto rischio. La legge concordata, invece, impone ai fornitori dei cosiddetti modelli di base, o potenti sistemi di intelligenza artificiale addestrati su grandi quantità di dati, di rispettare meno requisiti. Tra questi rientrano la prevenzione della generazione di contenuti illegali, rivelando se un sistema è stato addestrato su materiale protetto da copyright e l’esecuzione di valutazione del rischio.

Nel settembre 2022, tuttavia, questo apparente compromesso doveva ancora essere raggiunto. In una sezione del white paper di OpenAI condiviso con i funzionari europei, la società si oppose a una proposta di emendamento all’AI Act che avrebbe classificato i sistemi di intelligenza artificiale generativa come Chat GPT e Dall-E come ad alto rischio se avessero generato testo o immagini che potrebbero apparire falsamente come generato da un vero e proprio essere umano. Secondo OpenAI, questo emendamento farebbe sì che i loro modelli possano essere considerati inavvertitamente ad alto rischio e ha raccomandato di eliminare l’emendamento. La società ha sostenuto che sarebbe sufficiente fare affidamento ad un’altra parte della legge, che impone ai fornitori di intelligenza artificiale di etichettare in modo chiaro i contenuti generati dall’intelligenza artificiale e di rendere esplicito agli utenti che stanno interagendo con un sistema di intelligenza artificiale.

L’emendamento contestato da OpenAI alla fine non è stato incluso nel testo finale dell’AI Act approvato dal Parlamento europeo a giugno.