Società

Nuove regole UE sull’IA: un passo verso la sicurezza digitale

Questa notizia è stata scritta più di un anno fa old news

Il Parlamento europeo ha approvato una nuova regolamentazione sull’Intelligenza Artificiale, il che la rende la prima legge per sistemi di IA nel mondo occidentale. Questo segna un passaggio importante nella corsa tra le autorità per regolare l’IA, che sta evolvendo con una velocità impressionante.

La legge, chiamata European AI Act, adotta un approccio basato sul rischio alla regolamentazione dell’IA, dove gli obblighi per un sistema sono proporzionati al livello di rischio che esso rappresenta. Gli sviluppatori di “foundation models” come ChatGPT, modelli di grande scala per il linguaggio e per l’IA generativa, saranno soggetti a controlli di sicurezza, misure di governance dei dati e mitigazioni del rischio prima di rendere pubblici i loro modelli.

Diversi livelli di rischio

La legge categorizza le applicazioni dell’IA in quattro livelli di rischio:

  • Rischio inaccettabile
  • Rischio elevato
  • Rischio limitato e rischio minimo o nullo

Ci sono poi le applicazioni ad “alto rischio”, soggette a obblighi più rigorosi, tra cui quello di informare gli utenti che stanno interagendo con un sistema di IA e di garantire la trasparenza sulle decisioni prese da un algoritmo di intelligenza artificiale. Non solo, doveroso anche avere un sistema di “kill switch” per interrompere il funzionamento del sistema in caso di emergenza.

Le applicazioni ad “alto rischio” comprendono i sistemi di IA che utilizzano:

  • Tecniche per manipolare il comportamento delle persone e che sfruttano la vulnerabilità di individui o gruppi specifici
  • Sistemi di categorizzazione biometrica basati su attributi o caratteristiche sensibili
  • Sistemi di punteggio sociale o di valutazione della fiducia
  • Sistemi di valutazione del rischio per prevedere reati o violazioni amministrative
  • Sistemi di riconoscimento facciale e quelli che inferiscono emozioni in ambienti come l’applicazione della legge
  • Gestione delle frontiere
  • Luogo di lavoro e istruzione

L’industria tecnologica è preoccupata

L’approvazione della legge da parte del Parlamento europeo ha sollevato i timori nell’industria tecnologica.

La Computer and Communications Industry Association ha espresso preoccupazione per il fatto che il campo di applicazione dell’AI Act sia stato troppo allargato e che potrebbe colpire forme di intelligenza artificiale che non presentano rischi.

Tuttavia, molti esperti credono che la legge sia necessaria per garantire la sicurezza e la responsabilità nell’uso dell’intelligenza artificiale.

Secondo Dessi Savova, responsabile dell’area tecnologica del gruppo legale Clifford Chance, le norme dell’UE costituiranno uno “standard globale” per la regolamentazione dell’IA.

Tuttavia, ha aggiunto che altre giurisdizioni, tra cui la Cina, gli Stati Uniti e il Regno Unito, stanno rapidamente sviluppando le loro risposte. Secondo Savova:

“Il lungo raggio d’azione delle norme proposte sull’IA implica che i giocatori dell’IA in ogni angolo del mondo debbano preoccuparsi di adeguarsi e rispettare gli standard stabiliti dall’UE, al fine di continuare ad operare a livello internazionale”.

Certificati di conformità sulle IA

Il Regolamento sull’IA dell’UE prevede inoltre la creazione di un sistema di certificazione volontaria per l’IA che rispetta gli standard dell’UE. Questo sistema consentirà alle aziende di dimostrare la conformità dei loro prodotti AI con le norme dell’UE e di garantire una maggiore trasparenza e responsabilità nell’utilizzo dell’IA. Le certificazioni saranno rilasciate da organizzazioni di certificazione indipendenti, che saranno designati dai singoli paesi membri dell’UE.

Tuttavia, secondo alcuni esperti, il sistema di certificazione volontaria potrebbe non essere sufficiente a garantire l’efficacia delle norme dell’UE sull’IA. Ci sono preoccupazioni che le aziende potrebbero essere disincentivate a partecipare al sistema di certificazione volontaria a causa dei costi elevati e della mancanza di incentivi. Inoltre, ci sono dubbi sulla capacità delle organizzazioni di certificazione indipendenti di mantenere standard rigorosi e di fornire certificazioni affidabili.

Per garantire l’efficacia delle norme sull’IA dell’UE, gli esperti raccomandano una combinazione di regolamentazione e auto-regolamentazione da parte dell’industria dell’IA. Gli investimenti in ricerca e sviluppo dovrebbero essere orientati verso lo sviluppo di tecnologie AI sicure, trasparenti ed etiche. Inoltre, le aziende dovrebbero promuovere una cultura di responsabilità sociale e trasparenza nell’utilizzo dell’IA.