L’Unione Europea ha fatto un passo storico diventando la prima realtà al mondo a regolamentare l’Intelligenza Artificiale (IA) con l’AI Act. Approvato definitivamente il 21 maggio 2024, questo regolamento stabilisce un quadro normativo completo per lo sviluppo, l’utilizzo e la commercializzazione dei sistemi di IA nel mercato europeo.
Perché l’AI Act sull’Intelligenza Artificiale?
L’obiettivo principale dell’AI Act è garantire che i sistemi di IA siano sicuri, trasparenti e rispettosi dei diritti fondamentali delle persone. L’IA sta diventando sempre più pervasiva nella nostra società, influenzando decisioni importanti in ambiti come la salute, il lavoro, la giustizia e la finanza.
L’AI Act mira a prevenire i rischi potenziali dell’IA, come la discriminazione, la manipolazione e la violazione della privacy, promuovendo allo stesso tempo l’innovazione e la competitività del settore.
Chi ha voluto l’AI Act e chi no?
L’AI Act è stato fortemente voluto dalle istituzioni europee, che hanno riconosciuto la necessità di un quadro normativo chiaro e armonizzato per l’IA. Il regolamento ha ricevuto ampio sostegno da parte di organizzazioni per i diritti umani,associazioni dei consumatori ed esperti di etica dell’IA.
Tuttavia, non sono mancate le critiche da parte di alcune aziende tecnologiche e di alcuni esperti, che temono che una regolamentazione troppo rigida possa frenare l’innovazione e limitare lo sviluppo dell’IA in Europa.
Cosa disciplina l’AI Act?
L’AI Act introduce una serie di regole e obblighi per gli sviluppatori e gli utilizzatori di sistemi di IA:
1. Classificazione dei sistemi di IA in base al rischio:
L’AI Act suddivide i sistemi di IA in quattro categorie di rischio:
- Rischio inaccettabile: Sistemi considerati una minaccia per la sicurezza, i diritti fondamentali o i valori dell’UE.Sono vietati, ad esempio, i sistemi di identificazione biometrica in tempo reale in spazi pubblici, i sistemi di “social scoring” e i giocattoli che utilizzano l’assistenza vocale per incoraggiare comportamenti pericolosi nei minori.
- Rischio alto: Sistemi che possono avere un impatto significativo sulla sicurezza o sui diritti fondamentali delle persone. Sono soggetti a requisiti rigorosi in termini di qualità dei dati, documentazione, trasparenza,supervisione umana e valutazione della conformità. Esempi includono sistemi di IA utilizzati per la gestione delle infrastrutture critiche, l’assunzione di personale, la valutazione del credito o l’applicazione della legge.
- Rischio limitato: Sistemi che presentano rischi specifici di manipolazione o inganno. Sono soggetti a obblighi di trasparenza, come informare gli utenti che stanno interagendo con un’IA.
- Rischio minimo o nullo: Sistemi che non presentano rischi significativi. Non sono soggetti a obblighi specifici,ma devono comunque rispettare le leggi generali sulla sicurezza e sulla protezione dei dati.
Chi decide la classificazione:
La classificazione dei sistemi di IA è responsabilità del fornitore del sistema, che deve effettuare una valutazione del rischio e documentare il processo. Le autorità nazionali di vigilanza del mercato possono intervenire per verificare la correttezza della classificazione e, se necessario, imporre sanzioni.
2. Trasparenza e spiegabilità:
Gli sviluppatori di sistemi di IA ad alto rischio devono fornire informazioni chiare e comprensibili sul funzionamento dei loro sistemi, inclusi i dati utilizzati per l’addestramento, le logiche decisionali e i possibili rischi.
Inoltre, devono garantire che gli utenti siano consapevoli di interagire con un’IA e che possano comprendere le ragioni alla base delle decisioni prese dal sistema.
3. Qualità dei dati:
I dati utilizzati per addestrare i sistemi di IA devono essere di alta qualità, accurati, rappresentativi e privi di bias discriminatori. Gli sviluppatori devono adottare misure per garantire la qualità dei dati e per mitigare i rischi di discriminazione.
4. Supervisione umana:
I sistemi di IA ad alto rischio devono essere supervisionati da esseri umani, che possono intervenire in caso di errori o decisioni inappropriate. La supervisione umana è fondamentale per garantire la responsabilità e l’accountability dei sistemi di IA.
5. Valutazione di conformità:
I sistemi di IA ad alto rischio devono essere sottoposti a una valutazione di conformità prima di essere immessi sul mercato. Questa valutazione viene effettuata da organismi notificati indipendenti, che verificano che il sistema rispetti i requisiti dell’AI Act.
Sanzioni
Le violazioni dell’AI Act possono comportare sanzioni pecuniarie fino al 6% del fatturato globale annuo dell’azienda.Le autorità nazionali di vigilanza del mercato sono responsabili di verificare il rispetto del regolamento e di applicare le sanzioni in caso di violazione.
Il punto di vista di Aethera
“…è importante che la regolamentazione non soffochi l’innovazione e che lasci spazio alla sperimentazione e allo sviluppo di nuove tecnologie. L’AI Act dovrebbe essere visto come un punto di partenza, non come un punto di arrivo.”
Per immergervi nel mondo delle IA e comprenderle meglio, o capire come possiamo noi consumatori tutelarci, vi consigliamo di seguire la nostra pagina L’Angolo dell’IA, sempre aggiornato con guide, novità, riflessioni su un mondo in costante evoluzione.