Skip to content

AI Act: l’Europa regola l’Intelligenza Artificiale. Cosa cambia per i consumatori?

Condividi

Condividi

ai act ecco come l0unione europea disciplina l'intelligenza artificiale e tutela i consumatori

L’Unione Europea ha fatto un passo storico diventando la prima realtà al mondo a regolamentare l’Intelligenza Artificiale (IA) con l’AI Act. Approvato definitivamente il 21 maggio 2024, questo regolamento stabilisce un quadro normativo completo per lo sviluppo, l’utilizzo e la commercializzazione dei sistemi di IA nel mercato europeo.

Perché l’AI Act sull’Intelligenza Artificiale?

L’obiettivo principale dell’AI Act è garantire che i sistemi di IA siano sicuri, trasparenti e rispettosi dei diritti fondamentali delle persone. L’IA sta diventando sempre più pervasiva nella nostra società, influenzando decisioni importanti in ambiti come la salute, il lavoro, la giustizia e la finanza.

L’AI Act mira a prevenire i rischi potenziali dell’IA, come la discriminazione, la manipolazione e la violazione della privacy, promuovendo allo stesso tempo l’innovazione e la competitività del settore.

Chi ha voluto l’AI Act e chi no?

L’AI Act è stato fortemente voluto dalle istituzioni europee, che hanno riconosciuto la necessità di un quadro normativo chiaro e armonizzato per l’IA. Il regolamento ha ricevuto ampio sostegno da parte di organizzazioni per i diritti umani,associazioni dei consumatori ed esperti di etica dell’IA.

Tuttavia, non sono mancate le critiche da parte di alcune aziende tecnologiche e di alcuni esperti, che temono che una regolamentazione troppo rigida possa frenare l’innovazione e limitare lo sviluppo dell’IA in Europa.

Cosa disciplina l’AI Act?

L’AI Act introduce una serie di regole e obblighi per gli sviluppatori e gli utilizzatori di sistemi di IA:

1. Classificazione dei sistemi di IA in base al rischio:

L’AI Act suddivide i sistemi di IA in quattro categorie di rischio:

  • Rischio inaccettabile: Sistemi considerati una minaccia per la sicurezza, i diritti fondamentali o i valori dell’UE.Sono vietati, ad esempio, i sistemi di identificazione biometrica in tempo reale in spazi pubblici, i sistemi di “social scoring” e i giocattoli che utilizzano l’assistenza vocale per incoraggiare comportamenti pericolosi nei minori.
  • Rischio alto: Sistemi che possono avere un impatto significativo sulla sicurezza o sui diritti fondamentali delle persone. Sono soggetti a requisiti rigorosi in termini di qualità dei dati, documentazione, trasparenza,supervisione umana e valutazione della conformità. Esempi includono sistemi di IA utilizzati per la gestione delle infrastrutture critiche, l’assunzione di personale, la valutazione del credito o l’applicazione della legge.
  • Rischio limitato: Sistemi che presentano rischi specifici di manipolazione o inganno. Sono soggetti a obblighi di trasparenza, come informare gli utenti che stanno interagendo con un’IA.
  • Rischio minimo o nullo: Sistemi che non presentano rischi significativi. Non sono soggetti a obblighi specifici,ma devono comunque rispettare le leggi generali sulla sicurezza e sulla protezione dei dati.

Chi decide la classificazione:

La classificazione dei sistemi di IA è responsabilità del fornitore del sistema, che deve effettuare una valutazione del rischio e documentare il processo. Le autorità nazionali di vigilanza del mercato possono intervenire per verificare la correttezza della classificazione e, se necessario, imporre sanzioni.

2. Trasparenza e spiegabilità:

Gli sviluppatori di sistemi di IA ad alto rischio devono fornire informazioni chiare e comprensibili sul funzionamento dei loro sistemi, inclusi i dati utilizzati per l’addestramento, le logiche decisionali e i possibili rischi.

Inoltre, devono garantire che gli utenti siano consapevoli di interagire con un’IA e che possano comprendere le ragioni alla base delle decisioni prese dal sistema.

3. Qualità dei dati:

I dati utilizzati per addestrare i sistemi di IA devono essere di alta qualità, accurati, rappresentativi e privi di bias discriminatori. Gli sviluppatori devono adottare misure per garantire la qualità dei dati e per mitigare i rischi di discriminazione.

4. Supervisione umana:

I sistemi di IA ad alto rischio devono essere supervisionati da esseri umani, che possono intervenire in caso di errori o decisioni inappropriate. La supervisione umana è fondamentale per garantire la responsabilità e l’accountability dei sistemi di IA.

5. Valutazione di conformità:

I sistemi di IA ad alto rischio devono essere sottoposti a una valutazione di conformità prima di essere immessi sul mercato. Questa valutazione viene effettuata da organismi notificati indipendenti, che verificano che il sistema rispetti i requisiti dell’AI Act.

Sanzioni

Le violazioni dell’AI Act possono comportare sanzioni pecuniarie fino al 6% del fatturato globale annuo dell’azienda.Le autorità nazionali di vigilanza del mercato sono responsabili di verificare il rispetto del regolamento e di applicare le sanzioni in caso di violazione.

Il punto di vista di Aethera

“…è importante che la regolamentazione non soffochi l’innovazione e che lasci spazio alla sperimentazione e allo sviluppo di nuove tecnologie. L’AI Act dovrebbe essere visto come un punto di partenza, non come un punto di arrivo.”

Per immergervi nel mondo delle IA e comprenderle meglio, o capire come possiamo noi consumatori tutelarci, vi consigliamo di seguire la nostra pagina L’Angolo dell’IA, sempre aggiornato con guide, novità, riflessioni su un mondo in costante evoluzione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *