Artificial Intelligence Act: il nuovo regolamento sull’Intelligenza Artificiale del Parlamento Europeo

Il 14 giugno 2023 il Parlamento Europeo ha approvato a Strasburgo l’Artificial Intelligence Act, il nuovo regolamento sull’Intelligenza Artificiale, con 499 voti favorevoli, 28 contrari, e 93 astenuti.

L’IA offre numerosi vantaggi, tra cui un miglioramento dell’assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia conveniente e sostenibile.

Tuttavia, numerose sono le minacce di un utilizzo improprio dell’Intelligenza Artificiale. Per questo motivo già dall’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’UE sull’IA. T

ale proposta prevede che i sistemi di intelligenza artificiale utilizzati in diverse applicazioni siano analizzati e classificati in base al livello di rischio che rappresentano per gli utenti. A seconda del livello di rischio, saranno applicate regole più o meno stringenti.

Nel caso in cui queste proposte vengano approvate, l’UE diventerà il primo paese al mondo a dotarsi di una normativa sull’IA.

Gli obiettivi principali del Parlamento europeo riguardano la sicurezza, la trasparenza, la tracciabilità, la non discriminazione e il rispetto dell’ambiente per i sistemi di intelligenza artificiale utilizzati nell’UE. Si intende assicurare che tali sistemi siano supervisionati da persone, anziché da processi automatizzati, al fine di evitare conseguenze negative.

Inoltre, il Parlamento desidera definire una definizione tecnologicamente neutra e uniforme per l’IA che possa essere applicata ai futuri sistemi di intelligenza artificiale.

Le nuove regole stabiliscono diverse obbligazioni per fornitori e utenti a seconda del livello di rischio associato all’IA. Molti sistemi di intelligenza artificiale rappresentano un rischio minimo, ma devono comunque essere valutati.

I sistemi di intelligenza artificiale considerati a rischio inaccettabile saranno vietati quando costituiscano una minaccia per le persone.

Questi includono, ad esempio, giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini, la classificazione sociale delle persone in base al comportamento o alle caratteristiche personali e i sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Tuttavia, alcune eccezioni potrebbero essere ammesse, ad esempio per i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, ma solo con l’autorizzazione del tribunale e a fini di perseguimento di reati gravi.

I sistemi di intelligenza artificiale considerati ad alto rischio, che possono influire negativamente sulla sicurezza o sui diritti fondamentali, saranno suddivisi in due categorie.

La prima categoria riguarda i sistemi utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti, come giocattoli, aviazione, automobili, dispositivi medici e ascensori.

La seconda categoria riguarda i sistemi di intelligenza artificiale in otto aree specifiche che dovranno essere registrati in un database dell’UE, tra cui l’identificazione biometrica di persone, la gestione di infrastrutture critiche, l’istruzione e la formazione professionale, l’occupazione e la gestione dei lavoratori, l’accesso a servizi essenziali e pubblici, le forze dell’ordine, la gestione delle migrazioni, l’assistenza legale e l’applicazione della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno sottoposti a valutazione prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

Inoltre, l’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza, come rivelare che il contenuto è stato generato da un’intelligenza artificiale, impedire la generazione di contenuti illegali e pubblicare riepiloghi dei dati utilizzati per l’addestramento con diritti d’autore.

Per quanto riguarda i sistemi di intelligenza artificiale a rischio limitato, saranno richiesti requisiti minimi di trasparenza per consentire agli utenti di prendere decisioni informate. Gli utenti saranno informati quando interagiscono con l’IA, ad esempio nei casi in cui vengano generati o manipolati contenuti di immagini, audio o video.

Condividi l’articolo

Altri articoli

Dipartimenti