E-Mail: [email protected]
- Il 21 maggio 2024, il Consiglio europeo ha approvato l'AI Act, stabilendo un quadro normativo innovativo per l'IA.
- La normativa prevede divieti per tecnologie ad alto rischio come il riconoscimento facciale sul luogo di lavoro e nelle scuole.
- Regulatory sandboxes promuovono il testing di IA generativa prima della loro immissione sul mercato, supportando l'innovazione.
Il 21 maggio 2024, i ministri dei Ventisette per le telecomunicazioni hanno approvato l’AI Act, un insieme di norme che disciplinano lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale (IA) nell’Unione Europea. Questo passaggio finale segue il via libera del Parlamento europeo avvenuto lo scorso marzo. Il commissario europeo al Mercato Interno, Thierry Breton, ha sottolineato come questo traguardo sia stato raggiunto con “una sola voce”, evidenziando la compattezza dell’Unione di fronte alle sfide poste dall’IA.
Il nuovo set di regole, primo al mondo in materia, è stato adottato all’unanimità, dimostrando la determinazione dell’UE a diventare leader globale nella regolamentazione dell’IA. Il relatore del Parlamento europeo per l’AI Act, Brando Benifei, ha dichiarato che questa normativa certifica la qualità del lavoro svolto su un tema di grande sensibilità politica e di mercato, rendendo l’UE capofila globale nella regolamentazione dell’IA.
La normativa si basa su un equilibrio tra innovazione e tutela dei diritti umani, della democrazia, dello Stato di diritto e della sostenibilità ambientale. Un approccio innovativo al rischio è stato adottato dal legislatore europeo, imponendo obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio. Per i casi in cui il rischio è inaccettabile, scattano divieti, come nel caso delle tecniche manipolative, delle pratiche di polizia predittiva e del riconoscimento delle emozioni sul posto di lavoro e nelle scuole. L’uso del riconoscimento facciale è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose.
Una novità significativa è il capitolo dedicato all’IA generativa, con l’obiettivo di fornire una prima risposta alla rapida diffusione di sistemi come ChatGPT. La legge promuove le regulatory sandboxes per il real-world-testing, permettendo alle autorità nazionali di sviluppare e addestrare IA innovative prima della loro immissione sul mercato.
Classificazione dei sistemi di IA in base al livello di rischio
Il quadro normativo sull’IA prevede una classificazione dei sistemi di IA in base al livello di rischio per le persone e la società. Questa classificazione distingue quattro categorie di rischio: inaccettabile, alto, limitato e minimo.
Rischio inaccettabile: I sistemi di IA che contraddicono i valori e i principi fondamentali dell’UE, come il rispetto della dignità umana, la democrazia e lo stato di diritto, sono vietati. Tra questi rientrano la sorveglianza biometrica in tempo reale per motivi di sicurezza, soggetta a severe restrizioni, e i sistemi di IA che manipolano il comportamento umano per eludere la volontà degli utenti o che consentono lo “scoring sociale” da parte delle autorità pubbliche.
Rischio elevato: I sistemi di IA che possono avere un impatto significativo sui diritti fondamentali e sulla sicurezza delle persone sono soggetti a rigorosi obblighi e requisiti prima di essere immessi sul mercato e utilizzati. Questa categoria include i sistemi di IA utilizzati per la selezione e il reclutamento del personale, l’ammissione all’istruzione, l’erogazione di servizi sociali essenziali, la sanità, la sorveglianza biometrica a distanza (non in tempo reale), le applicazioni giudiziarie di polizia e la gestione della sicurezza critica delle infrastrutture. I sistemi di intelligenza artificiale generativa con una potenza di calcolo superiore a 10^25 Flop rientrano anch’essi in questa categoria.
Rischio limitato: I sistemi di IA che possono influenzare i diritti e la volontà degli utenti in misura minore rispetto ai sistemi ad alto rischio sono soggetti a requisiti di trasparenza. Gli utenti devono essere consapevoli di interagire con un sistema IA e comprenderne le caratteristiche e le limitazioni. Tra questi rientrano i sistemi di IA utilizzati per generare o manipolare contenuti audiovisivi (deepfake) e per fornire suggerimenti personalizzati (chatbot).
Rischio minimo o nullo: I sistemi di IA che non hanno un impatto diretto sui diritti fondamentali e sulla sicurezza delle persone offrono ampi margini di scelta e controllo agli utenti. Questi sistemi sono liberi da obblighi normativi, incoraggiando l’innovazione e l’esperimentazione. Tra questi rientrano i sistemi di IA utilizzati per scopi ludici (come i videogiochi) o estetici (come i filtri fotografici).
Implicazioni e tempistiche dell’AI Act
L’AI Act, una volta pubblicato nella Gazzetta Ufficiale dell’UE, non si tradurrà immediatamente in realtà. Le nuove regole saranno applicabili solo tra due anni, con l’eccezione dei divieti, che scatteranno dopo sei mesi, e dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi). Gli obblighi per i sistemi ad alto rischio entreranno in vigore dopo 36 mesi.
Chiusa la fase legislativa, si apre ora una fase cruciale di attuazione. La vicepremier belga, Petra de Sutter, ha dichiarato che questa legislazione contribuirà all’autonomia strategica dell’UE, rappresentando un vantaggio competitivo essenziale per la sicurezza economica. È imperativo sfruttare il potenziale del mercato unico e adottare un approccio coerente e omogeneo per sostenere la società nel percorso di adeguamento alle regole digitali. L’AI Act è visto come un volano d’innovazione per l’Europa.
Via libera finale alla prima legge al mondo sull’IA: cosa cambia
Con l’approvazione finale dell’AI Act, l’Unione Europea ha stabilito la prima legge al mondo che regola l’uso e lo sviluppo dell’intelligenza artificiale. Gli obiettivi principali della legge sono due: tutelare i cittadini e i sistemi democratici dai rischi associati all’IA, come i deepfake e la disinformazione, e incentivare lo sviluppo dell’IA in Europa per colmare il divario con i competitor globali, come Stati Uniti e Cina.
L’approccio “basato sul rischio” adottato dalla legge prevede che più alto è il rischio di causare danni alla società, più severe sono le regole. Tra le misure incluse vi sono valutazioni d’impatto obbligatorie sui diritti fondamentali, valutazioni dei modelli utilizzati e mitigazione dei rischi sistemici associati alle applicazioni. Il mancato rispetto delle norme può portare a sanzioni fino a 35 milioni di euro o al 7% del fatturato globale, a seconda della violazione e delle dimensioni dell’azienda.
Uno dei nodi controversi è il dilemma tra sicurezza e privacy, in particolare per quanto riguarda i dati personali e biometrici rilevabili tramite tecnologie di riconoscimento facciale. Queste tecnologie, già in uso in alcuni Paesi come la Cina, sollevano preoccupazioni per la privacy e i diritti dei cittadini. La normativa europea proibisce l’uso di sistemi di categorizzazione biometrica che etichettano le persone su caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza.
Sono inoltre vietate le applicazioni per il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, nonché i sistemi che manipolano il comportamento umano sfruttando le vulnerabilità delle persone. Bruxelles ha posto paletti anche sulla creazione di sistemi di “punteggio sociale” basati sul comportamento sociale e sulle caratteristiche personali, come avviene in Cina con il credito sociale.
Tuttavia, sono previste esenzioni e deroghe a questi divieti, applicabili alle forze dell’ordine e di pubblica sicurezza solo in determinati casi previa autorizzazione giudiziaria. Ad esempio, la polizia potrà utilizzare l’identificazione biometrica per classificare le persone in base a categorie specifiche come sesso, età, colore dei capelli e occhi, tatuaggi, origine etnica e orientamento sessuale o politico, sia in tempo reale che post-remoto, utilizzando dati già acquisiti.
Bullet Executive Summary
In conclusione, l’approvazione dell’AI Act rappresenta un passo storico per l’Unione Europea, che si pone come leader globale nella regolamentazione dell’intelligenza artificiale. La normativa mira a bilanciare l’innovazione con la tutela dei diritti umani, della democrazia e della sostenibilità ambientale, adottando un approccio basato sul rischio. Le nuove regole entreranno in vigore gradualmente nei prossimi anni, con l’obiettivo di creare un mercato unico digitale sicuro e competitivo.
Nozione base di legale correlata al tema: La regolamentazione dell’IA si basa sul principio di proporzionalità, che richiede che le misure adottate siano adeguate e necessarie per raggiungere gli obiettivi prefissati, senza imporre restrizioni eccessive.
Nozione avanzata di legale correlata al tema: La normativa sull’IA introduce il concetto di “accountability by design”, che impone ai fornitori di sistemi di IA di integrare meccanismi di responsabilità e trasparenza fin dalle prime fasi di sviluppo, garantendo così il rispetto dei diritti fondamentali e la mitigazione dei rischi associati all’uso dell’IA.
Incoraggiamo i lettori a riflettere su come queste nuove regole influenzeranno non solo il panorama tecnologico, ma anche la nostra vita quotidiana, promuovendo un uso responsabile e sicuro dell’intelligenza artificiale.