E-Mail: [email protected]
- Scala di rischio per le applicazioni di IA divisa in quattro livelli: minimo, limitato, alto e inaccettabile.
- Le nuove regole saranno applicabili entro due anni, con divieti che scatteranno dopo sei mesi e obblighi specifici dopo 36 mesi.
- Obiettivo principale: promuovere lo sviluppo di sistemi di IA sicuri e rispettosi dei diritti fondamentali dell'uomo.
Il 21 maggio 2024, il Consiglio dell’Unione Europea ha approvato all’unanimità l’AI Act, la prima legge al mondo che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale (IA). Questa normativa, applicabile tra due anni, rappresenta un passo significativo nel panorama legale moderno, stabilendo obblighi per fornitori e sviluppatori di sistemi IA a diversi livelli di rischio.
Struttura e Applicazione dell’AI Act
L’AI Act introduce una scala di rischio per le applicazioni di IA suddivisa in quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi a rischio limitato saranno soggetti a obblighi di trasparenza leggeri, come la divulgazione del contenuto generato dall’intelligenza artificiale. Per i sistemi ad alto rischio, è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato.
I sistemi classificati come inaccettabili, come quelli utilizzati per la manipolazione cognitiva del comportamento o la raccolta non mirata di immagini facciali, saranno vietati. Le nuove regole saranno applicabili due anni dopo l’entrata in vigore, con alcune eccezioni: i divieti scatteranno dopo sei mesi, i controlli sui sistemi IA per finalità generali e la governance dopo 12 mesi, e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.
Obiettivi e Implicazioni dell’AI Act
L’obiettivo principale dell’AI Act è promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico europeo, sia da parte di attori pubblici che privati. L’Europa mira a garantire il rispetto dei diritti fondamentali dell’uomo e a stimolare gli investimenti nel settore dell’intelligenza artificiale, promuovendo l’innovazione e proteggendo i cittadini.
La normativa segue un approccio basato sul rischio: maggiore è il rischio di danni, più severe saranno le regole. Questo principio si riflette nella modalità d’azione scelta dal legislatore, che diventa più stringente man mano che aumenta il potenziale rischio della tecnologia. Ad esempio, utilizzare l’intelligenza artificiale per scegliere un ristorante è molto diverso dall’utilizzarla per una vettura a guida autonoma.
Contesto Geopolitico e Critiche
Il percorso dell’AI Act è iniziato prima della diffusione di sistemi di IA generativa come ChatGPT e della crescente preoccupazione per i sistemi di sorveglianza e riconoscimento facciale. La normativa è stata ampliata per includere anche questi nuovi sviluppi, imponendo regole specifiche per segnalare i contenuti generati da IA.
La maggioranza delle aziende del settore IA che subiranno le nuove norme sono americane, mentre la principale realtà europea, la francese Mistral AI, ha stretto un’alleanza con Microsoft. Alcuni critici sospettano che la volontà di normare troppo possa svantaggiare l’Europa rispetto ad altre regioni del mondo, dove i veri affari si fanno con meno restrizioni.
Bullet Executive Summary
In conclusione, l’AI Act rappresenta un tentativo pionieristico dell’Unione Europea di regolamentare un settore in rapida evoluzione come quello dell’intelligenza artificiale. La normativa mira a bilanciare la promozione dell’innovazione con la protezione dei diritti fondamentali, adottando un approccio basato sul rischio. Tuttavia, resta da vedere come queste regole influenzeranno la competitività europea nel panorama globale.
Una nozione base di legale correlata al tema è il concetto di valutazione dell’impatto sui diritti fondamentali, che prevede l’analisi preventiva delle conseguenze di un sistema IA sui diritti umani prima della sua immissione sul mercato. Una nozione avanzata è il principio di proporzionalità, che richiede che le misure regolamentari siano adeguate e necessarie rispetto agli obiettivi perseguiti, evitando restrizioni eccessive o non giustificate.
Questa normativa stimola una riflessione personale sul ruolo dell’intelligenza artificiale nella nostra società e sull’importanza di trovare un equilibrio tra innovazione tecnologica e tutela dei diritti umani.
- Sito ufficiale dell'Unione Europea sulla strategia digitale, contiene informazioni sulla normativa sull'intelligenza artificiale
- Testo ufficiale della proposta di regolamento sulle norme armonizzate per l'intelligenza artificiale dell'Unione europea
- Il sito ufficiale dell'Unione Europea per l'approccio dell'UE all'intelligenza artificiale, con informazioni sulla legislazione e le politiche dell'UE in materia di IA
- Il sito ufficiale della Commissione Europea, sezione stampa, per approfondire l'AI Act e le norme europee sull'intelligenza artificiale