Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Cosa cambierà per gli sviluppatori con l’approvazione dell’ai act europeo

il 21 maggio 2024, il consiglio dell'unione europea ha approvato l'ai act, stabilendo nuove regole per lo sviluppo e l'uso dei sistemi di intelligenza artificiale, applicabili entro due anni
  • Scala di rischio per le applicazioni di IA divisa in quattro livelli: minimo, limitato, alto e inaccettabile.
  • Le nuove regole saranno applicabili entro due anni, con divieti che scatteranno dopo sei mesi e obblighi specifici dopo 36 mesi.
  • Obiettivo principale: promuovere lo sviluppo di sistemi di IA sicuri e rispettosi dei diritti fondamentali dell'uomo.

Il 21 maggio 2024, il Consiglio dell’Unione Europea ha approvato all’unanimità l’AI Act, la prima legge al mondo che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale (IA). Questa normativa, applicabile tra due anni, rappresenta un passo significativo nel panorama legale moderno, stabilendo obblighi per fornitori e sviluppatori di sistemi IA a diversi livelli di rischio.

Struttura e Applicazione dell’AI Act

L’AI Act introduce una scala di rischio per le applicazioni di IA suddivisa in quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi a rischio limitato saranno soggetti a obblighi di trasparenza leggeri, come la divulgazione del contenuto generato dall’intelligenza artificiale. Per i sistemi ad alto rischio, è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato.

I sistemi classificati come inaccettabili, come quelli utilizzati per la manipolazione cognitiva del comportamento o la raccolta non mirata di immagini facciali, saranno vietati. Le nuove regole saranno applicabili due anni dopo l’entrata in vigore, con alcune eccezioni: i divieti scatteranno dopo sei mesi, i controlli sui sistemi IA per finalità generali e la governance dopo 12 mesi, e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.

Obiettivi e Implicazioni dell’AI Act

L’obiettivo principale dell’AI Act è promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico europeo, sia da parte di attori pubblici che privati. L’Europa mira a garantire il rispetto dei diritti fondamentali dell’uomo e a stimolare gli investimenti nel settore dell’intelligenza artificiale, promuovendo l’innovazione e proteggendo i cittadini.

La normativa segue un approccio basato sul rischio: maggiore è il rischio di danni, più severe saranno le regole. Questo principio si riflette nella modalità d’azione scelta dal legislatore, che diventa più stringente man mano che aumenta il potenziale rischio della tecnologia. Ad esempio, utilizzare l’intelligenza artificiale per scegliere un ristorante è molto diverso dall’utilizzarla per una vettura a guida autonoma.

Contesto Geopolitico e Critiche

Il percorso dell’AI Act è iniziato prima della diffusione di sistemi di IA generativa come ChatGPT e della crescente preoccupazione per i sistemi di sorveglianza e riconoscimento facciale. La normativa è stata ampliata per includere anche questi nuovi sviluppi, imponendo regole specifiche per segnalare i contenuti generati da IA.

La maggioranza delle aziende del settore IA che subiranno le nuove norme sono americane, mentre la principale realtà europea, la francese Mistral AI, ha stretto un’alleanza con Microsoft. Alcuni critici sospettano che la volontà di normare troppo possa svantaggiare l’Europa rispetto ad altre regioni del mondo, dove i veri affari si fanno con meno restrizioni.

Bullet Executive Summary

In conclusione, l’AI Act rappresenta un tentativo pionieristico dell’Unione Europea di regolamentare un settore in rapida evoluzione come quello dell’intelligenza artificiale. La normativa mira a bilanciare la promozione dell’innovazione con la protezione dei diritti fondamentali, adottando un approccio basato sul rischio. Tuttavia, resta da vedere come queste regole influenzeranno la competitività europea nel panorama globale.

Una nozione base di legale correlata al tema è il concetto di valutazione dell’impatto sui diritti fondamentali, che prevede l’analisi preventiva delle conseguenze di un sistema IA sui diritti umani prima della sua immissione sul mercato. Una nozione avanzata è il principio di proporzionalità, che richiede che le misure regolamentari siano adeguate e necessarie rispetto agli obiettivi perseguiti, evitando restrizioni eccessive o non giustificate.

Questa normativa stimola una riflessione personale sul ruolo dell’intelligenza artificiale nella nostra società e sull’importanza di trovare un equilibrio tra innovazione tecnologica e tutela dei diritti umani.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
2 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
2
0
Ci interessa la tua opinione, lascia un commento!x