AI Act: entra in vigore il nuovo Regolamento europeo

Il 12 luglio scorso è stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea il Regolamento che stabilisce una serie di regolamentazioni collettive sull’intelligenza artificiale, il così detto AI Act. Scopo del Regolamento è migliorare il funzionamento del mercato interno e promuovere l’innovazione attraverso la diffusione di un’intelligenza artificiale (AI) che sia basata sulle reali esigenze dell’uomo e che sia allo stesso tempo affidabile e in grado di garantire salute e sicurezza oltre a quanto sancito dalla Carta dei diritti fondamentali dell’Unione Europea.

I professionisti di Andersen dell’Industry Group Technology coordinati dai partner Francesco Marconi e Paola Finetto, hanno scritto un approfondimento che analizza i punti principali contenuti nell’AI Act, le criticità e l’ambito di applicazione.

Cos’è un sistema di intelligenza artificiale

L’art. 3.1 del Regolamento IA, definisce un sistema di intelligenza artificiale come un sistema automatizzato progettato per operare a vari livelli di autonomia. Questo sistema è in grado di migliorarsi grazie agli input ricevuti dagli utenti, e può generare output come previsioni, contenuti, raccomandazioni o decisioni, influenzando ambienti fisici o virtuali. Questa definizione è in linea con la Raccomandazione sull’IA dell’OCSE del 3 maggio 2024.

Obiettivi dell’AI Act

L’AI Act ha l’obiettivo di migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile. Il Regolamento serve di fatto a garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente. Supporta l’innovazione e le attività di ricerca e sviluppo, con particolare attenzione alle PMI e alle start-up.

A chi si rivolge il regolamento sull’AI

Le nuove norme si applicano a sviluppatori, fornitori, distributori, importatori, utilizzatori e fruitori di prodotti e sistemi di IA.

Non si applicano, invece, a sistemi e prodotti di IA sviluppati e messi in servizio esclusivamente per ricerca scientifica o per scopi militari, di difesa o di sicurezza nazionale.

Cosa dice l’AI Act

L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie di rischio:

  1. Rischio Non Accettabile: Pratiche vietate (Art. 5)
  2. Rischio Alto: Sistemi di IA ad alto rischio (Artt. da 6 a 49)
  3. Rischio Medio: Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA (Art. 50)
  4. Rischio Minimo: Modelli di IA per finalità generali (Artt. da 51 a 56)

Il Regolamento sottolinea l’importanza dell’alfabetizzazione in materia di IA, per fornire le conoscenze necessarie a prendere decisioni informate e consapevoli sul suo funzionamento.

Sanzioni per chi viola il Regolamento AI Act

Gli Stati membri dovranno stabilire norme specifiche relative alle sanzioni per le violazioni del Regolamento. Le sanzioni includono:

  • Fino a 35.000.000 EUR o il 7% del fatturato mondiale annuo per la non conformità al divieto di pratiche vietate (Art. 99.3)
  • Fino a 15.000.000 EUR o il 3% del fatturato mondiale annuo per la non conformità ad altre disposizioni del Regolamento (Art. 99.4)
  • Fino a 7.500.000 EUR o l’1% del fatturato mondiale annuo per la fornitura di informazioni inesatte o fuorvianti (Art. 99.5)

Entrata in vigore dell’AI Act

Il Regolamento entrerà in vigore il 2 agosto 2024, con l’applicazione delle norme generali dal 2 agosto 2026. Alcune disposizioni specifiche si applicheranno già dal 2 febbraio 2025 e altre dal 2 agosto 2025, con ulteriori obblighi per i sistemi ad alto rischio a partire dal 2 agosto 2027.