L’AI Act, approvato dall'Unione Europea nel 2024, rappresenta il primo tentativo globale di regolamentare l’intelligenza artificiale in modo organico, mirando a bilanciare innovazione e protezione dei diritti fondamentali. Il regolamento introduce requisiti rigorosi per i sistemi ad alto rischio, come l’AI generativa e i modelli di linguaggio avanzati.

La seconda fase di attuazione, che entrerà in vigore nel 2026, prevede misure ancor più dettagliate per governare l’adozione di AI generativa e modelli complessi, come GPT-4 e Claude. Il 2026 si prospetta come un anno cruciale per le imprese, che dovranno allinearsi alle normative europee per evitare sanzioni e garantire un uso etico e sicuro dei sistemi di intelligenza artificiale.

L'AI ACT nel quadro regolatorio europeo

L’AI Act, che si inserisce nel quadro normativo europeo, è solo uno dei tasselli di un sistema più ampio che include leggi e regolamenti già in vigore. A partire dal GDPR (Regolamento Generale sulla Protezione dei Dati), che si concentra sulla tutela dei dati personali, l’UE ha costruito un impianto normativo che bilancia l’innovazione tecnologica con la protezione dei diritti fondamentali degli individui.

La Commissione Europea sta lavorando per integrare l’AI Act con altre normative esistenti, come la Direttiva sulla privacy elettronica (ePrivacy Regulation), che regola la gestione dei dati online, e il Data Governance Act, che promuove la condivisione dei dati in modo sicuro tra le entità pubbliche e private. Questi strumenti creano una governance multilivello, dove gli enti regolatori nazionali lavorano in sinergia con organismi europei specifici, come il European Data Protection Board (EDPB) e il European Artificial Intelligence Board (AI Board), per monitorare l’applicazione dell’AI Act in modo uniforme in tutta l’UE.

Un aspetto cruciale di questo scenario è il rispetto del principio di proporzionalità: il regolamento differenzia i requisiti in base al rischio che l’IA può rappresentare. I sistemi a basso rischio, come assistenti virtuali o chatbots, sono soggetti a requisiti meno stringenti, mentre i sistemi ad alto rischio, come quelli usati nella sanità, nel settore bancario, o per infrastrutture critiche, devono rispettare obblighi più rigorosi, come la valutazione di impatto (AI Impact Assessment) e il monitoraggio continuo per garantire trasparenza, sicurezza e riduzione dei rischi sistemici.

La normativa non si limita a stabilire obblighi per gli sviluppatori di IA, ma promuove anche una cultura della responsabilità condivisa con gli utilizzatori, richiedendo la tracciabilità delle decisioni automatizzate e la garanzia di supervisione umana. L'AI Act mira, quindi, a garantire l'affidabilità dei sistemi di IA, riducendo i rischi per la privacy e per la sicurezza dei consumatori, e tutelando i diritti fondamentali, come la libertà di espressione e il diritto alla non discriminazione.

AI Act: cosa ci riserva il 2026 per l’intelligenza artificiale in Europa

Cosa prevede e prevederà l’AI Act?

Nel 2025, alcune delle prime disposizioni dell'AI Act sono entrate in vigore, stabilendo linee guida per i sistemi di AI ad alto rischio. Nel 2026, l'implementazione entrerà nel vivo, con l’introduzione di requisiti specifici per i modelli generativi e i foundation models.

Tra gli obiettivi principali ci sono:

  • Trasparenza e tracciabilità: le aziende dovranno garantire che i loro modelli siano documentati in modo da consentire una completa tracciabilità, per evitare abusi e rischi legati ai dati personali;
  • Valutazione d’impatto: l’AI Act obbliga le aziende a condurre valutazioni di impatto per tutti i sistemi IA ad alto rischio. In caso di incertezze, sarà necessario un esame approfondito della conformità;
  • Supervisione umana: i sistemi AI ad alto rischio dovranno essere progettati in modo che l’intervento umano rimanga sempre presente per monitorare e supervisionare le decisioni critiche, minimizzando così i rischi di errori automatizzati.

Nel 2026, inoltre, con la seconda fase dell'AI Act, l’Unione Europea avvierà l’attuazione di misure più specifiche per regolamentare l'uso dell'intelligenza artificiale, distinguendo i sistemi in base al rischio. Le aziende dovranno adeguarsi a queste normative, che stabiliscono requisiti chiari per ciascun tipo di AI. Ecco come si articolano i sistemi di IA e le relative normative:

  • Sistemi a basso rischio: tecnologie come assistenti virtuali e applicazioni di IA non critiche. La regolamentazione per questi sistemi rimarrà più leggera, ma dovranno comunque rispettare principi di trasparenza e gestione dei dati;
  • Sistemi ad alto rischio: applicazioni come il riconoscimento biometrico o l’utilizzo di AI in infrastrutture critiche. Questi modelli richiederanno una documentazione rigorosa, una valutazione d’impatto e l’adozione di misure per minimizzare i rischi legati alla loro applicazione;
  • Modelli generativi (GPAI): sistemi complessi, come quelli utilizzati nella AI generativa o nei veicoli autonomi, dovranno garantire trasparenza e conformità ai principi del regolamento. Ogni azienda dovrà documentare come il modello è stato addestrato e come vengono trattati i dati;
  • Sistemi con impatti sistemici: modelli di IA con un potenziale impatto su larga scala (economia, salute, diritti). Saranno regolamentati in modo ancora più rigoroso, con misure di monitoraggio continuo e la garanzia di trasparenza durante l’intero ciclo di vita del sistema.

Questa categorizzazione aiuterà le aziende a capire quali requisiti di conformità si applicano a ciascun sistema e garantirà un uso più sicuro e responsabile delle tecnologie avanzate.

Un AI Act che si integra con il GDPR e la gestione dei dati

L’AI Act si integra perfettamente con il GDPR, creando un ecosistema regolatorio che disciplina sia l’uso dell'intelligenza artificiale che la protezione dei dati personali. Le normative europee sono complementari: l'AI Act si concentra sulla sicurezza, l’etica e la responsabilità dei sistemi IA, mentre il GDPR tutela i diritti degli individui, regolamentando l'uso dei loro dati.

Le imprese sono chiamate ad affrontare una sfida importante: combinare l’adozione di tecnologie avanzate con una rigorosa attenzione alla protezione dei dati e alla trasparenza. In questo contesto, è fondamentale un approccio che non solo rispetti le normative, ma che promuova un'innovazione responsabile.

UOMOeAMBIENTE è al fianco delle aziende per supportarle nell’implementazione dell’AI Act, aiutandole a integrare l’intelligenza artificiale in modo etico, sicuro e conforme alla legislazione europea.