Il 9 dicembre ha segnato un momento storico per l'Europa nell'ambito della regolamentazione dell'Intelligenza Artificiale (AI) con l'approvazione dell'AI Act da parte della Commissione, del Consiglio e del Parlamento europeo. Questo regolamento, il primo del suo genere a livello mondiale, è destinato a governare l'uso dell'IA nel continente, promuovendo una bilanciata innovazione e protezione dei diritti individuali.

Inizialmente, va sottolineato che l'AI Act si concentra sui sistemi di Intelligenza Artificiale ad uso generale (GP AI), inclusi i Large Language Models (LLM), che includono modelli come ChatGPT, Bard e Midjourney. Questo regolamento impone alle applicazioni generative di IA, inclusi questi modelli, di sottostare a norme riguardanti la sicurezza informatica, la trasparenza nei processi di addestramento e la documentazione tecnica prima di essere commercializzati.

Le modifiche al testo originale della Commissione introducono nuovi obblighi per le GP AI. Tutte le società sviluppatrici devono pubblicare una lista dei materiali utilizzati nell'addestramento degli algoritmi, contribuendo alla protezione dei diritti d'autore e alla trasparenza dei contenuti generati dall'IA per contrastare truffe o disinformazione.

Allo stesso tempo, vengono introdotti obblighi più stringenti per i sistemi ad alto rischio, come la valutazione dell'impatto sui diritti fondamentali, in particolare per le AI utilizzate nelle elezioni e nell'influenzare il comportamento degli elettori. I cittadini avranno il diritto di presentare reclami in caso di decisioni influenzate da sistemi AI ad alto rischio.

Un aspetto cruciale riguarda l'uso della biometria e dell'IA per finalità di sicurezza pubblica. L'AI Act stabilisce limiti nell'uso dei sistemi di identificazione biometrica (RBI) da parte delle forze dell'ordine, permettendone l'utilizzo solo in casi eccezionali e circoscritti a specifici reati gravi, con rigorose salvaguardie per prevenire abusi e sorveglianza eccessiva.

Il regolamento vieta anche pratiche come il riconoscimento delle emozioni sul luogo di lavoro e nelle istituzioni educative, il social scoring, le tecniche manipolative e l'uso dell'IA per sfruttare le vulnerabilità delle persone, garantendo così la protezione dei diritti individuali.

Le sanzioni per violazioni di queste disposizioni variano in base alle dimensioni delle aziende coinvolte, con multe che possono raggiungere cifre significative, fino al 7% del fatturato globale.

In conclusione, l'AI Act europeo rappresenta un importante passo avanti nella regolamentazione dell'IA, equilibrando innovazione e protezione dei diritti individuali. Mentre introduce restrizioni per evitare abusi e discriminazioni, offre anche spazi di sperimentazione e sviluppo per la ricerca e le PMI attraverso sandbox regolamentari, riconoscendo l'importanza dell'innovazione nel settore.

Queste normative potrebbero plasmare il futuro dell'IA in Europa e servono come modello per bilanciare efficacemente l'innovazione tecnologica con la tutela dei diritti e delle libertà individuali.