Come conciliare il ricorso all’Intelligenza Artificiale con la tutela dei dati personali?

L’Intelligenza Artificiale (IA) e le sue applicazioni stanno favorendo cambiamenti apprezzabili. Quando si discute delle politiche sull’intelligenza artificiale, risulta inevitabile parlare del GDPR, considerando che i dati sono l’ingrediente chiave per le applicazioni di questa tecnologia.

Il Parlamento europeo, grazie all’Artificial Intelligence Act (AIA, la proposta della Comunità Europea di regolamentazione dell’intelligenza artificiale), sta cercando di districarsi, oltre che sulla definizione dei sistemi di intelligenza artificiale, anche per l’attribuzione della responsabilità del produttore e del fornitore.

Lo scenario comporta da un lato la corsa all’innovazione e la necessità di regolamentare l’intelligenza artificiale e, dall’altro lato, un atteggiamento di protezione dei consumatori in termini di utilizzo dei dati personali dal momento che alcuni principi fondamentali del GDPR confluiscono nel regolamento proposto.

Le principali difficoltà di applicazione dell’AIA consistono nella gestione di alcune sfide legate alla conformità del GDPR e, precisamente:

  • Trasparenza: le persone devono sapere quando i loro dati vengono raccolti, come vengono elaborati e in che modo vengono prese le decisioni su di loro per valutare il potenziale impatto che ciò possa avere sulla loro privacy.
  • Minimizzazione dei dati: le organizzazioni devono ridurre al minimo la quantità di dati che raccolgono ed elaborano in contrasto con la necessità dell’intelligenza artificiale di processare enormi set di dati.
  • Anonimizzazione e pseudo-anonimizzazione: questi aspetti hanno un ruolo importante nel ridurre la quantità di dati identificabili raccolti e utilizzati. I dati anonimizzati non sono “dati personali” per il GDPR. Tuttavia, la pseudo-anonimizzazione è solo una tecnica di sicurezza, il che significa che i dati pseudo-anonimizzati sono ancora dati personali e, come tali, si applicano ad essi le regole GDPR.
  • Pregiudizi: si tratta di fattori che possono indurre a decisioni sbagliate, sproporzionate o discriminatorie. Ciò è particolarmente vero quando il risultato si basa sull’utilizzo di caratteristiche di dati di categoria speciali (i.e. predittori) come razza, etnia o genere.
  • Processo decisionale esclusivamente automatizzato: l’impiego dell’intelligenza artificiale nel processo decisionale riguardante gli individui, può implicare problematiche in termini di equità e discriminazioni. La sfida futura consisterà nel trovare la migliore media res tra l’intelligenza umana e quella automatizzata, tenendo conto delle capacità e dei limiti di entrambi.

Il dibattito sul contenuto dell’atto è ancora in corso e permane molta incertezza su come e in che tempi verranno applicate le regole dell’AIA. Nel frattempo è possibile attuare un’interpretazione del GDPR che vada a conciliare le due necessità contrastanti, ovvero: proteggere i dati personali e consentire l’utilizzo dell’intelligenza artificiale, grazie proprio all’efficace regolamentazione della privacy che si converte in leva strategica per consentire a tecnologie come l’intelligenza artificiale di aiutare a risolvere le più grandi sfide del mondo. Come il GDPR ha avviato la “rivoluzione” globale della privacy, l’AIA, traendo influenza e ispirazione da questo regolamento, può fungere da “catalizzatore” per avviare un processo di regolamentazione internazionale.

È doveroso ricordare che l’implementazione di discipline come il risk management, la business continuity e cybersecurity vanno a rafforzare l’approccio risk-based e resilience-base dei due regolamenti, convertendosi in leve preziose per supportare ulteriormente la realizzazione ottimistica di queste previsioni.