Intelligenza artificiale e privacy

Su richiesta dell’autorità irlandese, il comitato europeo per la protezione dei dati (EDPB) si è espresso in merito all’utilizzo di dati personali in fase di addestramento di intelligenze artificiali.

in particolare, l’autorità europea ha risposto a tre domande specifiche:

  1. quando e come un modello di IA si può considerare anonimo)
  2. è possibile usare l’interesse legittimo come base giuridica per sviluppare, addestrare e sviluppare sistemi di IA? se si, in che modo?
  3. che conseguenze comporta il trattamento illecito dei dati personali in tali fasi?

Domande fondamentali, risposte impegnative, che, a parere di chi scrive, sottintendono la costante esigenza di maggior chiarezza tipica di questo mondo, in cui il legislatore si trova a dover correre dietro a un’evoluzione tecnologica e sociale che risulta troppo veloce.

RISPOSTE

l’EDPB risponde specificando comunque che il parere non riguarda né i dati particolari (era tanto comodo chiamarli sensibili… ) né i dati relativi a processi decisionali automatici (profilazione compresa). Questa precisazione sembra logica, visto che il legittimo interesse del Titolare del trattamento non è base giuridica accettabile per queste tipologie di dati. Quindi di parla solo di dati personali di tipo comune.

ANONIMATO

valutare se un modello di IA possa essere considerato anonimo, dovrebbe essere compito (caso per caso) delle autorità nazionali competenti. Questo perché a prescindere dall’intenzione di progettazione, un modello di IA potrebbe comunque assorbire informazioni personali dal dataset di addestramento, e quindi in qualche modo renderle disponibili per l’estrazione. Dipende in sostanza da come è stato progettato.
L’anonimato, quindi, passa per l’impossibilità (con mezzi ragionevoli) di estrarre o di rendere comunque tali dati attraverso il modello implementato. Il che è molto interessante, perché comporta il fatto che il modello, per essere anonimo, non deve necessariamente essere addestrato con un dataset di dati anonimi. Deve solo garantire che i dati personali non possano essere estratti.
In base alle indicazioni dell’EDPB, le autorità di controllo possono considerare alcuni elementi specifici in fase di analisi di anonimato: informazioni su come è stato progettato il modello; selezione delle fonti di addestramento; preparazione dei dati e minimizzazione degli stessi; metodologie di addestramento, ecc.

INTERESSE LEGITTIMO

sull’utilizzo dell’interesse legittimo come base giuridica per il trattamento, l’autorità europea ribalta la responsabilità sui titolari di trattamento, che, secondo le linee guida pubblicate, dovranno svolgere un’approfondita valutazione relativamente a:

  • identificazione dell’interesse legittimo perseguito;
  • analisi della necessità del trattamento per la finalità perseguita;
  • valutazione della prevalenza dell’interesse legittimo del titolare rispetto agli interessi o ai diritti e alle libertà fondamentali degli interessati (balancing test).
    Importante notare che la richiesta è quella di analizzare le aspettative ragionevoli degli interessati, visto che potrebbe essere difficile, per questi soggetti, comprendere a fondo le complessità di funzionamento dei modelli di IA e le modalità di utilizzo dei dati in relazione a questo ambito. Sarà quindi fondamentale informare in modo chiaro, semplice ed esaustivo gli interessati, relativamente ai dati trattati e al contesto in cui sono trattati

Un ulteriore aspetto riguarda le misure di mitigazione. Se la valutazione dovesse evidenziare la prevalenza dei diritti e delle libertà degli interessati, il Titolare può comunque valutare l’introduzione di misure di mitigazione (sicurezza dei dati, esercizio facilitato dei diritti, ecc) che aiutino a diminuire l’impatto del trattamento.

l’autorità ha indicato anche un elenco (indicativo e non esaustivo) di tali misure, tra le quali ad esempio l’esclusione di pubblicazioni di informazioni che possano risultare lesive per singoli individui o gruppi di individui. Misure in ogni caso ulteriori rispetto a quelle considerate minime per la conformità alla norma.

VIOLAZIONI E RESPONSABILITA’

Di fatto, l’autorità europea definisce due momenti in cui si può configurare un illecito: lo sviluppo dell’IA e l’utilizzo dell’IA. I due momenti sono considerati distinti in quanto è diversa la finalità di trattamento.

la situazione più critica è, ad avviso di chi scrive, quella in cui lo stesso Titolare sviluppa un’IA trattando dati personali, conserva tali dati all’interno del modello e tratta questi dati anche in fase di utilizzo dell’IA. Caso per caso, l’autorità deve valutare in che misura la mancanza di una base giuridica adeguata per la fase di sviluppo influisce sulla liceità anche della fase di utilizzo.

il secondo caso riguarda l’illecito da parte di due titolari differenti: il primo sviluppa la IA trattando dati personali che vengono registrati nel modello, mentre il secondo utilizza la IA, la quale tratta tali dati personali in fase di utilizzo. Come è logico, è necessario identificare correttamente il perimetro di responsabilità di ciascun soggetto. Si parte dal fatto che il Titolare che ha sviluppato la IA, deve dimostrare di aver utilizzato i dati personali in modo lecito, che ha svolto le valutazioni necessarie e che rispetta anche i dettami dell’AI Act, relativamente alla conformità di utilizzo dei dati personali.

la terza fattispecie si configura quando un Titolare sviluppa una IA trattando dati illecitamente, ma poi anonimizza il sistema. Chiunque utilizzi il sistema anonimizzato, a patto che dimostri di non trattare dati personali, non incorre in alcuna criticità, poiché in assenza di dati personali (né all’interno del modello, né utilizzati per le elaborazioni) il GDPR non si applica. Chi utilizza il modello, ovviamente, dovrà dimostrare ampiamente di rispettare la normativa sulla protezione dei dati personali.

CONCLUSIONI

Queste considerazioni sono interessanti sotto molti aspetti. E’ evidente la ricerca di un responso onnicomprensivo, che quindi deve necessariamente “volare alto”, così come è evidente, soprattutto nell’aspetto delle misure di sicurezza, il tentativo di proteggere sì i diritti e le libertà degli interessati, ma senza necessariamente bloccare l’attività di chi sviluppa e utilizza questi modelli.

Il Garante Italiano, nel frattempo, ha già provveduto a irrogare una sanzione (15 milioni di euro) e a richiedere misure correttive a OpenAI, proprio in merito all’utilizzo dei dati personali in fase di implementazione del modello.


Che ne pensi? fammi avere le tue considerazioni o condividi le tue esperienze. Dal dialogo nascono le idee migliori.

Andrea Bisio

Lascia un commento