ChatGPT e il diritto all’oblio, è possibile rimuovere il proprio nome dall’AI?

"ChatGPT, cancella il mio nome dai tuoi dati. Per sempre". L’avvocato Francesca Gollin spiega il diritto di opposizione ai risultati di ChatGPT: possiamo veramente nasconderci dall’Intelligenza Artificiale? 

Elia Cavarzan
L'avv. Francesca Gollin
L'avv. Francesca Gollin

"ChatGPT, cancella il mio nome dai tuoi dati. Per sempre". Fantascienza? No, un diritto, o meglio, potrebbe diventarlo: ma come per tutte le cose, c'è bisogno di tempo e soprattutto di una legislazione chiara e coerente.

L’avvocato Francesca Gollin, originaria di Castelfranco Veneto, è una specialista nella tutela della privacy e della reputazione online. La sua esperienza nel diritto digitale l'ha portata nel corso della sua carriera a operare in contesti legali complessi, dove sono in gioco l'immagine di persone e la reputazione di brand aziendali.

L'avv. Francesca Gollin
L'avv. Francesca Gollin

Con l’avvento di ChatGPT sugli smartphone di milioni di persone, ha colto l’importanza del diritto all’opposizione ai risultati di ricerca di OpenAI, un tema che sta emergendo con una rapidità mai registrata prima, che intreccia identità digitale e protezione dei dati personali. Ma andiamo con ordine.

In cosa consiste esattamente il diritto di opposizione e come si applica all'intelligenza artificiale generativa come ChatGPT?

Il diritto di opposizione è previsto dalla normativa europea a protezione dei dati personali (GDPR) e conferisce alle persone la possibilità di opporsi al trattamento dei loro dati. In particolare, il diritto si applica quando i dati sono trattati per finalità di marketing o quando il trattamento si basa su un legittimo interesse del titolare del trattamento.

Per quanto riguarda l’intelligenza artificiale generativa, l’interessato ha la possibilità di opporsi sia al trattamento dei propri dati personali per le finalità di profilazione e marketing, sia nel generare risposte di output (ovvero i risultati forniti dalle applicazioni di AI) e nell’addestrare i suoi sistemi.

Quali sono le motivazioni valide per chiedere la rimozione del proprio nome da ChatGPT?

L'interessato ha il diritto di chiedere la rimozione dei propri dati personali da ChatGPT o da altri sistemi simili in determinate circostanze. Se i dati sono trattati per finalità di marketing o profilazione, il diritto di opposizione può essere esercitato in qualsiasi momento e senza fornire motivazioni specifiche.

Scacco all’Ai: Chatgpt non funziona se non viene nutrita da testi generati dall’uomo
La redazione

Se invece una persona vuole richiedere la cancellazione dei suoi dati personali, come l'eliminazione del proprio nome dalle risposte generate dall’AI, è necessario fornire un motivo legittimo. Ad esempio, si può chiedere la rimozione se il trattamento dei dati avviene senza una base giuridica valida, se il nome compare in un contesto diffamatorio o inesatto, oppure se l'uso di quei dati causa un danno all’interessato.

OpenAI afferma che può rifiutare una richiesta se ha un motivo legittimo. Quali potrebbero essere questi motivi?

Come in ogni ambito, i diritti non sono assoluti e devono essere bilanciati con altri principi rilevanti. OpenAI potrebbe rifiutare una richiesta di rimozione quando esiste un interesse legittimo a mantenere l’informazione accessibile, come nel caso del diritto di cronaca. Pensiamo, ad esempio, a un politico: in questo caso, l’interesse della collettività a essere informata prevale sulla possibilità di eliminare il suo nome dai risultati generati dall’AI. Lo stesso vale per informazioni di pubblico dominio o per contenuti rilevanti per la libertà di espressione. Ogni richiesta va valutata caso per caso, cercando un equilibrio tra il diritto alla protezione dei dati personali e altri principi fondamentali.

L'attuale normativa europea è sufficiente o sarebbe necessario un intervento più specifico per regolamentare l’uso dei dati personali nei modelli di intelligenza artificiale?

La convergenza normativa tra disciplina dei modelli di AI e protezione dei dati personali sta emergendo in modo sempre più delineato. L’obiettivo delle due regolamentazioni è infatti comune: creare un sistema di circolazione sicura e efficiente dei dati.

Diversi sono i punti di contatto tra GDPR e AI Act, dal principio di trasparenza nell’uso degli stessi, a quello di minimizzazione del trattamento dei dati, ai meccanismi di accesso e rettifica alle informazioni.

Intelligenza artificiale, IoT, Cybersecurity: Smact disegna a Cortina le sfide del presente
La redazione
Robot pressing button, illustration

La normativa è potenzialmente già idonea a garantire la tutela dei dati, il punto è la consapevolezza che persone e dipendenti delle aziende devono necessariamente avere dei limiti di tali sistemi di AI, affinché il loro utilizzo si integri nei sistemi aziendali in modo etico e avvenga in modo consapevole e controllato: punti chiave sono la presenza di informazioni chiare su come vengono gestiti i dati, l’adeguata formazione del personale, la definizioni delle responsabilità e la supervisione umana.

E’ necessario che l’AI venga utilizzata sempre in modo equilibrato rispetto ai suoi potenziali rischi.

E qui si apre un tema delicato e in evoluzione dei sistemi di AI che riguarda la fiducia nei risultati forniti, che non deve essere eccessiva. È essenziale implementare un sistema funzionale che permetta la segnalazione delle informazioni errate, affinché possano essere corrette senza dover attendere le lungaggini di un’istruttoria o addirittura chiedere agli utenti prove troppo gravose circa la falsità di tali informazioni.

Ci può raccontare una case history relativamente a questo tema?

Un mio cliente, un impresario, si è trovato in una situazione complessa a causa di contenuti diffamatori diffusi online. In particolare, alcuni articoli, completamente inventati da una persona nota per diffondere fake news, associavano il suo nome a informazioni false e dannose per la sua reputazione.

Il problema è emerso quando una società creditizia lo ha avvisato che strumenti di intelligenza artificiale, come quelli di OpenAI, restituivano queste informazioni nelle loro risposte. Questo ha sollevato gravi preoccupazioni, perché significava che dati errati e potenzialmente dannosi potevano continuare a circolare, influenzando anche la sua affidabilità professionale.

Purtroppo, questi episodi saranno sempre più frequenti, perché l’intelligenza artificiale viene ormai utilizzata da molte persone come un vero e proprio motore di ricerca. Il problema è che i sistemi di intelligenza artificiale non nascono come motori di ricerca ma come strumenti per elaborare e produrre contenuti, effettuare analisi e comparazioni in modo più rapido, e tuttavia presentano, allo stato attuale, ancora diversi tipi di “allucinazioni” per cui i risultati devono essere monitorati e gestiti dagli umani.

Riproduzione riservata © il Nord Est