ChatGPT i dubbi sulla limitazione posta dal Garante privacy italiano

Il fatto è questo, il Garante per la protezione dei dati personali italiano il 30 marzo 2023 ha disposto:
a) ai sensi dell’art. 58, par. 2, lett. f), del Regolamento dispone, in via d’urgenza, nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, in qualità di titolare del trattamento dei dati personali effettuato attraverso tale applicazione, la misura della limitazione provvisoria, del trattamento dei dati personali degli interessati stabiliti nel territorio italiano;
b) la predetta limitazione ha effetto immediato a decorrere dalla data di ricezione del presente provvedimento, con riserva di ogni altra determinazione all’esito della definizione dell’istruttoria avviata sul caso.
La limitazione è avvenuta sulla scorta dei seguenti motivi in contrasto con il GDPR (Regolamento europeo protezione dati personali):
- mancata informativa resa agli utenti, agli interessati i cui dati sono stati raccolti da OpenAI, L.L.C.
- l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;
- trattamento di dati personali inesatto in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale;
- assenza di verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni;
- assenza di filtri dei risultati per i minori di età di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi.
A questo punto il provvedimento restrittivo, facilmente aggirabile dall’utilizzo di una VPN, non permette agli utenti italiani di usufruire del servizio anche se l’accesso avviene a pagamento.
Il primo aspetto che viene posto in evidenza è che nelle ultime settimane l’opinione pubblica mondiale è stata indirizzata contro ChatGPT, è di questa settimana la raccolta firme promossa da Elon Musk sul sito del Future of Life Institute, che da anni mette in guardia sui rischi di uno sviluppo incontrollato con cui si chiede una pausa di riflessione di 6 mesi di stop alla corsa dell’intelligenza artificiale.
Poi arriva il provvedimento del Garante italiano con cui chiede, meglio si appella, affinchè le altre Autorità di controllo europee dispongano un provvedimento analogo verso OpenAI e ChatGPT.
Sotto il profilo giuridico questo provvedimento appare debole, vediamo il profilo della tempestività dell’intervento anche rispetto ad altri analoghi casi.
Il Garante italiano lo abbiamo visto “freddino” quando si è trattato di assumere provvedimenti avverso le piattaforme social, i casi delle esfiltrazioni dati di Facebook, le palesi mancanza di privacy di TikTok o Clubhouse sono state oggetto di lunghe interlocuzioni e accertamenti per arrivare a sanzioni e non blocchi.
Nal caso di ChatGPT è stato adottato la limitazione del trattamento che ovviamente ha dei limiti.
Tizio (cittadino americano) regolarmente registrato nel proprio Paese e oggi in vacanza in Italia non può collegarsi al servizio in quanto inibiti i dns, eppure il cittadino-utente americano nel nostro Paese avrebbe tutti i diritti per utilizzare il servizio che magari ha anche pagato.
Il Garante italiano poi ha deciso di limitare il trattamento in quanto “i risultati esposti ai minori di età di 13 anni non sono verificati risultano potenzialmente inidonei rispetto al grado di sviluppo e autoconsapevolezza degli stessi giovanissimi utenti”.
Lo ha scritto veramente!!!
Quindi per il Garante italiano su Telegram, TikTok, Facebook, Instagram viene data la certezza ai minori di 13 anni che le informazioni siano filtrate e veritiere? Accidenti, la pratica e i fatti di cronaca ci dicono il contrario, ma il Garante li usa i social? .
L’informativa, la base giuridica e le procedure per attestare ciò che è in pratica l’espressione di un tacito consenso su base contrattuale saranno risolte in pochi giorni ma il tentativo di censura o il controllo sui contenuti dovrebbe preoccupare chi da sempre ha a cuore le libertà digitali.
«L’IA è come un buon amico, sempre lì quando hai bisogno di una mano, ma non puoi sempre fidarti di quello che ti dice». (Demis Hassabis, co-fondatore di DeepMind)