Questioni di privacy: problemi legali per ChatGPT

ChatGPT non rispetterebbe il Regolamento europeo sulla privacy: queste le ragioni di una causa appena intentata contro OpenAI da Noyb.

Gli esperti di tale gruppo austriaco lottano contro le violazioni della privacy per difendere i diritti dei consumatori e degli attivisti. In particolare, vigilano affinché venga rispettato il nuovo regolamento sulla protezione dei dati, in vigore dal maggio 2018. Secondo Noyb, l’infrastruttura AI alla base di ChatGPT viola gli articoli 5, 15 e 16 della normativa europea. Infatti, il chatbot potrebbe sia fornire informazioni errate sui cittadini sia non consentire loro un libero accesso a quelle che li riguardano. Il GDPR, al contrario, prescrive che i dati online relativi ai cittadini europei siano corretti. E che i diretti interessati possano sia conoscere le fonti da cui sono tratte le informazioni su di loro sia richiedere l’eventuale cancellazione dei dati.

Anche l’AI può avere allucinazioni

Il problema sorge perché gli algoritmi dei chatbot possono incorrere nelle cosiddette “allucinazioni”. In sostanza, potrebbero produrre dati anche inventati o completamente errati, se sono stati male addestrati alla ricerca online. Questo inconveniente si verifica in quanto l’AI è allenata a cercare connessioni fra un’enorme mole di dati e potrebbe anche ipotizzarne alcune inesistenti, traendo delle conclusioni distorte o del tutto infondate.

Una delle minacce più frequenti al riguardo viene pure dal Web scraping. Si tratta di una tecnica non illegale per carpire informazioni dall’analisi del codice sorgente di un sito web. A volte, però, si utilizza per dedurne dati personali senza chiedere il consenso dei diretti interessati. Ciò accade soprattutto se i siti che li riportano non fanno uso di sistemi crittografati per la gestione del flusso del traffico online.

Le motivazioni della causa legale

Noyb, organizzazione no-profit con sede a Vienna, rileva che ChatGPT non consente né la cancellazione dei dati né il reperimento delle loro fonti. Questi problemi, sempre secondo il Centro europeo per i diritti digitali, giustificano una causa legale contro OpenAI. Noyb ha, dunque, richiesto a DSB, l’autorità austriaca per la tutela dei dati personali, di aprire un’indagine per questioni di privacy. I legali desiderano chiarimenti sul processo di elaborazione delle informazioni da parte dei chatbot. Inoltre, chiedono che i metodi di addestramento dei modelli AI della chat tengano maggiormente conto del rispetto del GDPR.

Sanzioni per OpenAI?

Se arriverà la conferma che i chatbot violano il Regolamento UE 679/2016, potrebbero scattare delle sanzioni per OpenAI, partner di colossi come Microsoft. Del resto, anche in Italia nell’aprile 2023 il Garante aveva bloccato temporaneamente l’accesso a ChatGPT per vederci chiaro proprio su criticità relative a questioni di privacy, ottenendo in seguito più garanzie di trasparenza dalla società statunitense.

I cittadini europei restano in attesa del verdetto austriaco, ma finora neanche OpenAI ha rilasciato dichiarazioni in merito.

Articolo di M.P.