La task force del Comitato europeo per la protezione dei dati (European Data Protection Board – EDPB) ha pubblicato un Report che vuole indagare i principi di protezione dei dati personali applicabili alle Intelligenze Artificiali (IA) e in particolare a ChatGPT.
La task force, che si occupa di privacy e di protezione degli utenti da minacce cyber e dai rischi derivanti dall’uso scorretto dell’IA, è un progetto istituito dall’Unione europea lo scorso anno.
Già da un anno, dunque, il team di esperti sta raccogliendo dati per indagare su come il chatbot di OpenAI raccoglie e usa i dati per addestrare la sua IA.
Analisi di ChatGPT: le 5 fasi
Il Rapporto distingue 5 fasi del trattamento dei dati da parte di ChatGPT: “raccolta dati per addestramento, compresi web scraping o riutilizzo di set di dati; pre-elaborazione, compreso il filtraggio; addestramento; prompt e output di ChatGPT; addestramento di ChatGPT con prompt”.
Forte risalto si vuole dare al web scraping, una pratica non illegale, ma con la quale si può fare uso illecito dei dati. Il fenomeno consiste nella raccolta e riutilizzo di set di dati in modo da indicizzare siti e termini di ricerca.
La raccolta dei dati, tuttavia, ricorda l’EDPB nel Report, “deve essere bilanciata con i diritti e le libertà fondamentali degli interessati”. Per questo motivo, il Comitato suggerisce alcune garanzie sul legittimo interesse come la definizione di criteri di raccolta, l’esclusione di alcune categorie di dati più sensibili o l’anonimizzazione o il filtraggio dei dati personali prima dell’addestramento delle IA.
Oltre alla ammissibilità della raccolta dei dati personali da parte di OpenAI, la task force spiega come la società tecnologica dovrebbe comunque garantire la piena conformità al GDPR (General Data Protection Regulation) del 2016.
Dunque, la trasparenza dei dati e del loro utilizzo nell’addestramento di ChatGPT dovrebbe essere sempre comunicato agli interessati. In caso di non conformità, l’EDPB spiega l’importanza di esercitare il proprio diritto di sporgere reclamo.
Il report nasce dal bisogno di valutare i pericoli e le eventuali violazioni della privacy che le Big Tech produttrici di IA, come OpenAI, possono operare. Da questo preliminare studio, l’EDPB passa il testimone a tutte le Autorità nazionali europee, che si muoveranno nell’ambito delle istruttorie in corso aperte prima del 15 febbraio 2024, data in cui OpenAI si è stabilita in Ue.
Articolo di T.S.