GPDP, Relazione annuale: IA, hate speech e normative

Pasquale Stanzione, presidente del Garante per la Protezione dei Dati Personali (GPDP), ha presentato lo scorso 3 luglio la Relazione annuale sull’attività svolta nel quarto anno di mandato del Collegio. 

“La Relazione illustra i diversi fronti sui quali è stata impegnata l’Autorità nel corso di un anno caratterizzato da interventi in ambiti fortemente innovativi: digitalizzazione, Intelligenza Artificiale (IA), PNRR e da alcune costanti: contrasto al telemarketing aggressivo, attenzione particolare ai soggetti vulnerabili, tutela dei dati sanitari”, si legge nella presentazione della Relazione.

Bilancio positivo per l’IA: tra rischi e vantaggi

“Si ritiene che l’Intelligenza Artificiale potrebbe sostituire, nei prossimi anni, circa 85 milioni di posti di lavoro creandone, tuttavia, 97 milioni di nuovi, sebbene con un rischio di nuove, ulteriori diseguaglianze”. 

Così apre la presentazione il presidente Stanzione, guardando i dati del bilancio 2023 e analizzando le prospettive future. Ammonisce subito sui rischi per tracciare la strada delle normative necessarie a combattere le disuguaglianze.

L’integrazione dell’IA nella “nostra vita privata e pubblica” è dimostrata dai dati del bilancio. Infatti, “un’impresa su quattro, nel nostro Paese, ha già integrato l’Intelligenza Artificiale nei propri processi produttivi ed entro un anno – si stima – il 60% delle aziende la utilizzerà nei procedimenti assunzionali”.

“Momento Oppenheimer”

Ma non è solo uno strumento (oramai) cardine del processo lavorativo. Secondo la Relazione, infatti, sono anche molti giovani ad utilizzare questa tecnologia (il 65% usa ChatGPT per svolgere i compiti). 

Una menzione speciale, tuttavia, Stanzione la dedica al rischio di amplificazione dei conflitti dovuta all’IA. Si rischia un nuovo “momento Oppenheimer”. Le implicazioni belliche e l’attuale situazione geopolitica, infatti, rischiano di “amplificare senza limiti la capacità offensiva dei conflitti, sottraendo all’uomo il controllo della violenza” e di offrire “un drammatico terreno di sperimentazione”.

Condizione che si riflette anche nell’universo digitale con la “cognitive warfare“, la guerra cognitiva. Questa nuova guerra fredda, secondo le parole di Stanzione, si fonda su attacchi informativi per mezzo di influencer, social media e social network.

Appunto perché il campo d’azione si è spostato anche online, il presidente chiede nuove regole aggiornate.

Le invalicabili “colonne d’Ercole”: AI Act e hate speech

“La continua espansione ed evoluzione dell’Intelligenza Artificiale impone dunque di tracciare, e questo è il massimo compito della politica, un limite di sostenibilità, delle colonne d’Ercole”, continua Stanzione, per continuare a svilupparla pur delimitando il suo campo d’azione. 

“L’AI Act rappresenta, assieme a ciò che fu il GDPR otto anni fa, il tentativo più avanzato dell’Europa di delineare una strategia antropocentrica di governo della tecnica”.

Non a caso, la normativa Ue sull’IA è “la prima disciplina al mondo, di taglio organico e non settoriale, dell’Intelligenza Artificiale, segnando una primazia che non è, affatto, soltanto cronologica ma è, soprattutto, assiologica”, a differenza dell’approccio americano e sino-coreano.

Ma le richieste di regolamentazione non finiscono qui. Un’altra preoccupazione è “l’uso offensivo del web, la diffusione anche tra i giovani di messaggi istigatori, discriminatori nei confronti, generalmente, di minoranze, delle donne o di chiunque sia percepito come ‘altro-da-noi’, con rivendicazioni identitarie in forma aggressiva”, conclude Stanzione, criticando le interrelazioni tra web e violenza.

Articolo di T.S.