IA, primo disegno di legge per la trasparenza dei contenuti artificiali

Il primo disegno di legge per regolamentare l’Intelligenza Artificiale (IA) è stato reso pubblico, ed ha come primo firmatario Antonio Nicita (PD). Il concetto del testo è l’obbligo di rendere riconoscibili come artificiali i contenuti generati dall’IA

L’IA generativa crea una quota sempre maggiore di contenuti audiovisivi ed editoriali e ciò va segnalato a chi ne fruisce. 

Rischi e preoccupazioni della nuova tecnologia

I rischi a cui si va incontro sono la manipolazione dell’informazione e la violazione del diritto d’autore. A preoccupare sono i cosiddetti “deep fake”, contenuti audio, immagine o video che vengono manipolati in modo da far apparire autentiche o veritiere le informazioni, utilizzando tecniche di IA. Le tecniche in questione comprendono l’apprendimento automatizzato (machine learning) e profondo (deep machine learning).

Il ricorso, sempre maggiore, a questa modalità di creazione di contenuti generati dall’IA pone “diverse criticità legate all’autenticità, alla verifica delle fonti, del diritto d’autore, al diritto alla tutela della propria immagine, al contrasto alla disinformazione e alla responsabilità per diffamazione”, si legge nella proposta.

Potere sanzionatorio ad AGCOM

Il disegno definisce “contenuti generati da intelligenza artificiale tutti i contenuti editoriali, compresi testi, video, immagini e voci. Le informazioni sono create, generate o sintetizzate, in tutto in parte, da sistemi basati su intelligenza artificiale, ivi compresi algoritmi di machine learning e reti neurali artificiali”.

L’Autorità per le Garanzie nelle Comunicazioni (AGCOM) sarebbe responsabile delle modalità di applicazione, con proprio Regolamento, da pubblicare entro 60 giorni dall’approvazione della presente legge

L’AGCOM sarebbe in egual modo responsabile del monitoraggio e avrebbe sia i compiti di segnalazione e rimozione dei contenuti pubblicati e diffusi in violazione di queste disposizioni, sia il potere sanzionatorio. Queste sanzioni sarebbero proporzionate alla gravità della violazione.

Questi interventi o proposte da parte degli organi istituzionali sono sempre più frequenti e necessari. E’ di questi giorni la notizia della creazione di una Commissione di indagine sui rischi dell’IA da parte del governo, fortemente voluta dal sottosegretario Barachini.