AI Act: Ue pubblica la prima bozza del Codice di condotta

La Commissione europea ha pubblicato una bozza iniziale del Codice di condotta per l’utilizzo dei General Purpose AI Model (GPAI), ossia modelli di Intelligenza Artificiale (IA) capaci di eseguire compiti diversi e che sono stati addestrati attraverso una grande quantità di dati non categorizzati.

Il Codice di condotta fa parte del quadro normativo dell’Artificial Intelligence Act (AI Act), regolamento europeo sull’IA.

Destinatari e tempistiche

Questa prima bozza, ancora in fase di elaborazione, è frutto di una collaborazione tra i rappresentanti dell’industria, della società civile e del mondo accademico. 

I destinatari principali sono gli sviluppatori di modelli IA con rischi sistemici e i fornitori di IA, i quali dovranno attenersi al codice di condotta per i 2 anni che intercorrono tra l’entrata in vigore dei primi obblighi (agosto 2025) e l’adozione degli standard (agosto 2027). 

Non ha valore legale e la sua adozione non è obbligatoria. Tuttavia, la Commissione Ue incoraggia l’adesione volontaria. Infatti, gli sviluppatori possono usare il Codice di condotta come prova di conformità in caso di contestazioni.

Gli obiettivi principali

Le linee guida hanno il compito di regolamentare l’uso delle GPAI, per far sì che sia il più responsabile possibile, allineandosi con i valori dell’Ue. In particolare, mirano a fronteggiare i problemi più incombenti dei sistemi di IA generativa, sottolineando l’importanza della trasparenza, sicurezza e tutela dei diritti fondamentali.

Ad esempio, il Codice di condotta promuove la trasparenza. Ciò vuol dire che raccomanda alle aziende di rendere noti i dati usati per l’allenamento degli algoritmi, per garantire che il processo rispetti i diritti di proprietà intellettuale e le normative in vigore.

Inoltre, sostiene la conformità alle norme dell’AI Act, con maggior cautela alla tracciabilità e alla documentazione, e previene le frammentazioni normative, evitando approcci disomogenei tra gli Stati Ue.

Dunque, il testo intende fornire gli strumenti necessari per analizzare i rischi dell’IA, come la manipolazione e la disinformazione, tenendo conto delle potenziali ripercussioni che potrebbero avere sulla sicurezza pubblica e sulla stabilità sociale.

Futuri step

La fase di feedback pubblico è aperta fino al 28 novembre. Successivamente, la Commissione analizzerà le considerazioni raccolte da vari stakeholder e le utilizzerà per migliorare il codice, garantendo che rappresenti le esigenze di tutte le parti coinvolte.

Inoltre, l’AI Office si occuperà di revisionarlo regolarmente per accertarsi che le linee guida siano sempre adeguate rispetto all’evoluzione tecnologica.

Articolo di F.R.