Dopo 3 giorni di negoziati la Commissione Europea, il Consiglio dell’Unione europea e il Parlamento europeo, lo scorso 8 dicembre, hanno raggiunto l’accordo politico sul testo del Regolamento Europeo sull’Intelligenza Artificiale, meglio noto come AI Act, in cui si introduce l’emendamento FRIA.
Tra gli emendamenti aggiunti al testo iniziale si introduce, al ricorrere di determinate circostanze, l’obbligo di svolgere una valutazione di impatto sui diritti fondamentali.
La proposta del Parlamento si chiama Valutazione dell’Impatto sui Diritti Fondamentali, o Fundamental Rights Impact Assessment (FRIA).
Elementi essenziali del FRIA
L’accordo raggiunto durante la sessione di trilogo del 6-8 dicembre 2023 dai co-legislatori europei mantiene l’impostazione del Parlamento ed introduce l’obbligo di condurre una valutazione d’impatto sui diritti fondamentali per alcuni soggetti che impiegano sistemi di A.I. ad alto rischio.
Quest’obbligo si applica sia in caso di enti di diritto pubblico che in caso di operatori privati che forniscono servizi pubblici, nonché agli operatori che forniscono sistemi ad alto rischio. Questi soggetti sono tenuti a eseguire una valutazione dell’impatto sui diritti fondamentali e a riferire i risultati all’autorità nazionale (che sarà nominata dai singoli Stati a seguito della pubblicazione del Regolamento).
L’obiettivo di questa valutazione comprende diversi elementi chiave:
- Descrizione del processo di implementazione: la valutazione deve includere una descrizione dettagliata del processo in cui verrà utilizzato il sistema di A.I. ad alto rischio.
- Tempo di utilizzo e frequenza: le organizzazioni devono specificare la durata e la frequenza di utilizzo prevista del sistema di A.I. ad alto rischio.
- Categorie di persone o gruppi interessati: la valutazione deve identificare le categorie di persone fisiche e gruppi che potrebbero essere interessati dall’uso del sistema di A.I. nel contesto specifico.
- Rischi specifici di danno: è obbligatorio descrivere i rischi specifici di danno che possono avere un impatto sulle categorie di persone o gruppi identificati.
- Misure di supervisione umana: i responsabili dell’implementazione devono descrivere in dettaglio l’attuazione di misure di supervisione umana per monitorare il sistema di A.I.
- Misure di rimedio alla concretizzazione del rischio: si devono delineare le misure di mitigazione e rimedio da adottare nel caso in cui i rischi identificati si concretizzino.
L’obiettivo chiaro del FRIA è anticipare lo svolgimento di valutazioni d’impatto nella fase di progettazione e prototipazione dei sistemi di A.I. Ciò può contribuire significativamente a realizzare o integrare soluzioni di A.I. che rispettino i diritti fondamentali degli individui e che siano conformi con i requisiti di legge.