Unione Europea

FRIA, la valutazione d’impatto sui diritti fondamentali dell’AI Act

Dopo 3 giorni di negoziati la Commissione Europea, il Consiglio dell’Unione europea e il Parlamento europeo, lo scorso 8 dicembre, hanno raggiunto l’accordo politico sul testo del Regolamento Europeo sull’Intelligenza Artificiale, meglio noto come AI Act, in cui si introduce l’emendamento FRIA.

Tra gli emendamenti aggiunti al testo iniziale si introduce, al ricorrere di determinate circostanze, l’obbligo di svolgere una valutazione di impatto sui diritti fondamentali.

La proposta del Parlamento si chiama Valutazione dell’Impatto sui Diritti Fondamentali, o Fundamental Rights Impact Assessment (FRIA).

Elementi essenziali del FRIA

L’accordo raggiunto durante la sessione di trilogo del 6-8 dicembre 2023 dai co-legislatori europei mantiene l’impostazione del Parlamento ed introduce l’obbligo di condurre una valutazione d’impatto sui diritti fondamentali per alcuni soggetti che impiegano sistemi di A.I. ad alto rischio. 

Quest’obbligo si applica sia in caso di enti di diritto pubblico che in caso di operatori privati che forniscono servizi pubblici, nonché agli operatori che forniscono sistemi ad alto rischio. Questi soggetti sono tenuti a eseguire una valutazione dell’impatto sui diritti fondamentali e a riferire i risultati all’autorità nazionale (che sarà nominata dai singoli Stati a seguito della pubblicazione del Regolamento).

L’obiettivo di questa valutazione comprende diversi elementi chiave:

  • Descrizione del processo di implementazione: la valutazione deve includere una descrizione dettagliata del processo in cui verrà utilizzato il sistema di A.I. ad alto rischio.
  • Tempo di utilizzo e frequenza: le organizzazioni devono specificare la durata e la frequenza di utilizzo prevista del sistema di A.I. ad alto rischio.
  • Categorie di persone o gruppi interessati: la valutazione deve identificare le categorie di persone fisiche e gruppi che potrebbero essere interessati dall’uso del sistema di A.I. nel contesto specifico.
  • Rischi specifici di danno: è obbligatorio descrivere i rischi specifici di danno che possono avere un impatto sulle categorie di persone o gruppi identificati.
  • Misure di supervisione umana: i responsabili dell’implementazione devono descrivere in dettaglio l’attuazione di misure di supervisione umana per monitorare il sistema di A.I.
  • Misure di rimedio alla concretizzazione del rischio: si devono delineare le misure di mitigazione e rimedio da adottare nel caso in cui i rischi identificati si concretizzino.

L’obiettivo chiaro del FRIA è anticipare lo svolgimento di valutazioni d’impatto nella fase di progettazione e prototipazione dei sistemi di A.I.  Ciò può contribuire significativamente a realizzare o integrare soluzioni di A.I. che rispettino i diritti fondamentali degli individui e che siano conformi con i requisiti di legge.

A.V.

Recent Posts

Tumore al seno, un impegno congiunto per le terapie innovative

ROMA (ITALPRESS) - In ambito oncologico la ricerca ha realizzato importanti conquiste, ma restano ancora…

25 Novembre 2024

USPI, Convegno “IA ed editoria” il prossimo 12 dicembre al Centro Studi Americani

Il Convegno “IA ed editoria: stato dell’arte e prospettive future” si terrà dalle ore 10:00…

25 Novembre 2024

Google Docs: ora si possono generare immagini IA

Il nuovo strumento si basa su Imagen 3, ultima versione del generatore di immagini IA…

25 Novembre 2024

Mattarella “La violenza sulle donne un’emergenza senza giustificazioni”

ROMA (ITALPRESS) - "La violenza contro le donne presenta numeri allarmanti. E' un comportamento che…

25 Novembre 2024

La Lazio continua a volare, Bologna battuto 3-0

ROMA (ITALPRESS) - La Lazio stende 3-0 il Bologna nel match dell'Olimpico e centra la…

24 Novembre 2024

Il Napoli torna solitario al comando, Lukaku piega la Roma

NAPOLI (ITALPRESS) - Non riesce il colpaccio alla nuova Roma di Claudio Ranieri, che al…

24 Novembre 2024