IA, l’Ue fissa i primi paletti per uno sviluppo sicuro

È trapelata la bozza del regolamento sulla IA che la Commissione europea presenterà la prossima settimana. 

Si fissano i primi paletti per la regolamentazione di un nuovo sistema tecnologico che ha subìto un boom durante la pandemia. Occorrono quindi regole precise per favorirne uno sviluppo in Ue.

Lo scopo? Sicuramente definire una strategia europea sull’IA per assicurare una completa tutela dei diritti ma anche lo sviluppo positivo dell’innovazione, con benefici collettivi.

VIETATE ALCUNE APPLICAZIONI DI IA

La Commissione Ue, prima di tutto, propone un divieto assoluto verso alcune applicazioni di AI, considerate pericolosissime: le applicazioni (commerciali) di sistemi di sorveglianza di massa e sistemi di punteggio sociale. Infatti, questo tipo di strumenti potrebbero essere usati per manipolare i nostri comportamenti, decisioni e opinioni e sono considerate dall’Ue inconciliabili con i nostri valori.

AUTOVALUTAZIONE AZIENDALE DEGLI EFFETTI LESIVI DELL’IA

Ma a parte questo, l’Ue rimanda alle aziende la possibilità di valutare se la propria tecnologia di IA sia ad “alto-rischio”. In questo caso prima di adottarla deve sottoporla a una valutazione dell’impatto che questa tecnologia può avere sulla società, sui diritti delle persone. 

Un’autovalutazione che avrebbe un doppio vantaggio: costringere le aziende ad auto-responsabilizzarsi e assicurare una maggiore flessibilità alle norme e capacità di adattamento (fondamentale per un sistema così in rapida evoluzione come l’IA). La Commissione Ue, precisa nella bozza che “la classificazione di un sistema di intelligenza artificiale come ad alto rischio dovrebbe essere basata sulla sua destinazione d’uso – che dovrebbe fare riferimento all’uso a cui è destinato un sistema di intelligenza artificiale, compresi il contesto e le condizioni d’uso specifici e – ed essere determinata in due fasi, considerando se può causare determinati danni e, in tal caso, la gravità del danno possibile e la probabilità che si verifichi”. 

Il rispetto di tutte queste regole permetterà alle imprese che si atterranno alle linee guida di mostrare un marchio europeo di qualità connesso all’intelligenza artificiale. “I sistemi AI ad alto rischio dovrebbero portare il marchio CE per indicare la loro conformità al presente regolamento in modo che possano muoversi liberamente all’interno dell’Unione”, nota il testo. Inoltre, “gli Stati membri non dovrebbero creare ostacoli all’immissione sul mercato o alla messa in servizio dei sistemi di intelligenza artificiale che sono conformi ai requisiti stabiliti nel presente regolamento”.

GDPR E PROFILAZIONE

Già il GDPR, recepito in Italia nel 2018, conteneva alcune norme per contenere gli effetti lesivi dell’IA, che si sono dimostrate in poco tempo non del tutto adatte alla velocità di sviluppo di queste tecnologie, che appunto hanno subito un ulteriore accelerazione negli ultimi 12 mesi. 

Effettivamente, la nuova proposta di regolamentazione dell’Ue, non vieta ogni tipo di profilazione atta a influenzarci, ma solo una influenza “dannosa” per persone e società. Per esempio, la Commissione Ue ha evitato di proporre un divieto sull’uso del riconoscimento facciale con IA nei luoghi pubblici, anche se molte associazioni per i diritti umani e civili, in Europa e Usa, sono fortemente contrarie per i gravi rischi connessi a queste applicazioni.

L’ESTREMA DINAMICITA’ DELL’IA

“I sistemi AI ad alto rischio possono essere immessi sul mercato dell’Unione o messi in servizio in altro modo a condizione di rispettare i requisiti obbligatori”, osserva il testo. Inoltre, l’aspetto fondamentale da considerare è l’estrema dinamicità dell’IA: “per i sistemi di intelligenza artificiale che continuano ad apprendere dopo essere stati immessi sul mercato o messi in servizio (cioè che adattano automaticamente le modalità di esecuzione delle funzioni), le modifiche all’algoritmo e alle prestazioni che non sono state predeterminate e valutate al momento della valutazione della conformità richiedono una nuova valutazione della conformità del sistema di intelligenza artificiale”.

Ultimo punto, importante da sottolineare, riguarda l’obbligo che la Commissione propone sul diritto a sapere se si sta interagendo con un umano o un bot. Non solo. Si deve essere informati anche in presenza di immagini generate dall’intelligenza artificiale (i c.d. deepfake). L’obbligo viene meno nei casi di “sicurezza pubblica o per l’esercizio di un diritto legittimo o della libertà di una persona, come nel caso della satira, della parodia o della libertà delle arti e delle scienze, e fatte salve adeguate garanzie per i diritti e le libertà di terzi”.