
L’Organizzazione per la cooperazione e lo sviluppo economico (Ocse) ha collaborato con le Nazioni Unite e l’Unione europea per sviluppare il primo Rapporto Internazionale sulla sicurezza dell’Intelligenza Artificiale (IA).
Sostenuto e coadiuvato da più di 30 Paesi, il Report riassume i rischi e le previsioni future della comunità scientifica internazionale.
Il panorama analizzato vuole presentare una dettagliata sintesi del passato, del presente e del probabile futuro riguardante il mondo tech da presentare a responsabili scientifici e politici per affrontare al meglio i rischi e consapevolmente ampliare e collaborare al suo potenziamento.
“Il rapporto non fornisce raccomandazioni politiche. Piuttosto, riassume le prove scientifiche sulla sicurezza dell’IA generica per aiutare a creare una comprensione internazionale condivisa dei rischi derivanti dall’IA avanzata e di come possono essere mitigati. L’IA generica, o IA in grado di svolgere un’ampia gamma di attività, è un tipo di IA che ha fatto rapidi progressi negli ultimi anni ed è ampiamente utilizzata dalle aziende tecnologiche per una serie di scopi commerciali e di consumo”.
Per questo, si cerca di identificare il metodo migliore per risolvere tali rischi, partendo da 3 domande principali: “cosa può fare l’IA generica? Quali sono i rischi associati all’IA generica? Quali tecniche di mitigazione esistono contro questi rischi?”.
I rischi individuati
Il Rapporto inizia con l’analisi dei rapidi progressi dell’IA, dall’addestramento alla potenza di calcolo, dai miglioramenti delle capacità ai rischi di manipolazione dell’opinione pubblica, di attacchi informatici e di violazione della privacy.
Nello schema sottostante si evidenzia il progressivo aumento delle performance dei modelli di IA in rapporto alle capacità umane.
A partire da questo schema che riassume le capacità e la velocità del loro sviluppo, uno dei primi argomenti di interesse riguarda i rischi per il mercato del lavoro.
Nonostante la significativa perdita di posti di lavoro che potrebbe avvenire nei prossimi anni, gli esperti tranquillizzano ritenendo che è facile che siano compensati da altrettanti lavori, soprattutto in settori non automatizzati.
Un altro rischio individuato riguarda il divario economico e le concentrazioni di mercato. Si teme, infatti, un accentramento del potere di commercio con lo sviluppo di nuovi modelli di IA solo nelle mani di pochi detentori. Questo intensificherebbe il divario economico tra produttori e consumatori, ma anche tra Paesi avanzati e Paesi con limitate risorse. Non a caso, si è riscontrato un aumento significativo dei costi della produzione delle infrastrutture e dei software dei sistemi di IA.
Altri rischi emersi riguardano la gestione di dati personali e la violazione del copyright. La capacità di collazionare ed elaborare grandi quantità di dati sollevano dubbi sulla reale riservatezza dei dati. L’addestramento inoltre richiederebbe una trasparenza non sempre presente nelle procedure delle Big Tech produttrici di IA, rendendo difficile assicurare la sicurezza agli utenti.
Le proposte di mitigazione
Nonostante i rischi presentati, il report pone fiducia nello sviluppo consapevole dell’IA e proprio per questo propone delle tecniche per ridurre o azzerare i problemi principali segnalati.
L’approccio consigliato dagli esperti consiste nell’identificazione, valutazione, mitigazione e monitoraggio dei rischi. L’ingegneria di gestione dei rischi viene qui in aiuto: i fattori da tenere in considerazione sono molti, tra cui hardware, software, strutture organizzative e il fattore umano.
L’applicazione di questi metodi non fornisce una soluzione unica e preconfezionata, suggeriscono gli esperti. Tuttavia metodi e strumenti possono aiutare le classi dirigenti e i produttori di sistemi di IA ad approcciarsi in un modo più rispettoso al consumatore. In questa maniera, i sistemi di IA e il loro processo di addestramento potrà risultare più degno di fiducia sotto molti e diversi aspetti.
Infine, gli esperti auspicano una collaborazione internazionale che possa non solo aumentare la trasparenza dei codici interni dei modelli ma dare spazio a un progresso tecnologico più costruttivo.
Articolo di T.S.