
Negli ultimi anni, il panorama politico e normativo legato all’Intelligenza Artificiale (IA) ha subito una rapida evoluzione, riflettendo sia le potenzialità della tecnologia sia le profonde divisioni geopolitiche che ne ostacolano una gestione globale unitaria.
Mentre Paesi e istituzioni si affrettano a sviluppare quadri normativi per governare l’IA, emergono due sfide principali: la frammentazione degli sforzi normativi e il crescente divario digitale tra Nord globale e il resto del mondo.
I principali approcci
Negli Stati Uniti prevale un approccio guidato dal mercato, volto a stimolare l’innovazione attraverso regole flessibili. L’Unione europea, invece, ha optato per un modello antropocentrico e affidabile, con l’obiettivo di tutelare i diritti fondamentali e la sicurezza dei cittadini.
La Cina, al contrario, promuove un controllo statale rigoroso sullo sviluppo tecnologico dell’IA come strumento strategico per il progresso. Altri Paesi, tutt’oggi, stanno cercando di sviluppare approcci autonomi, mirando a bilanciare innovazione tecnologica e inclusività sociale.
Tuttavia, questa frammentazione normativa non solo ostacola la creazione di una governance globale dell’IA, ma acuisce anche le tensioni geopolitiche tra le grandi potenze, inasprendo le rivalità tecnologiche.
Le principali ragioni del divario
L’accesso limitato a Internet, la mancanza di infrastrutture tecnologiche e la carenza di competenze qualificate rendono difficile sfruttare il potenziale dell’IA. Questa situazione rischia di lasciare indietro vaste aree del mondo, come l’Africa, aggravando ulteriormente le disuguaglianze economiche e sociali.
Mentre il Nord globale adotta tecnologie avanzate, i Paesi in via di sviluppo lottano ancora per integrare l’IA nei loro sistemi economici e sociali. Nonostante la pubblicazione di strategie nazionali sull’IA da parte di Paesi come Ruanda e Bangladesh, il cammino verso una vera inclusione digitale resta lungo e complesso.
L’Onu promuove la cooperazione
Governi e organizzazioni internazionali stanno intensificando gli sforzi per promuovere una cooperazione multilaterale. Le Nazioni Unite, in particolare, stanno assumendo un ruolo centrale nel dibattito sulla regolamentazione dell’IA.
Nel 2023, l’ONU ha istituito un organo consultivo che lo scorso settembre ha pubblicato il rapporto finale “Governing AI for Humanity”. Nel rapporto sono state segnalate le difficoltà nell’approccio alla governance globale dell’IA e le tappe fondamentali per costruire un approccio inclusivo e sostenibile.
Gli obiettivi di G7 e G20
Nel frattempo, il G7 e il G20 stanno lavorando su iniziative che mirano a superare la frammentazione normativa e a promuovere una maggiore inclusione digitale.
Il G7, sotto la presidenza italiana del 2024, ha lanciato l’AI Hub for Sustainable Development, con l’obiettivo di sostenere lo sviluppo tecnologico in Africa. Il G20, invece, ha concentrato i suoi sforzi sull’impatto sociale dell’IA, favorendo l’integrazione delle tecnologie digitali nei Paesi a medio e basso reddito.
L’obiettivo finale delle iniziative non è solo regolamentare l’IA per limitarne i rischi, ma anche sfruttarne il potenziale per promuovere lo sviluppo sostenibile, ridurre le disuguaglianze e favorire il progresso economico e sociale in tutto il mondo.
Articolo di D.C.G.