
A due anni dalla pubblicazione da parte di Google della loro visione per una Intelligenza Artificiale (IA) responsabile, utile e innovativa, Google pubblica il resoconto sui progressi conquistati nel campo dell’IA nel 2024.
“Siamo stati tra le prime organizzazioni a pubblicare i principi dell’IA nel 2018 e abbiamo pubblicato un rapporto annuale sulla trasparenza dal 2019, e rivediamo costantemente le nostre politiche, pratiche e framework e li aggiorniamo quando necessario”, si legge nel blog.
Il rapporto, relativo all’anno appena concluso, è il sesto e descrive come la grande multinazionale tecnologica governa, mappa, misura e gestisce il rischio IA dalla produzione all’uso e consumo del prodotto.
Protocolli aggiornati
L’avanzamento tecnologico in campo IA è stato particolarmente veloce e questo, Google riconosce, potrebbe presentare nuovi rischi. Il Frontiere Safety Framework è stato uno degli aggiornamenti Google ideati per aiutare nella gestione del rischio.
Questo ventaglio di protocolli sono stati frutto di una collaborazione con “esperti del settore, del mondo accademico e del governo per approfondire la nostra comprensione dei rischi, delle valutazioni empiriche per testarli e delle mitigazioni che possiamo applicare”. Il Framework è stato utile nello sviluppo di DeepMind, azienda sorella di Google che si occupa solo di IA, e soprattutto per l’aggiornamento di Gemini 2.0.
Nella pratica, i protocolli Google, in costante aggiornamento, aiutano a identificare dove sono necessari sforzi “più incisivi per limitare il rischio di esfiltrazione”; a focalizzare sulla prevenzione degli usi impropri derivanti dalla distribuzione delle loro IA; e affrontare i rischi che potrebbero intaccare il controllo umano.
“I principi di base comuni sono una parte importante di questa evoluzione”. Soprattutto ora che l’IA è diventata uno strumento di uso comune. Google è quindi incoraggiato da organizzazioni mondiali, come il G7 e l’Organizzazione internazionale per la normazione a sviluppare standard per la produzione, distribuzione e uso di un modello adatto agli utenti e responsabile.
Il modello corrente di standard si basa sul NIST Risk Management Framework, che ha sviluppato una lista di best practices e limitazione dei rischi su cui anche Gemini 2.0 si basa.
Per quest’anno che ci ritroviamo ad affrontare, Google promette di concentrarsi su tre principi fondamentali: un’innovazione audace, per stimolare il progresso economico, tecnologico, e migliorare la vita di tutti; uno sviluppo e una distribuzione responsabili, proprio perchè l’IA, essendo una “tecnologia trasformativa ancora emergente” comprende di rischi e complessità oltre a opportunità; un progresso collaborativo, per creare una comunità internazionale unita verso il futuro.
Articolo di T.S.