La società tecnologica proprietaria di ChatGPT, OpenAI, ha annunciato una trasformazione interna: il Comitato per la sicurezza si trasforma e diventa un organo indipendente. Prende il nome di Comitato di supervisione del Consiglio di amministrazione e questo cambiamento è stato stabilito dal Consiglio stesso in seguito a una revisione interna dell’azienda.
Il nuovo organo indipendente avrà il compito di supervisionare il lancio dei modelli di Intelligenza Artificiale (IA) e avrà il potere di bloccare eventualmente l’uscita dei modelli prodotti.
Compiti del nuovo organo
Nel suo blog, OpenAI stabilisce i 5 punti focali del Comitato si supervisione:
“1. Stabilire una governance indipendente per la sicurezza e la protezione;
2. Rafforzare le misure di sicurezza;
3. Essere trasparenti riguardo al nostro lavoro;
4. Collaborazione con organizzazioni esterne;
5. Unificare i nostri quadri di sicurezza per lo sviluppo e il monitoraggio dei modelli”.
Nonostante sia autonomo, lavorerà a stretto contatto con la dirigenza di OpenAI. Infatti, saranno proprio i vertici dell’azienda a informare il Comitato sulle valutazioni di sicurezza per i modelli di IA. Il passo successivo appartiene al Comitato di sicurezza che eventualmente ritarderà il rilascio dell’IA per risolvere qualsiasi problema di sicurezza.
I continui feedback tra i due organi dovrebbero ridurre i rischi sulla sicurezza e garantire una miglior privacy per gli utenti e per l’azienda stessa.
Benché la struttura interna non sia ancora del tutto chiara, OpenAI ha dichiarato che i membri del Comitato fanno parte anche del consiglio di amministrazione, lasciando perplessità sulla reale indipendenza dell’organo.
Articolo di T.S.