OpenAI, il Comitato di sicurezza diventa indipendente

La società tecnologica proprietaria di ChatGPT, OpenAI, ha annunciato una trasformazione interna: il Comitato per la sicurezza si trasforma e diventa un organo indipendente. Prende il nome di Comitato di supervisione del Consiglio di amministrazione e questo cambiamento è stato stabilito dal Consiglio stesso in seguito a una revisione interna dell’azienda. 

Il nuovo organo indipendente avrà il compito di supervisionare il lancio dei modelli di Intelligenza Artificiale (IA) e avrà il potere di bloccare eventualmente l’uscita dei modelli prodotti. 

Compiti del nuovo organo

Nel suo blog, OpenAI stabilisce i 5 punti focali del Comitato si supervisione:

“1. Stabilire una governance indipendente per la sicurezza e la protezione;

2. Rafforzare le misure di sicurezza;

3. Essere trasparenti riguardo al nostro lavoro;

4. Collaborazione con organizzazioni esterne;

5. Unificare i nostri quadri di sicurezza per lo sviluppo e il monitoraggio dei modelli”.

Nonostante sia autonomo, lavorerà a stretto contatto con la dirigenza di OpenAI. Infatti, saranno proprio i vertici dell’azienda a informare il Comitato sulle valutazioni di sicurezza per i modelli di IA. Il passo successivo appartiene al Comitato di sicurezza che eventualmente ritarderà il rilascio dell’IA per risolvere qualsiasi problema di sicurezza. 

I continui feedback tra i due organi dovrebbero ridurre i rischi sulla sicurezza e garantire una miglior privacy per gli utenti e per l’azienda stessa.

Benché la struttura interna non sia ancora del tutto chiara, OpenAI ha dichiarato che i membri del Comitato fanno parte anche del consiglio di amministrazione, lasciando perplessità sulla reale indipendenza dell’organo. 

Articolo di T.S.