IA in California, legge sulla sicurezza: obblighi per le Big Tech

Lo Stato della California si conferma uno dei più attivi in materia di regolamentazione in ambito tech. Infatti, al momento è il primo Stato federale statunitense a firmare una legge sulla sicurezza dell’Intelligenza Artificiale (IA). Con questa manovra legislativa, le Big Tech hanno il dovere di rendere pubblici e trasparenti i propri protocolli di sicurezza. 

La firma dietro alla nuova legge è del governatore democratico Gavin Newsom, il quale riesce così a chiudere diverse azioni legali in corso nello Stato. Colossi come OpenAI e Meta, infatti, erano sotto accusa in tribunale da mesi (se non anni) per questioni di trasparenza, raccolta dei dati e fiscalità non in regola.

La Caput Mundi del tech 

La California si ritrova a dover legiferare prima di tutti gli altri Stati americani proprio per la concentrazione di grandi aziende tech

Non è un caso il loro primato, è la conseguenza della forte dominanza delle compagnie sul territorio: su 50 Big Tech di rilevanza internazionale, 32 sono stanziate proprio in California. Le uniche tre aziende che hanno raggiunto i 3 trilioni di valutazione sul mercato, Google, Apple e Nvidia, hanno la loro casa madre nello Stato. E soprattutto, hanno generato centinaia di posti di lavoro. La richiesta californiana di esperti nel settore IA e tech è il 15,7% di tutta la richiesta americana, suggellando la dominanza nel settore. 

Per affrontare tanta concentrazione di Big Tech, la California si è dovuta armare in tribunale. Il disegno di legge firmato in questi giorni, denominato “Transparency in Frontier Artificial Intelligence Act” (TFAIA) o legge SB 53, ha seguito un percorso di oltre un anno. Ora è pronto e “ci spinge verso la trasparenza e i principi delle policy come il “trust and verify” delineati nel nostro rapporto”, spiega l’ex giudice della Corte Suprema Mariano-Florentino Cuéllar.

Il rapporto di cui parla il giudice è il punto di partenza della legge. Con questo studio richiesto da Newsom, il primo a livello nazionale, si basano le misure di salvaguardia e le pratiche di sviluppo per l’IA ora elaborate nella SB 53. 

La legge SB 53

I requisiti che la nuova legge TFAIA californiana impone riguardano tutti gli sviluppatori di IA sul territorio statale. Le tematiche che tocca sono la trasparenza, l’innovazione, la sicurezza, la responsabilità e la reattività.

Prima di tutto mette in chiaro che ogni grande sviluppatore si sistemi di IA deve rendere pubblico sul proprio sito il framework degli standard aziendali incorporati a quelli nazionali per la produzione della propria IA. Questo in modo tale da dare la giusta garanzia sulle best practice, trattamento dei dati e consenso. 

Questo punto è fondamentale per assicurare la responsabilità delle aziende tech in caso di rischi, problemi o eventuali non conformità che richiedono sanzioni. Ma non solo, la legge crea un nuovo meccanismo di sicurezza per la segnalazione di potenziali incidenti critici. Il lavoro di coordinamento tra l’Ufficio dei servizi di emergenza e il Dipartimento della Tecnologia riuscirà a individuare problemi e risolvere aggiornando di volta in volta la procedura. 

Nonostante queste misure di protezione, la legge vuole garantire anche l’innovazione. Dunque istituisce il CalCompute, consorzio pubblico formato da un team di esperti che implementeranno l’IA tenendo presente i paradigmi di sicurezza, etica, equità e sostenibilità. Il gruppo di ricerca darà disponibilità di un vero e proprio centro di calcolo per ricercatori e per le più grandi università californiane per concentrare gli sforzi e massimizzare i risultati. 

Articolo di T.S.