Pochi giorni fa Meta ha rilasciato ChatGpt-3 (chat Generative Pretrained Transformer), un software di intelligenza artificiale che, tra le altre cose, è in grado di scrivere articoli giornalistici.
È uno strumento di elaborazione del linguaggio artificiale che usa algoritmi di apprendimento per generare risposte simili a quelle umane.
Una versione successiva sarà disponibile il prossimo anno e si prevede essere 500 volte più potente.
Di fronte ai nuovi sviluppi in questo campo, l’Europa sta cercando di individuare delle linee guida adatte per evitare un uso arbitrario di tali sistemi.
Artificial Intelligence Act
La Commissione europea dovrà, infatti, prendere delle decisioni importanti, che avranno ripercussioni sul resto del mondo, all’interno dell’Artificial Intelligence Act.
Quest’ultimo è una proposta di regolamento che intende introdurre un quadro normativo e giuridico comune, che riguardi i fornitori di sistemi ad alto rischio e chi le utilizzano a livello professionale.
I software ad alto rischio individuati possono procurare danni fisici o psicologici agli utenti. Questi quindi non vengono vietati dal principio ma sottoposti a speciali norme che tutelano gli utenti più vulnerabili.
Tali scelte sono estremamente delicate e devono raggiungere un equilibrio tra il bisogno di protezione delle libertà individuali e la necessità di sviluppo delle aziende.
Una regolamentazione troppo debole, infatti, potrebbe lasciare troppe libertà ai nuovi sistemi, mentre leggi troppo stringenti potrebbero impedire un’evoluzione significativa in questo campo.
Negli ultimi anni i governi hanno utilizzato le IA per gestire questioni complesse quali l’evasione fiscale, la gestione della sanità, dell’occupazione delle città, con notevoli guadagni.
Allo stesso tempo però i passi in avanti in questo campo sono velocissimi e la possibilità di manipolazion da parte dei governi stessi deve essere vietata.
Il testo completo della nuova normativa potrebbe comunque non essere pronto prima dell’estate 2023.
Articolo di L.L.