Il Sottosegretario all’Informazione e l’Editoria, Alberto Barachini, a Milano per un incontro con gli studenti del Liceo Parini, si è soffermato, tra le altre cose, su alcune problematiche poste dal rapido sviluppo dell’Intelligenza Artificiale (IA) applicata alla produzione di contenuti.
“Non voglio demonizzare nulla, l’intelligenza artificiale è uno strumento potentissimo che migliorerà le nostre vite”, questa la condivisibile premessa. “Pensate alla scienza e alla fisica, ad esempio. Può semplificare un calcolo matematico o una ricerca biologica. Stiamo cercando di capire le applicazioni positive e negative”.
Ma applicata nel campo della produzione di contenuti per Barachini può generare qualche interrogativo.
Insegnare all’IA le regole del nostro mondo
“Non è pensata per tutelare le fonti o la provenienza delle informazioni. L’ambizione sarebbe quella di insegnare all’Intelligenza alcune regole per tutelare norme e comportamenti che fanno parte del nostro mondo”.
Queste regole, ha spiegato più tardi nel discorso, non sono delle limitazioni ma modi di gestirne alcuni processi. “Noi dobbiamo ragionare su qual è l’elemento umano che dobbiamo accompagnare al processo tecnologico. Chi ha la responsabilità politica e istituzionale deve avere questa visione e lavorare al suo sviluppo”.
Niente censura, solo regolamentazione
Non si tratta di censurare, ma di regolamentare sulla base di principi che disciplinano il settore.
Attenzione massima deve essere riservata ai rischi di un’informazione di parte, per esempio sulla guerra in Ucraina.
Tutto pienamente condivisibile, considerando anche il fatto che il richiamo alle regole del settore e ai rischi dell’informazione “di parte” vale per ogni soggetto che produce contenuti, umano o non umano.
Il fatto poi che l’IA assembli e che non abbia intuito e che “bisogna evitare che comprima gli spazi della nostra capacità di uscire dagli schemi”, vale come ulteriore conferma di un dato che non viene mai abbastanza ripetuto: l’uomo è una cosa e l’IA è un’altra cosa.
Perché mai uno strumento tecnologico dovrebbe comprimere la nostra capacità di essere unici?
Siamo sicuri che questo sia il modo giusto di pensare?