L’IA nel futuro dell’editoria, intervista al Prof. Corasaniti

Per fare il punto sull’Intelligenza Artificiale, abbiamo intervistato il Prof. Avv. Giuseppe Corasaniti, direttore della Scuola Nazionale di Alta formazione in Amministrazione Digitale dell’Università Unitelma Sapienza, studioso tra i più esperti di problemi giuridici della comunicazione e dell’informatica.

Cosa pensa della strategia europea e quale contributo potrà dare l’Italia con il Programma Strategico per l’Intelligenza Artificiale” per il triennio 2022-2024?

Nel 2020 è stato redatto un documento a cura del Ministero dello Sviluppo economico – e frutto del lavoro di esperti in un contesto interdisciplinare – che ha definito le linee guida italiane per promuovere lo sviluppo dell’Intelligenza Artificiale.

In pratica, la strategia italiana si divide in tre parti progettuali: la prima parte è dedicata all’analisi del mercato globale, europeo e nazionale dell’Intelligenza Artificiale. La seconda affronta gli elementi fondamentali della strategia, mentre la terza approfondisce la governance proposta per l’IA italiana e propone alcune raccomandazioni di massima per l’implementazione, il monitoraggio e la comunicazione della strategia nazionale, con una visione asseritamente antropocentrica e orientata verso lo sviluppo sostenibile. Tra queste proposte, in particolare, va evidenziata l’esigenza di costituire una vera e propria cabina di regia presso l’Agid, dando adeguato spazio alla formazione pubblica e privata in materia.

Quali iniziative, attività e risultati significativi sono stati raggiunti nel mondo con l’applicazione dell’IA?

In realtà, al di là delle petizioni di principio, sono stati raggiunti ben pochi risultati significativi sul piano dell’amministrazione pubblica. Sono i servizi pubblici nazionali e locali che possono e debbono svolgere un ruolo fondamentale, proprio perché sono i soggetti che producono i “dataset” cioè i big data sui quali ogni forma di Intelligenza Artificiale si fonda. È facile scrivere un bel libro dei sogni, difficile è invece coordinare i dati, definire ruoli, elaborare dati e soprattutto sincronizzare dati tra pubblico e privato in modo tale che sia sempre presente alle istituzioni il quadro nel quale operano, e sia sempre presente ai privati il tipo di sviluppo “sostenibile” nel territorio o di una certa attività.

Ci siamo innamorati dell’Intelligenza Artificiale in generale, spesso tralasciando l’esigenza di individuare aree e settori ben definiti che invece sono proprio il terreno fondamentale entro il quale si dovrebbe operare. Un esempio? Basta guardare la qualità dei dataset degli Stati Uniti e di quelli italiani. Senza una quantità e una qualità dei dati trattati ogni sforzo e ogni studio è destinato a trasformarsi in un’illusione digitale. C’è molto lavoro ancora da fare nell’ambito dell’Università e della ricerca e si tratta di uno spazio immenso anche alla luce del Piano Nazionale di Rinascita e Resilienza. Proprio per questo, amministrazioni nazionali, locali enti di ricerca e soprattutto organizzazioni private di interessi collettivi devono interagire in modo consapevole e partecipato.

 Ad oggi, quali sono i principi giuridici nazionali e europei che regolano l’IA?

Fortunatamente, l’Europa si muove con una visione più ampia: non si tratta di essere pro o contro l’Intelligenza Artificiale e le tecniche di Machine learning ma di creare un ambiente nel quale lo sviluppo delle tecnologie di I.A. e la loro governance sia rispettosa dei diritti umani, e soprattutto tenda a integrare e non a emarginare.

In Europa coesistono regolamentazioni diverse, in primo luogo a tutela dei dati personali: fra tutti, il GDPR, il regolamento europeo, all’art. 22 fissa alcuni principi di fondo in materia di trattamento automatizzato (e consapevole) di dati personali da parte degli algoritmi, che non sono dei “soggetti” ma dei programmi che eseguono delle istruzioni e reagiscono automaticamente in presenza di certe condizioni di dati. È la base dell’informatica moderna. Senza capire l’informatica a fondo non si comprende neppure cosa sia davvero l’Intelligenza Artificiale, che senza informatica non ha senso alcuno e diventa un totem, buono solo per deresponsabilizzare chi deve assumersi la responsabilità di una scelta in ambito privato e pubblico.

La Commissione europea ha appunto sottolineato nel 2021 l’esigenza di definire degli standard comuni nel processo di elaborazione dei dati da parte dei sistemi di Intelligenza Artificiale, in particolare, evidenziando come l’avanzamento tecnologico abbia portato tali sistemi ad evolversi molto rapidamente, apportando numerosi benefici sia economici, sia sociali nel panorama industriale e nelle attività sociali. L’uso dell’Intelligenza Artificiale – si dice in questa prospettiva- può fornire vantaggi competitivi chiave alle aziende e supportare il raggiungimento di risultati socialmente e ambientalmente vantaggiosi, ad esempio nel settore sanitario, agricolo, educativo, della gestione delle infrastrutture, dell’energia, dei trasporti e della logistica, dei servizi pubblici, della sicurezza e della mitigazione e adattamento ai cambiamenti climatici. Proprio per questo, si raccomanda l’adozione di un quadro europeo comune.

Nella prospettiva europea, solo la definizione di standard minimi di qualità e sicurezza dei sistemi potranno migliorare il funzionamento del mercato interno, creando le condizioni per lo sviluppo di un vero e proprio “ecosistema” di fiducia che copra l’intero processo di produzione, commercializzazione, vendita e utilizzo dell’Intelligenza Artificiale all’interno dell’Unione. Da questo ne consegue che a Bruxelles sia attualmente in studio una bozza di regolamento europeo, che individua soglie di rischio e garanzie per il trattamento delle basi dati su cui si fondano i sistemi di Intelligenza Artificiale, individuando, secondo schemi molto simili alla regolamentazione dei dati personali, forme di tutela a fronte di situazioni di rischio.

Anche negli Stati Uniti e persino in Russia e in Cina, il dibattito appare intenso, non solo per la tutela dei diritti umani ma soprattutto per ciò che attiene alla sicurezza dei sistemi nella capacità di intraprendere scelte autonome in base a un determinato scenario, soprattutto in contesti come quello lavorativo, sanitario o persino in un quadro di armi “automatiche”, che cambiano totalmente l’approccio regolamentare classico e richiedono regole forti come appunto quelle che si stanno preparando in Europa.

Forse però, bisognerebbe parlare di “intelligenze” artificiali perché non si tratta di un sistema unico ma di una serie complessa di dati che si aggregano e si elaborano automaticamente con effetti e con conseguenze diverse settore per settore. Per la prima volta nella storia disponiamo di una base dati immensa che raccoglie circa venti anni di dati per lo più condivisi in rete, ma vorrei precisare che la qualità delle decisioni non riguarda solo i sistemi informatici ma gli uomini che dovrebbero governarli, governarli saggiamente e soprattutto umanamente.

È bene ricordare le perplessità che un genio come Stephen Hawking ha sempre manifestato, e non ha avuto timore di affermare nei suoi ultimi anni di vita (egli viveva attraverso un sistema di Intelligenza Artificiale e si esprimeva attraverso un evoluto sistema di conversione costruito per fargli superare lo stato patologico in cui versava) e cioè che l’abuso della Intelligenza Artificiale può essere un fattore di distruzione della civiltà per come la conosciamo – “A Civilization Destroyer”. Bisognerebbe rappresentarlo spesso ai tanti e troppi cantori dell’algoritmo, che poi spesso un algoritmo non sanno davvero neppure cosa sia.

Come vede lo sviluppo e l’utilizzo dell’IA nel settore dell’informazione?

L’Intelligenza Artificiale esiste e ci circonda in rete, e attraverso le applicazioni che condividiamo su computer e smartphone ci traccia e non ci lascia soli in caso d’emergenza, ci indica la strada giusta (e qualche volta pure quella sbagliata), sostituendo ormai le carte per orientarci, ci dice che tempo farà e come scrivere qualcosa al meglio, ci ricorda formule e correzioni e spesso si sostituisce pure a noi, ma non sempre nel modo più corretto.

Una supervisione umana è fondamentale, tanto più nel settore dell’informazione dove esistono forme di aggregazione di notizie e di elaborazione di contenuti testuali, le quali potrebbero -non solo teoricamente – sostituire le forme tipiche di redazione giornalistica e autoriale, e persino veicolare messaggi di tendenza producendoli di proposito (magari inventandoli) per noi che vogliamo novità sullo sport, sulla cucina, sulla politica. È fondamentale che i contenuti generati automaticamente siano chiaramente riconoscibili e non confusi con contenuti generati in modo tradizionale. La differenza sta tutta nella responsabilità.

Il rischio è il progredire di profilazioni massive capaci di orientare l’opinione pubblica nelle differenti piattaforme social, che sempre di più vanno a sostituirsi con le fonti informative classiche. Siamo disorientati e male informati perché non abbiamo mai tempo per scegliere o approfondire e il rischio per la civiltà a livello globale è notevole, tanto più in un quadro che non contiene garanzie precise. Sistemi automatici di informazione possono essere programmati per fare crollare un titolo in borsa, per generare fake news e odio sociale, per emarginare così come per affermare una opinione inconsistente (si pensi alle tante bufale in tempi di pandemia) e magari inesistente portandola a diffondersi e a manifestarsi in modo incontrollato, esattamente come un virus informativo.

Sono le chat box ormai a governare la rete: otteniamo pubblicità e consigli per gli acquisti in modo mirato, apparentemente è piacevole ma la realtà è che tutto questo è terribilmente costruito sui nostri gusti, sulle nostre abitudini, sul nostro modo di essere e di relazionarci online…  Ma questo è davvero quello che noi siamo? La nostra identità virtuale corrisponde davvero a quello che sentiamo di essere? E soprattutto potremo aver ancora il diritto di manifestare le nostre opinioni liberamente e di non essere schiacciati nella nostra specificità dai sondaggi di mercato, che annullano ogni esperienza umana che non abbia una dimensione massiva?

Solo Papa Francesco, in un recente discorso pubblico, ha detto con forza che occorre contrastare una cultura di mercificazione dell’uomo. “L’epoca digitale cambia la percezione dello spazio, del tempo e del corpo” mentre “L’omologazione si afferma come criterio prevalente di aggregazione”, cosicché “Riconoscere e apprezzare la differenza diventa sempre più difficile”. A livello socio-economico, ha sottolineato il Papa, emerge appunto il profilo di “utenti spesso ridotti a ‘consumatori’, asserviti a interessi privati concentrati nelle mani di pochi”.  Dalle tracce digitali disseminate in internet, gli algoritmi estraggono -solo- dati che consentono di controllare abitudini mentali e relazionali, per fini commerciali o politici, spesso a nostra insaputa.

Questa asimmetria, per cui alcuni pochi sanno tutto di noi, mentre noi non sappiamo nulla su di loro, intorpidisce il pensiero critico e l’esercizio consapevole della libertà. Le disuguaglianze si amplificano a dismisura, la conoscenza e la ricchezza si accumulano in poche mani, con gravi rischi per le società democratiche.

Etica degli algoritmi e responsabilità umana sono essenziali, perchè l’essere umano viene prima di ogni funzione e, aggiungerei, di ogni operazione ed esperimento di analisi sociale. La promozione umana è essenziale nella regolazione e il messaggio di Papa Francesco è chiaro ed inequivocabile. Aggiungo poi che è lo stesso messaggio di Steven Hawking, il quale invece affrontava il tema da un punto di vista apertamente laico. Le conclusioni sono le medesime.

In conclusione, secondo lei, dove ci porterà l’IA? Quali scenari e innovazioni vede per il futuro?

Ogni panorama possibile dipende solo da noi. Bisogna essere ottimisti e cominciare a capire le tecnologie per governarle meglio umanamente e socialmente, senza la presunzione di ottenere dalle tecnologie quello che proprio non possono darci: un sapore, una gioia, un’emozione, una sensazione su cui costruire la nostra umana esperienza. La tecnologia non è e non può essere una bolla ma deve essere un modo per manifestare meglio e più a fondo la nostra umanità e la nostra creatività interiore.

Il rischio del post umano è pari al disumano: senza valori umani la civiltà può trasformarsi, dividendo società tra chi è on e chi è off, tra chi è dento e chi è fuori, tra chi sia adegua alla massa e chi invece ne è disperatamente fuori. Ma la nostra storia umana è ultra millenaria e le tecniche di intelligenza artificiale fortunatamente sono molto recenti.

Ricordiamocene sempre: un uomo salva il mondo. Un uomo può sempre salvare il mondo, anche una macchina può aiutare a salvarlo ma non deve essere mai lasciata sola a decidere della vita o della morte di esseri umani, né il danno collaterale sopportabile in caso di azioni di guerra o di polizia, e nemmeno la socialità in ogni ambito, anche privato, così come ogni opportunità di svilupparsi o di non svilupparsi, di avere o no un’occasione individuale o sociale nel chiuso di un codice binario. Le regole e le leggi dell’uomo servono a questo e solo le leggi possono regolare l’azione cosciente degli uomini e quella autonoma e incosciente delle macchine “pensanti” automaticamente.

Vorrei ricordare, infine, che nel 1983 il mondo stava per finire, in un momento di gravissima tensione tra Stati Uniti e Russia (c’era appena stato l’abbattimento di un volo di linea sudcoreano che aveva sorvolata l’Unione sovietica) il sistema di difesa automatico segnalò un possibile lancio di missili dagli Stati Uniti. Bisognava prendere una decisione con urgenza sulla base dei dati disponibili.  Bastava premere un bottone per disporre una reazione immediata. Solo l’intuizione umana dell’ufficiale russo Stanislaw Petrov ha salvato il mondo dalla catastrofe.

In vecchiaia fu intervistato e il giornalista gli chiese, appunto, come volesse essere ricordato. Rispose solo: “l’uomo giusto, al posto giusto, nel momento giusto”. E ho poco da aggiungere per dire ciò di cui abbiamo più bisogno nei prossimi anni. L’esperienza umana può sbagliare ma alla fine vince sempre. Intuito personale ed esperienza fanno sì che ogni errore possibile possa essere previsto, compreso e ridotto, anche con l’aiuto di sistemi automatici, ma mai “solo” con i sistemi automatici. Errare è umano, diabolico è invece delegare ogni scelta a una esperienza invisibile, automatica e potenzialmente irresponsabile.