IA, deepfake: si lavora al metamodello che li rivela 

Sviluppato un metamodello che rivela i deepfake generati dall’Intelligenza Artificiale (IA). Rappresenta un modo per combattere la manipolazione delle immagini, le frodi d’identità e per proteggere tutte le soluzioni che richiedono controlli biometrici dell’identità.

Il metamodello è la risposta alla sfida lanciata da l’Aid francese (Associazione per l’Innovazione della Difesa) in occasione della European Cyber Week, tenutasi dal 19 al 21 novembre in Bretagna.

Dietro a questa invenzione c’è il gruppo di lavoro di CortAIx, l’acceleratore di AI di Thales, che comprende 600 ingegneri e ricercatori specializzati nei sistemi mission-critical, ovvero quelle soluzioni adottate per affrontare particolari situazioni. 

Dati e analisi sul pericolo dei deepfake

Gartner, l’azienda americana che si occupa di analisi nel campo della tecnologia dell’informazione, ha stimato che circa il 20% degli attacchi informatici nel 2023 riguardava contenuti deepfake. È la prova di una realtà che gli utenti non sono ancora pronti ad affrontare.

Nonostante siano nati come forma di intrattenimento, i deepfake si sono rapidamente trasformati in armi al soldo di raggiri e artifici contro singole persone, ma anche imprese o addirittura enti governativi. Inoltre, ha contaminato l’informazione e aumentato la diffusione di notizie false

Il miglioramento delle capacità computazionali dell’intelligenza artificiale ha reso sempre più difficile distinguere eventuali manipolazioni. Negli ultimi anni i deepfake a servizio dei furti d’identità potrebbero causare enormi perdite finanziarie

Metodi e tecniche del metamodello

Per stabilire l’autenticità delle immagini, il metamodello di Thales utilizza tecniche di apprendimento automatico ed è l’aggregazione di vari modelli che utilizza reti neurali, tra i quali: 

  • Metodo Clip (Constrastive language-image Pre-training), che collega immagine e testo attraverso l’apprendimento di rappresentazioni comuni. 
  • Metodo Dnf (Diffusione Nois Feature), che utilizza le attuali architetture di generazione di immagini per rilevare quali siano vere e quali siano false. I modelli di diffusione si basano su una stima della quantità di rumore da aggiungere a un’immagine. Questa stima può essere adoperata a sua volta per rilevare se un’immagine è realizzata o meno dall’intelligenza artificiale.
  • Metodo Dcr (Discrete Cosine Transform), che analizza le frequenze spaziali di un’immagine per individuare alterazioni. Ciò accade trasformando un’immagine dal dominio spaziale al dominio di frequenza e rilevando eventuali anomalie nella struttura dell’immagine, che si verificano quando vengono generati deepfake.

Articolo di D.C.G.