Sviluppato un metamodello che rivela i deepfake generati dall’Intelligenza Artificiale (IA). Rappresenta un modo per combattere la manipolazione delle immagini, le frodi d’identità e per proteggere tutte le soluzioni che richiedono controlli biometrici dell’identità.
Il metamodello è la risposta alla sfida lanciata da l’Aid francese (Associazione per l’Innovazione della Difesa) in occasione della European Cyber Week, tenutasi dal 19 al 21 novembre in Bretagna.
Dietro a questa invenzione c’è il gruppo di lavoro di CortAIx, l’acceleratore di AI di Thales, che comprende 600 ingegneri e ricercatori specializzati nei sistemi mission-critical, ovvero quelle soluzioni adottate per affrontare particolari situazioni.
Dati e analisi sul pericolo dei deepfake
Gartner, l’azienda americana che si occupa di analisi nel campo della tecnologia dell’informazione, ha stimato che circa il 20% degli attacchi informatici nel 2023 riguardava contenuti deepfake. È la prova di una realtà che gli utenti non sono ancora pronti ad affrontare.
Nonostante siano nati come forma di intrattenimento, i deepfake si sono rapidamente trasformati in armi al soldo di raggiri e artifici contro singole persone, ma anche imprese o addirittura enti governativi. Inoltre, ha contaminato l’informazione e aumentato la diffusione di notizie false.
Il miglioramento delle capacità computazionali dell’intelligenza artificiale ha reso sempre più difficile distinguere eventuali manipolazioni. Negli ultimi anni i deepfake a servizio dei furti d’identità potrebbero causare enormi perdite finanziarie.
Metodi e tecniche del metamodello
Per stabilire l’autenticità delle immagini, il metamodello di Thales utilizza tecniche di apprendimento automatico ed è l’aggregazione di vari modelli che utilizza reti neurali, tra i quali:
- Metodo Clip (Constrastive language-image Pre-training), che collega immagine e testo attraverso l’apprendimento di rappresentazioni comuni.
- Metodo Dnf (Diffusione Nois Feature), che utilizza le attuali architetture di generazione di immagini per rilevare quali siano vere e quali siano false. I modelli di diffusione si basano su una stima della quantità di rumore da aggiungere a un’immagine. Questa stima può essere adoperata a sua volta per rilevare se un’immagine è realizzata o meno dall’intelligenza artificiale.
- Metodo Dcr (Discrete Cosine Transform), che analizza le frequenze spaziali di un’immagine per individuare alterazioni. Ciò accade trasformando un’immagine dal dominio spaziale al dominio di frequenza e rilevando eventuali anomalie nella struttura dell’immagine, che si verificano quando vengono generati deepfake.
Articolo di D.C.G.