Web e Innovazione

IA, deepfake: si lavora al metamodello che li rivela

Sviluppato un metamodello che rivela i deepfake generati dall’Intelligenza Artificiale (IA). Rappresenta un modo per combattere la manipolazione delle immagini, le frodi d’identità e per proteggere tutte le soluzioni che richiedono controlli biometrici dell’identità.

Il metamodello è la risposta alla sfida lanciata da l’Aid francese (Associazione per l’Innovazione della Difesa) in occasione della European Cyber Week, tenutasi dal 19 al 21 novembre in Bretagna.

Dietro a questa invenzione c’è il gruppo di lavoro di CortAIx, l’acceleratore di AI di Thales, che comprende 600 ingegneri e ricercatori specializzati nei sistemi mission-critical, ovvero quelle soluzioni adottate per affrontare particolari situazioni. 

Dati e analisi sul pericolo dei deepfake

Gartner, l’azienda americana che si occupa di analisi nel campo della tecnologia dell’informazione, ha stimato che circa il 20% degli attacchi informatici nel 2023 riguardava contenuti deepfake. È la prova di una realtà che gli utenti non sono ancora pronti ad affrontare.

Nonostante siano nati come forma di intrattenimento, i deepfake si sono rapidamente trasformati in armi al soldo di raggiri e artifici contro singole persone, ma anche imprese o addirittura enti governativi. Inoltre, ha contaminato l’informazione e aumentato la diffusione di notizie false

Il miglioramento delle capacità computazionali dell’intelligenza artificiale ha reso sempre più difficile distinguere eventuali manipolazioni. Negli ultimi anni i deepfake a servizio dei furti d’identità potrebbero causare enormi perdite finanziarie

Metodi e tecniche del metamodello

Per stabilire l’autenticità delle immagini, il metamodello di Thales utilizza tecniche di apprendimento automatico ed è l’aggregazione di vari modelli che utilizza reti neurali, tra i quali: 

  • Metodo Clip (Constrastive language-image Pre-training), che collega immagine e testo attraverso l’apprendimento di rappresentazioni comuni.
  • Metodo Dnf (Diffusione Nois Feature), che utilizza le attuali architetture di generazione di immagini per rilevare quali siano vere e quali siano false. I modelli di diffusione si basano su una stima della quantità di rumore da aggiungere a un’immagine. Questa stima può essere adoperata a sua volta per rilevare se un’immagine è realizzata o meno dall’intelligenza artificiale.
  • Metodo Dcr (Discrete Cosine Transform), che analizza le frequenze spaziali di un’immagine per individuare alterazioni. Ciò accade trasformando un’immagine dal dominio spaziale al dominio di frequenza e rilevando eventuali anomalie nella struttura dell’immagine, che si verificano quando vengono generati deepfake.

Articolo di D.C.G.

uspi

Recent Posts

Tendercapital-Luiss, servono nuove soluzioni abitative per gli anziani

ROMA (ITALPRESS) - E' stata presentata al Senato la ricerca "Silver housing innovativo. La necessità…

27 Novembre 2024

Al via la V edizione della Scuola Politica “Vivere nella Comunità”

ROMA (ITALPRESS) - Al via la quinta edizione del ciclo di studi promosso dalla Scuola…

27 Novembre 2024

Inter di misura sul Lipsia, primo posto in classifica

MILANO (ITALPRESS) - Vittoria non semplice per l'Inter, che batte per 1-0 il Lipsia e…

27 Novembre 2024

Innovazione per malattie neurologiche e psichiatriche 10% carico globale

ROMA (ITALPRESS) - "Siamo in viaggio verso una società più consapevole dei pericoli, attenta alla…

26 Novembre 2024

Medio Oriente, Netanyahu annuncia la tregua in Libano

ROMA (ITALPRESS) - Il premier israeliano Benjamin Netanyahu ha annunciato l'avvio della tregua sul fronte…

26 Novembre 2024

Italiano “Pronti per uno storico successo in Champions”

BOLOGNA (ITALPRESS) - "Crediamo, e ne abbiamo parlato tantissimo, alla possibilità di riempire questa casella…

26 Novembre 2024