La disinformazione generata dall’Intelligenza Artificiale (IA), in particolare le immagini deepfake relative alle elezioni, è aumentata del 130% su X.
È ciò che risulta dalla ricerca del Center for Countering Digital Hate (CCDH), un’organizzazione no-profit britannica impegnata nella lotta all’incitamento all’odio online.
Il dato scaturisce dal numero dei commenti della Community Notes di X, dove gli utenti della piattaforma possono fare osservazioni su post falsi e fuorvianti.
Lo studio del CCDH
Il CCDH ha studiato il trend in crescita esaminando i quattro generatori di immagini più popolari: Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI e Image Creator di Microsoft.
Dall’analisi è risultato che gli strumenti dell’IA presi in esame hanno generato immagini fuorvianti nel 41% dei test. Inoltre, i sistemi di IA erano più suscettibili alle richieste di foto che raffigurassero frodi elettorali, come schede elettorali nella spazzatura.
Inoltre, strumenti come ChatGPT Plus e Image Creator sono riusciti a bloccare tutte le richieste di immagini dei candidati alle elezioni che pervenivano da parte degli utenti.
Midjouney, invece, ha avuto i risultati peggiori tra i quattro generatori di immagini presi in esame, perché ha generato immagini fuorvianti nel 65% dei test.
“La possibilità che immagini generate dall’intelligenza artificiale servano come ‘prove fotografiche’ potrebbe esacerbare la diffusione di false affermazioni, ponendo una sfida significativa per preservare l’integrità delle elezioni”, affermano i ricercatori.
Articolo di E.S.