Nuova “policy” di Twitter: indicherà i “deepfake”, senza però eliminarli

Twitter ha proposto delle nuove regole per avvisare gli utenti che si imbattono in contenuti manipolati.

Con un post ufficiale, Twitter ha annunciato che sta lavorando a una “nuova policy per indicare i contenuti video manipolati“.

I “deepfake”, video falsi che vengono però resi indistinguibili dagli originali grazie all’utilizzo dell’intelligenza artificiale, sono considerati un vero e proprio pericolo se utilizzati, ad esempio, per diffondere false informazioni su personaggi politici, o comunque su fatti che riguardino temi politici, nell’approssimarsi di una tornata elettorale.

Le nuove regole che sono state proposte dal social Twitter, il quale ha lasciato fino al 27 novembre la possibilità ai propri utenti di esprimere un loro parere in merito, prevedono che lo stesso social inserisca una nota ai tweet che contengono video rivelatisi deepfake per avvertire gli utenti prima che li condividano.

I video falsi verrebbero rimossi solamente se considerati una minaccia per l’incolumità fisica di qualcuno o se capaci di arrecare “gravi danni”.

Se si rivolge a Twitter per capire cosa succede nel mondo – si legge nel post – vogliamo che l’utente abbia un’idea del contesto del contenuto che sta vedendo. Tentativi deliberati di fuorviare o confondere le persone con media manipolati mettono a rischio l’integrità della conversazione“.