Twitter ha proposto delle nuove regole per avvisare gli utenti che si imbattono in contenuti manipolati.
Con un post ufficiale, Twitter ha annunciato che sta lavorando a una “nuova policy per indicare i contenuti video manipolati“.
I “deepfake”, video falsi che vengono però resi indistinguibili dagli originali grazie all’utilizzo dell’intelligenza artificiale, sono considerati un vero e proprio pericolo se utilizzati, ad esempio, per diffondere false informazioni su personaggi politici, o comunque su fatti che riguardino temi politici, nell’approssimarsi di una tornata elettorale.
We’re always updating our rules based on how online behaviors change. We're working on a new policy to address synthetic and manipulated media on Twitter – but first we want to hear from you.
— Twitter Safety (@TwitterSafety) October 21, 2019
Le nuove regole che sono state proposte dal social Twitter, il quale ha lasciato fino al 27 novembre la possibilità ai propri utenti di esprimere un loro parere in merito, prevedono che lo stesso social inserisca una nota ai tweet che contengono video rivelatisi deepfake per avvertire gli utenti prima che li condividano.
Why are we doing this?
1️⃣We need to consider how synthetic media is shared on Twitter in potentially damaging contexts.
2️⃣We want to listen and consider your perspectives in our policy development process.
3️⃣We want to be transparent about our approach and values.— Twitter Safety (@TwitterSafety) October 21, 2019
I video falsi verrebbero rimossi solamente se considerati una minaccia per l’incolumità fisica di qualcuno o se capaci di arrecare “gravi danni”.
“Se si rivolge a Twitter per capire cosa succede nel mondo – si legge nel post – vogliamo che l’utente abbia un’idea del contesto del contenuto che sta vedendo. Tentativi deliberati di fuorviare o confondere le persone con media manipolati mettono a rischio l’integrità della conversazione“.