Per evitare di influenzare eccessivamente l’opinione pubblica e salvaguardare quindi “la capacità delle persone di trovare e interagire con contenuti politici” lo scorso febbraio Facebook aveva annunciato l’esperimento con cui avrebbe ridotto la quantità di contenuti politici mostrati a un sottoinsieme di utenti in alcuni Paesi.
Lo step successivo sarebbe stato quello di chiedere alle persone coinvolte cosa ne pensavano dell’esperienza. I risultati di questa analisi sono stati pubblicati dal social: gli utenti hanno apprezzato la minore presenza di contenuti politici nei loro feed, per questo Facebook intende ripetere l’esperimento in altri paesi (Costa Rica, Svezia, Spagna e Irlanda).
I più critici osservatori avevano già commentato come la mossa arrivasse proprio un mese dopo che i sostenitori di Donald Trump avevano preso d’assalto il Campidoglio degli Stati Uniti a cui erano seguite dure polemiche contro Facebook accusata di aver dato spazio alle incitazioni dell’ex presidente ai suoi seguaci.
In particolare, il sito di Wired USA che ha pubblicato la notizia commenta: “Depoliticizzare i feed degli utenti del social network costituisce il naturale riflesso per un’azienda che è perennemente nei guai per il suo presunto impatto sulla politica”.
Le conseguenze del cambiamento di rotta
La novità impatterà sicuramente sui gruppi politici e le organizzazioni dei media abituati a fare affidamento su Facebook per la distribuzione di informazioni, commenti, notizie.
Ma c’è un problema a cui Facebook sembrerebbe accennare vagamente nel suo report: i contenuti proposti sul social vengono strutturati e proposti agli utenti dall’Intelligenza Artificiale, da un feed, in particolare. Quindi Facebook “impara da solo”, attraverso le interazioni sulla piattaforma.
“Abbiamo anche appreso che alcuni segnali di coinvolgimento possono indicare meglio quali post le persone trovano più preziosi di altri”, scrive Aastha Gupta, Product Management Director di FB. “Sulla base di questo feedback, stiamo gradualmente espandendo alcuni test per porre meno enfasi su segnali come la probabilità che qualcuno commenti o condivida contenuti politici”. Quindi, per il social non è detto che ciò con cui le persone interagiscono sia davvero ciò che le persone apprezzano.
Gupta ha anche sottolineato: “Abbiamo appreso che questi cambiamenti avranno un ampio impatto sia sui contenuti degli utenti che sul traffico degli editori. Stiamo pianificando un’implementazione graduale e metodica per questi test e prevediamo di annunciare ulteriori espansioni nei prossimi mesi”.