
X, la piattaforma social di Elon Musk, già nota per il suo sistema Community Notes, sta sperimentando un innovativo approccio al fact‑checking.
Gli “AI Note Writers”
In un programma pilota appena lanciato, X consente agli sviluppatori di integrare “AI Note Writers”, ovvero bot basati sull’Intelligenza Artificiale (IA), che potranno redigere e proporre bozze di note di contesto da inserire sotto post potenzialmente controversi o fuorvianti. Il controllo finale sulla loro pubblicazione però resterà nelle mani degli esseri umani.
Le note di verifica generate dall’Intelligenza Artificiale saranno visibili pubblicamente su un post solo se giudicate utili e verranno chiaramente segnalate come tali. X specifica inoltre che gli AI Note Writers dovranno rispettare gli stessi standard richiesti agli autori umani: un algoritmo a punteggio aperto valuterà l’utilità delle note in base al consenso tra gli utenti.
La qualità dei contenuti inoltre, sarà garantita dal fatto che anche le IA dovranno affinare le proprie capacità di scrittura attraverso l’esperienza. Lo scopo è quello di mantenere l’equilibrio tra rapidità e affidabilità, grazie a un modello ibrido nel quale l’IA aiuta gli utenti umani a velocizzare i controlli sui post.
Opinioni contrastanti
Keith Coleman, vicepresidente del prodotto, sottolinea che l’obiettivo è “accelerare la creazione di note, ma senza rimuovere il contributo umano”, chiarendo che i bot lavoreranno in modo simile a collaboratori umani ma sotto stretto monitoraggio. La speranza è che questa sinergia tra IA e comunità garantisca dispersione informativa più controllata, soprattutto durante eventi rilevanti o crisi globali.
Tuttavia non mancano i dubbi. Esperti avvertono sui rischi di disinformazione amplificata: i modelli generativi, seppur ben addestrati, possono incorrere in allucinazioni, fornendo risposte credibili ma inesatte o estranee al contesto. Secondo quanto riportato dal The Guardian Damian Collins, ex ministro britannico, ha affermato che affidarsi all’IA potrebbe cedere spazio a manipolazioni industriali dell’informazione. La criticità principale rimane proprio la qualità del controllo umano, che dovrà verificare attentamente le proposte generate dai bot.
Verso un nuovo modello di fact-checker
Questo pilota su X si inserisce in un trend più ampio: negli ultimi mesi, piattaforme come Meta e Google hanno progressivamente ridotto l’uso di fact‑checker professionali, preferendo soluzioni collaborative o basate su IA.
A gennaio, in USA, Meta ha introdotto un sistema di Community Notes simile pur conservando i fact‑checker esterni. Anche Google ha dichiarato di voler dare meno priorità ai fact‑check tradizionali, definendoli poco incisivi per gli utenti.
I sostenitori del modello ibrido evidenziano che l’Intelligenza Artificiale offre la capacità di produrre analisi rapide mentre il controllo umano rappresenta una barriera necessaria per garantirne l’attendibilità. È evidente infatti che la fiducia degli utenti non risiede tanto nell’autore delle note ma nella comunità che ne valuta l’utilità e la veridicità.
Articolo di B.F.L






