L’ÈRE DU « POST-FACT-CHECKING » : COMMENT META ET X / TWITTER REDESSINENT LA MODÉRATION DE CONTENU ?

Illustration représentant la modération de contenu sur les réseaux sociaux Meta et X/Twitter à l'ère du post-fact-checking
10 January 2025

La fin du fact-checking chez Meta et la refonte de l’algorithme de Twitter (rebaptisé « X ») ont récemment provoqué une onde de choc internationale. Alors que les réseaux sociaux façonnent largement l’opinion publique, ces décisions suscitent de vives inquiétudes quant à la prolifération de fausses informations et à leurs conséquences sur la vitalité démocratique.

META AUX ÉTATS-UNIS : UNE TRANSITION CONTROVERSÉE VERS UNE MODÉRATION COMMUNAUTAIRE


Au cœur de ce bouleversement se trouve d’abord Meta, qui met un terme à son programme de vérification des faits aux États-Unis pour s’inspirer du système « Community Notes » de X/Twitter. Bien qu’annoncée comme une avancée en matière de liberté d’expression, cette transition soulève des questions fondamentales sur la capacité d’une modération communautaire à contenir la désinformation à grande échelle, là où Meta rémunère jusqu’à présent 80 médias de fact-checking dans 26 langues afin de vérifier l’information. On peut légitimement craindre que des groupes organisés ne détournent cet outil de signalement pour propager des contenus mensongers, créant ainsi des « bulles d’information » artificielles. Mark Zuckerberg s’est quant à lui justifié en affirmant que les vérificateurs étaient devenus “trop orientés politiquement”. 

En parallèle, Twitter/X s’engage dans une réinvention complète de sa logique de recommandation, misant dorénavant sur des contenus dits « informationnels/divertissants ». Selon plusieurs observateurs, cette approche favorise les publications les plus virales, sensationnalistes, au détriment de l’information vérifiée. L’enjeu est d’autant plus brûlant que la plateforme a déjà suscité la controverse en réactivant des comptes bannis pour diffusion de discours haineux ou de fake news. Dans ce climat, la quête de l’engagement maximal pourrait saper les garde-fous de l’espace public numérique.

S’ajoutent à cela des rumeurs insistantes faisant état de pressions politiques exercées par des figures influentes comme Donald Trump pour assouplir les règles de modération. Au Royaume-Uni, des activistes dénoncent même l’intervention de personnalités telles qu’Andrew Tate, soupçonnées de manœuvrer en coulisses pour manipuler l’opposition. Ce contexte explosif accentue la méfiance du public et fait planer la menace d’un internet devenu « champ de bataille » où la moindre faille dans les processus de contrôle de l’information peut être exploitée à des fins de déstabilisation.

QUELS GARDE-FOUS POUR PROTÉGER LA DÉMOCRATIE FACE AUX FAKE NEWS ?


Face à ces défis, plusieurs pistes de solutions émergent. D’un côté, le secteur public envisage des réglementations plus strictes, à l’image du Digital Services Act européen, pour forcer les plateformes à déployer davantage de transparence sur leurs algorithmes. De l’autre, la coopération accrue entre organismes de fact-checking, institutions publiques et sociétés privées se profile comme un levier essentiel pour maintenir un écosystème informationnel de qualité. Enfin, l’éducation aux médias numériques et la sensibilisation du grand public à la détection de la désinformation s’imposent comme des priorités absolues si l’on veut renforcer la résilience citoyenne.

LA BATAILLE POUR LA FIABILITÉ DE L'INFORMATION EN LIGNE : UN ENJEU MAJEUR FACE À LA DÉSINFORMATION


Qu’il s’agisse de Meta ou de Twitter/X, la bataille pour la fiabilité de l’information en ligne est loin d’être terminée. Les récents changements de stratégie de ces deux géants du web constituent un signal d’alarme : sans garde-fous robustes ni collaboration de tous les acteurs — utilisateurs compris — nous pourrions assister à une escalade de la désinformation qui ébranlerait en profondeur nos sociétés connectées. Comme le rappellent les travaux d’Allcott et Gentzkow (2017), ou encore ceux de Vosoughi, Roy et Aral (2018), les fake news se propagent 6 fois plus vite que les vraies informations sur Twitter/X. Dans le même sens, la loi de Brandolini, autrement appelée “asymétrie des baratins”, démontre que la quantité d'énergie nécessaire pour réfuter des “sottises” est supérieure d'un ordre de grandeur à celle nécessaire pour les produire. En somme, si Meta et X souhaitaient favoriser les acteurs de déstabilisation, ils ne s’y prendraient pas autrement. Et un très hypothétique et chimérique Traité de non-prolifération de fake-news semble encore loin… 

Dans ce paysage numérique en recomposition, la vigilance et l’innovation restent nos meilleures lignes de défense.


SOURCES

  • Allcott, H. & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives.

  • Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science.
  • Digital Services Act (2022). Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022.
  • Données issues de rapports d’ONG spécialisées en cybersécurité (e.g., Graphika, Citizen Lab).
  • Articles de presse et investigations publiés par des médias reconnus (The Guardian, The New York Times, Wired).


DERNIERS ARTICLES