Le 21e siècle sera celui de la… désinformation.
Malraux n’a pas eu le temps de la voir venir, la Révolution numérique et ses avatars que sont les réseaux sociaux.

La désinformation n’est plus seulement une nuisance isolée dans les recoins du web : elle est devenue un enjeu central du débat public européen. Des récits mensongers sur la guerre en Ukraine aux fausses informations climatiques ou sanitaires, les campagnes de manipulation fragilisent la confiance des citoyens, alimentent la polarisation et menacent la cohésion démocratique. Face à cette réalité, l’Union européenne a renforcé son cadre législatif avec le Digital Services Act et son Code de conduite sur la désinformation, qui oblige les très grandes plateformes en ligne à démontrer qu’elles réduisent effectivement ces risques systémiques.
Mais un obstacle majeur subsistait : comment savoir si ces promesses se traduisent en actes ? Les plateformes communiquaient des données fragmentaires, non comparables et impossibles à vérifier, tandis que les tentatives d’audit indépendant restaient limitées par le manque d’accès aux informations. Dans ce contexte de désengagement partiel de certaines plateformes vis-à-vis du Code de conduite sur la désinformation, la question devenait urgente : qui pouvait fournir des mesures crédibles, robustes et indépendantes ?
C’est à cette exigence que répond aujourd’hui le projet Simods, dirigé par Science Feedback avec plusieurs partenaires européens. En publiant le 29 septembre dernier, les premières données paneuropéennes et scientifiquement vérifiées sur la désinformation circulant sur six grandes plateformes, Simods offre aux régulateurs, aux chercheurs et à la société civile un outil inédit pour évaluer objectivement l’état de l’information en ligne.
L’un des résultats les plus frappants concerne TikTok : près de 20 % des publications sur des sujets d’intérêt public contiennent des informations fausses ou trompeuses. Cela signifie qu’un utilisateur de TikTok est dix fois plus exposé à des contenus mensongers qu’un utilisateur de LinkedIn (2 %). Si l’on ajoute les contenus abusifs (discours de haine, attaques ciblées...) et les contenus dits « borderline » (qui reprennent des narratifs de désinformation sans contenir d’erreurs vérifiables), la situation devient encore plus préoccupante : TikTok atteint un taux de 34 % ; X/Twitter suit de près avec 32 %.
Autre constat majeur : sur les plateformes, les comptes diffusant de la désinformation bénéficient d’un premium de visibilité. Pour un même nombre d’abonnés, leurs publications obtiennent plus de vues et plus d’interactions que celles des comptes diffusant des informations fiables. Ce biais structurel signifie que les algorithmes de recommandation amplifient davantage les contenus trompeurs, augmentant leur potentiel d’influence sur le débat public.

- Emmanuel Vincent -
Derrière le projet Simods se trouve Science Feedback, une association indépendante française à but non lucratif, qui s’est imposée comme un acteur international de référence dans l’évaluation de l’information scientifique et la lutte contre la désinformation. Fondée par Emmanuel Vincent, docteur en sciences du climat, Science Feedback applique à l’information les principes de la recherche scientifique : transparence, vérifiabilité et rigueur méthodologique. L’organisation s’appuie sur un réseau de chercheurs et de fact-checkers expérimentés pour analyser la qualité des contenus les plus influents en ligne. Sa mission est simple mais essentielle : garantir que les débats publics s’appuient sur des faits établis et non sur des récits trompeurs. CQFD !