Seconde vague de mesure d’indicateurs structurels de la mésinformation sur les grandes plateformes en Europe

Posté le :

Science Feedback et ses partenaires publient une deuxième mesure des Indicateurs Structurels sur six Très Grandes Plateformes En Ligne dans quatre États membres de l’UE (France, Espagne, Pologne, Slovaquie). Cette deuxième vague, menée en octobre 2025, nous permet pour la première fois de comparer les résultats sur deux périodes de mesure indépendantes, et la cohérence des résultats confirme que nous mesurons des caractéristiques structurelles des plateformes, et non des variations à court terme.

Nous présentons ci-dessous les principaux résultats concernant (1) la prévalence de la désinformation, (2) la « prime à la désinformation », (3) la monétisation, (4) la désinformation générée par IA (nouveau cette vague), et (5) la croissance des audiences (nouveau cette vague).

Pour la méthodologie, l’ensemble des figures et les résultats par pays, téléchargez le rapport complet.

Ce rapport est publié dans le cadre du projet SIMODS, dirigé par Science Feedback en partenariat avec l’Universitat Oberta de Catalunya, Check First, Newtral, Demagog SK et Pravda.

Résultats clés

  • Prévalence : TikTok continue d’afficher la prévalence de mésinformation la plus élevée (~25 % des publications pondérées par l’exposition), en hausse par rapport aux ~20 % de la première mesure. YouTube a également enregistré une hausse notable, passant de ~8,5 % à ~12 %. Trois plateformes (TikTok, X/Twitter et YouTube) contiennent désormais plus de contenus problématiques que de contenus crédibles dans nos échantillons.
  • Prime à la désinformation : L’avantage en termes d’interactions des comptes peu fiables sur les comptes crédibles a persisté ou s’est aggravé sur la plupart des plateformes. Sur X/Twitter, il est passé de ~4× à ~10×, et sur YouTube de ~8,5× à ~11×. LinkedIn reste la seule exception où aucune prime significative n’est observée.
  • Monétisation : L’opacité des plateformes reste la règle. Là où les données permettaient une inférence partielle (YouTube et Facebook), une proportion élevée de comptes peu fiables éligibles semblent monétisés (81 % sur YouTube et 22 % sur Facebook), ce qui indique que les politiques de démonétisation ne fonctionnent pas comme prévu.
  • Désinformation générée par IA : Un post de mésinformation sur quatre sur TikTok (24 %) et près d’un sur cinq sur YouTube (19 %) contient du contenu généré par IA. Plus de 83 % de ces contenus ne portent aucun label. La mésinformation en matière de santé domine sur les deux plateformes.
  • Croissance des audiences : Sur la plupart des plateformes, aucune différence significative dans la croissance du nombre d’abonnés n’a été observée entre les comptes de haute et de faible crédibilité. X/Twitter fait exception : les comptes peu fiables augmentent leur audience à un rythme environ 3,5 fois supérieur à celui des comptes crédibles.

Prévalence : à quelle quantité de contenus trompeurs les utilisateurs sont-ils exposés ?

En utilisant la même méthodologie que lors de la première vague (échantillons aléatoires pondérés par l’exposition sur des contenus d’intérêt public, annotés par des fact-checkers professionnels), nous avons mesuré la proportion de publications contenant des informations fausses ou trompeuses sur l’ensemble des six plateformes.

Les résultats révèlent des différences significatives entre les plateformes, qui se sont aggravées dans certains cas (Figure 1) :

  • TikTok affiche la prévalence la plus élevée, à 25% [22,6%, 27,5%], en hausse par rapport aux ~20% de la première mesure. Environ un post sur quatre portant sur les sujets que nous avons étudiés contient des informations fausses ou trompeuses.
  • Facebook suit avec 15% [13,2%, 16,8%], YouTube avec 12% [10,6%, 13,9%] et X/Twitter avec 11% [9,0%, 12,2%].
  • Instagram se situe à 8% [6,5%, 9,2%].
  • LinkedIn enregistre à nouveau la prévalence la plus faible, à 1% [0,5%, 1,5%].
Figure 1 – Prévalence de la mis/désinformation sur les plateformes (avec intervalles de confiance à 95%)

La désinformation en matière de santé reste la catégorie dominante, représentant ~43 % de l’ensemble des publications de mis/désinformation identifiées, suivie par la guerre Russie–Ukraine (23 %) et la politique nationale (12 %), voir Figure 2.

Figure 2 – Distribution thématique des publications de mis/désinformation dans l’échantillon étudié.

La « prime à la désinformation » : qui obtient le plus d’interactions pour l’audience qu’il possède ?

Comme lors de la première vague, nous comparons les interactions par publication pour 1 000 abonnés entre les comptes de haute et de faible crédibilité. Sur presque toutes les plateformes, les comptes peu fiables continuent de recevoir un engagement disproportionné par rapport à la taille de leur audience, une tendance qui a persisté ou s’est aggravée depuis la première mesure (Figure 3).

  • Sur YouTube, la prime à la désinformation s’établit désormais à ~11× : un compte peu fiable reçoit environ onze fois plus d’interactions par publication qu’un compte crédible de taille comparable.
  • X/Twitter affiche un ratio similaire de ~10×, en forte hausse par rapport aux ~4× de la première vague.
  • Facebook se situe à ~9×, Instagram à ~4× et TikTok à ~2×.
  • LinkedIn est la seule plateforme où aucune prime statistiquement significative n’est observée.

Cette prime s’est avérée robuste sur deux périodes de mesure indépendantes. Il s’agit d’une caractéristique structurelle de la manière dont la plupart des plateformes amplifient les contenus, et non d’un artefact propre à une fenêtre de collecte de données particulière.

Figure 3 – Nombre moyen d’interactions par publication pour 1 000 abonnés selon la crédibilité du compte, montrant que les comptes peu fiables obtiennent davantage d’interactions que les comptes crédibles (sauf sur LinkedIn).

Mésinformation générée par IA : une menace croissante et largement non signalée

Cette vague introduit un nouvel indicateur mesurant la part de mésinformation contenant des éléments générés par IA (images ou vidéos). Les résultats pointent vers un phénomène qui a connu une croissance rapide et est mal géré par les plateformes :

La mésinformation générée par IA dans notre échantillon a cumulé environ 34 millions de vues, TikTok représentant 69% de ce total.

  • TikTok arrive en tête avec 24% de ses publications de mésinformation contenant du contenu généré par IA ; YouTube suit avec 19%. Les deux plateformes étant exclusivement basées sur la vidéo, cela explique en partie les chiffres plus élevés. Facebook se situe à 7%, tandis que X/Twitter (4,4%) et Instagram (2,6%) affichent des proportions plus faibles. LinkedIn ne présente aucune occurrence dans notre échantillon.
  • Sur l’ensemble des mésinformations générées par IA identifiées, seulement 16,5% portent un label visible (14% sur TikTok, seulement 1,8% sur Facebook et 0,9% sur YouTube). Aucun label n’a été observé sur les autres plateformes.
  • La mésinformation en matière de santé domine la catégorie générée par IA sur les deux plateformes vidéo, représentant 61% sur YouTube et 57% sur TikTok. Une tendance préoccupante est l’usurpation d’identité de médecins réels ou le recours à des médecins fictifs générés par IA.

Ce que deux vagues de mesure nous enseignent

La valeur centrale de ce second rapport ne réside pas dans un résultat isolé : c’est la cohérence des résultats dans le temps. Les estimations de prévalence, la prime à la désinformation et les tendances de monétisation sont tous globalement reproduits par rapport à la première vague. Cette reproductibilité confirme que les phénomènes que nous mesurons sont structurels, et non accidentels, et que la méthodologie est suffisamment solide pour soutenir un suivi à long terme.

L’intégration du Code de conduite sur la désinformation dans le cadre du DSA, effective depuis juillet 2025, confère à ces mesures une fonction réglementaire directe. Les indicateurs SIMODS ont été conçus pour être comparables entre les plateformes et stables dans le temps. Avec deux vagues désormais complètes, ils sont prêts à servir de références formelles dans les audits et les évaluations de conformité. Ce qu’il faut maintenant, c’est la volonté politique de les utiliser.

Lire le rapport complet

Deuxième mesure de l’état de la désinformation en ligne en Europe sur les Très Grandes Plateformes En Ligne. Deuxième rapport du projet SIMODS (Structural Indicators to Monitor Online Disinformation Scientifically) (PDF)

Comprend la méthodologie complète, les intervalles de confiance, les résultats par pays, l’analyse de la mésinformation générée par IA, les données de croissance des audiences, ainsi que des recommandations à l’intention des décideurs politiques, des plateformes et des financeurs.

Science Feedback is a non-partisan, non-profit organization dedicated to science education. Our reviews are crowdsourced directly from a community of scientists with relevant expertise. We strive to explain whether and why information is or is not consistent with the science and to help readers know which news to trust.
Please get in touch if you have any comment or think there is an important claim or article that would need to be reviewed.

Articles similaires