Le respect de la période de silence électoral sur les plateformes en ligne à l’ère du Règlement sur les Services Numériques

Posté le : 15 Juil 2024

Image de couverture générée par IA

Co-auteur : Saman Nazari, Alliance4Europe

***

Le droit français impose une période de silence électoral avant les scrutins, durant laquelle la diffusion de propagande électorale est interdite. Cette règle s’applique aussi bien aux médias traditionnels qu’aux plateformes en ligne, qui sont dans l’obligation de retirer tout contenu de propagande électorale qui leur est signalé. De surcroît, le droit européen (Règlement des Services Numériques – RSN) exige d’elles de mettre à disposition des utilisateurs un mécanisme de signalement des contenus illégaux et de mitiger les risques de diffusion de contenus illégaux à large échelle.

Une étude du respect de ces obligations sur 6 plateformes majeures lors des deux tours des élections législatives de 2024 révèle que :

  • X (anciennement Twitter) ne procède à aucune modération, même en cas de signalement. En outre, le système de signalement de la plateforme était inopérant lors du second tour. Enfin, la présence massive de contenus de propagande électorale indique un probable échec dans l’atténuation des risques de diffusion massive de contenus illégaux.
  • Le système de modération de Facebook et Instagram s’est avéré le plus performant et réactif lors du premier tour, mais lent lors du second.
  • YouTube n’a traité aucun des signalements avant la fin de la période de silence électoral. Aucun des contenus signalés n’a été considéré comme illégal par les équipes de modération.
  • De même, TikTok n’a traité à temps aucun des contenus signalés. Lors du premier tour, aucun contenu n’a été identifié comme étant illégal. Lors du second tour, la majorité des contenus signalés ont été retirés par la plateforme, mais le lendemain de la fin de la période de silence électoral. Le formulaire de signalement de TikTok ne permet pas de signaler plusieurs contenus à la fois, contrairement aux dispositions du RSN.
  • LinkedIn n’avait pas de mécanisme de signalement lors du premier tour, et a eu une réponse partielle et lacunaire lors du second.

Dans l’ensemble, aucune des plateformes étudiées ne peut donc se prévaloir d’un système de modération des contenus suffisamment précis et réactif eu égard aux spécificités de la période de silence électoral prévue dans le droit français.

***

La période de silence électoral

Le droit français encadrant les pratiques de communication électorale, largement pensé et appliqué dans un cadre où un nombre restreint de médias traditionnels étaient les intermédiaires incontournables pour atteindre des audiences de masse, cherche à s’adapter à un environnement de communication numérique beaucoup plus décentralisé dans lequel tout utilisateur de réseau social (qu’il soit candidat ou simple citoyen) peut toucher des millions d’électeurs.

Le Code électoral prévoit notamment une période de silence électoral : pour les scrutins ayant lieu le dimanche, la campagne prend fin à partir de minuit la nuit de vendredi à samedi. En conséquence, les personnalités politiques ne sont plus invitées dans les médias pour parler de leur programme, les candidats ne s’adressent plus aux électeurs, les attaques contre les adversaires politiques sont interdites tout comme la publication de sondages, aucun meeting n’est tenu…

Le cadre législatif du discours politique sur les réseaux sociaux en période de silence électoral

L’article 49 du Code électoral encadre la diffusion de propagande électorale sur les réseaux sociaux durant cette période, interdisant de “diffuser ou faire diffuser par tout moyen de communication au public par voie électronique tout message ayant le caractère de propagande électorale”.

Comme le soulignent les experts en droit électoral interrogés par 20Minutes, contrairement à une interprétation répandue, cette interdiction doit s’appliquer aussi bien à la population générale qu’aux personnalités politiques et aux médias.

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), confirme ce caractère illégal et les obligations des plateformes en ligne vis-à-vis de ces contenus : “les messages ayant un caractère de propagande électorale diffusés en ligne pendant la période de silence électoral constituent des contenus illicites […] Les contenus illicites qui leur sont signalés doivent être retirés par les plateformes.”

Les plateformes ont donc pour première obligation de retirer les contenus de propagande électorale qui leur sont signalés au cours de la période de silence.

Par ailleurs, le Règlement sur les Services Numériques (RSN), texte législatif majeur de l’Union européenne promulgué en 2022 qui vise à encadrer les pratiques des géants du numérique, impose aux plateformes la mise en place de mécanismes facilement accessibles au grand public de signalement de contenus illicites. Ces mécanismes doivent notamment s’assurer de l’envoi d’un accusé de réception au signaleur, ainsi que d’une notification de la décision de modération une fois celle-ci prise (y compris si le contenu n’est pas jugé comme étant illégal). 

Les plateformes ont donc pour seconde obligation de mettre en place un système de signalement des contenus illicites.

Enfin, le RSN impose des obligations d’identification et de mitigation des risques systémiques que font peser ces entreprises sur les sociétés européennes. Le RSN prévoit notamment que les plateformes atténuent les risques liés à la dissémination de contenus illicites.

Les plateformes ont donc pour troisième obligation de s’assurer que la présence de contenus de propagande électoral illégaux n’atteigne pas une dimension systémique (le caractère systémique ou non étant in fine déterminé par le régulateur, donc la Commission européenne dans le cas des plus grandes plateformes).

Le respect des obligations des plateformes durant les élections législatives de 2024

Méthodologie

Pour chacun des deux tours, des analystes d’Alliance4Europe et Science Feedback ont effectué des recherches manuelles en utilisant des mots-clés liés aux élections législatives (nom de personnalité politique, de parti, date du scrutin, hashtag populaire lié à l’élection…). Ces recherches ont été effectuées sur 6 plateformes de partage de contenu : LinkedIn, Facebook, Instagram, TikTok, X (anciennement Twitter) et YouTube.

Parmi les contenus renvoyés par ces recherches, nous avons sélectionné ceux :

  • Postés après le vendredi à minuit (donc au cours de la période de silence électoral),
  • Présentant un caractère manifeste de propagande électorale (contenus appelant à voter pour ou contre tel candidat ou parti, contenus dénigrant de manière virulente un candidat ou parti).

Les contenus identifiés comme diffusant de la propagande électorale ont été signalés aux plateformes en utilisant les mécanismes mis en place (notamment dans le cadre du RSN) pour signaler du contenu illégal. Lorsque le système demandait une justification pour le signalement, nous avons indiqué que le contenu enfreignait l’article 49 du Code électoral et avons inclus un lien vers les règles de l’Arcom relatives au silence électoral.

X (anciennement Twitter)

Modération de contenus signalés

Lors du premier tour, 6 contenus ont été signalés à X (anciennement Twitter). La réception de ces signalements a été confirmée par email. Aucune décision de modération n’a été notifiée, et les contenus signalés demeurent accessibles, suggérant :

  • soit qu’aucune décision de modération n’a été prise, ce qui consisterait une infraction aux obligations de la plateforme en termes de modération de contenu illégal ;
  • soit que le contenu a été jugé comme n’étant pas en infraction avec les règles de silence électoral. Au-delà du bien-fondé de cette décision eu égard au droit français, la plateforme aurait eu l’obligation, ici ignorée, de nous faire part de sa décision. 

Lors du second tour, deux analystes se connectant depuis deux lieux distincts et utilisant des matériels différents ont constaté que le formulaire de signalement ne fonctionnait plus du fait d’un problème technique, X contrevenant ainsi de fait à son obligation de mettre à disposition des utilisateurs un système de signalement de contenu illégal.

En conséquence, 102 contenus de propagande électorale ont été soumis par email à X, qui en a accusé réception, mais ne nous a pas par la suite informés d’éventuelles décisions de modération concernant ces contenus, qui demeurent accessibles sur la plateforme au 11 juillet 2024.

Figure 1 – Exemples de posts signalés à X (anciennement Twitter), dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

Prolifération de contenus illégaux

Dans le cas spécifique de X, notre outil de social listening (Meltwater) nous offrait la possibilité de faire des recherches à grande échelle sur la plateforme, permettant d’obtenir une borne basse concernant l’ampleur du phénomène et donc de vérifier si la plateforme, au premier abord, enfreignait ses obligations d’atténuation de diffusion de contenus illégaux.

Au cours du second tour, nous avons donc effectué une recherche ciblée permettant de faire remonter des dizaines de milliers de contenus potentiellement illégaux, comprenant des tweets originaux ainsi que des retweets, effectués durant la période de silence électoral, de contenus de propagande politique publiés avant le début de la période de silence électoral.

Pour valider la pertinence des contenus retournés par cette recherche, un échantillon aléatoire de 50 posts a été prélevé afin d’estimer le taux de faux positifs : sur ces 50 contenus, 49 constituaient bien de la propagande électorale illégale, et un était ambigu (le post partageant une vidéo mettant en avant l’insécurité accompagné d’un texte disant “Dimanche prochain votez bien”, sans nommer de parti ou candidat spécifique).

Un premier envoi de 49 722 contenus a été fait à X le samedi 6 juillet à 19h52 (contenus publiés le samedi 6 juillet entre 00h01 et 18h45). Un second envoi de 35 446 contenus (publiés entre samedi 6 juillet 18h45 et dimanche 7 juillet 11h00) a été partagé avec X le dimanche 7 juillet à 11h22. Un dernier envoi de 13 877 contenus a été effectué ce même jour à 15h52 (contenus publiés dimanche 7 juillet entre 11h00 et 15h50).

X n’a ni accusé réception de ces envois, ni notifié d’éventuelles décisions de modération les concernant. Les contenus demeurent visibles sur la plateforme.

Le volume de contenus de ce type, qui ne constituent évidemment pas l’intégralité de la propagande électorale sur la plateforme lors de la période de silence électoral, pourrait être considéré comme contrevenant aux obligations issues du RSN en matière de prolifération de contenu illégal.

LinkedIn

Lors du premier tour, 15 contenus sur LinkedIn ont été identifiés comme constituant de la propagande électorale. Cependant, le système de signalement de contenus illégaux sur LinkedIn n’offrait pas de catégorie appropriée (voir ci-dessous les catégories disponibles). Aucun signalement n’a donc été fait à LinkedIn lors de ce premier tour.

Figure 2 – Catégories possibles de signalement d’un post sur LinkedIn

Lors de l’entre-deux-tours, nous avons contacté LinkedIn pour mettre en place un mécanisme ad hoc et avons été en mesure de signaler 24 contenus par email lors du second tour. LinkedIn a accusé réception de ce message. Aucune décision de modération ne nous est parvenue, mais 6 contenus sur les 24 signalés ne sont plus accessibles au 11 juillet, suggérant une modération partielle de la part de LinkedIn.

Figure 3 – Exemples de posts signalés à LinkedIn, dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

YouTube

Lors du premier tour, 10 contenus sur YouTube ont été identifiés comme constituant de la propagande électorale et signalés. L’accusé de réception de ces signalements par YouTube a été envoyé immédiatement.

La notification de décision nous est parvenue le 2 juillet (soit deux jours après la fin de la période de silence électoral). YouTube a estimé qu’aucun des 10 contenus n’était illégal (un d’entre eux n’était cependant plus accessible au 11 juillet).

Lors du second tour, 20 contenus ont été identifiés comme constituant de la propagande électorale et signalés. L’accusé de réception de ces signalements par YouTube a été envoyé immédiatement.

A nouveau, la notification de décision nous est parvenue largement après la fin de la période de silence électoral (le 11 juillet, soit 4 jours après le signalement). 

Sur ces 20 signalements effectués en quatre lots (les systèmes de YouTube permettant de signaler au maximum 5 URLs à la fois) :

  • 15 vidéos ont été considérées comme n’étant pas illégales,
  • YouTube a demandé des précisions (référence de la loi enfreinte, timestamp auquel l’infraction a eu lieu, éléments de contexte divers) sur un lot de 5 vidéos, sans préciser laquelle ou lesquelles parmi les cinq étaient particulièrement concernées. 

Les 20 vidéos demeuraient accessibles le 11 juillet.

Fig. 4 – Exemples de posts signalés à YouTube, dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

Facebook

Lors du premier tour, 19 contenus sur Facebook ont été identifiés comme constituant de la propagande électorale et signalés. L’accusé de réception de ces signalements par Facebook a été envoyé immédiatement. En quelques heures, une décision de modération a été notifiée : 17 des contenus signalés ont été considérés illégaux et rendus temporairement inaccessibles depuis la France.

Lors du second tour, 27 contenus sur Facebook ont été signalés. L’accusé de réception de ces signalements par Facebook a été envoyé immédiatement. La décision de modération a été notifiée le 11 juillet, soit plusieurs jours après la fin de la période électorale. Aucun des contenus n’a été jugé illégal, mais 2 contenus sont inaccessibles au 11 juillet 2024.

Figure 5 – Exemples de posts signalés à Facebook, dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

Instagram

Lors du premier tour, 14 contenus sur Instagram ont été identifiés comme constituant de la propagande électorale et signalés. L’accusé de réception de ces signalements par Instagram a été envoyé immédiatement. En quelques heures, une décision de modération a été notifiée : 9 des contenus signalés ont été considérés illégaux et rendus temporairement inaccessibles depuis la France.

Lors du second tour, 20 contenus sur Instagram ont été signalés. L’accusé de réception de ces signalements par Instagram a été envoyé immédiatement. La décision de modération a été notifiée le lundi 8 juillet (le lendemain de la fin de la période électorale). Aucun des 20 contenus n’a été jugé illégal, mais 2 d’entre eux sont inaccessibles au 11 juillet 2024.

Lors de ce second tour, nous avons également signalé des contenus Threads (qui utilise le même système de signalement qu’Instagram). Un accusé de réception des signalements a été immédiatement envoyé par Threads. Nous avons été notifiés de la décision de Threads le 11 juillet (plusieurs jours après la fin de la période de silence) : sur les 15 contenus signalés, aucun n’a été considéré illégal.

Figure 6 – Exemples de posts signalés à Instagram, dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

TikTok

Lors du premier tour, 16 contenus sur TikTok ont été identifiés comme constituant de la propagande électorale et signalés. L’accusé de réception de ces signalements par TikTok a été envoyé immédiatement. TikTok a effectué un suivi le surlendemain du signalement (le 1er juillet, soit le lendemain de la fin de la période électorale), nous signifiant qu’aucun des contenus n’avait été considéré illégal.

Lors du second tour, 20 contenus sur TikTok ont été signalés. L’accusé de réception de ces signalements par TikTok a été envoyé immédiatement. TikTok a effectué un suivi le lendemain de la fin de la période électorale (lundi 8 juillet), pour nous signifier que 16 des contenus avaient été jugés illégaux et retirés, 2 n’avaient pas été jugés illégaux, et demandant plus d’informations sur l’un d’entre eux.

Contrairement aux dispositions du Règlement sur les Services Numériques, le système de signalement de contenus à TikTok n’offre pas la possibilité de signaler plusieurs contenus dans le même formulaire.

Figure 7 – Exemples de posts signalés à TikTok, dont le caractère de propagande électorale n’a pas été reconnu par la plateforme.

Conclusion

Nous avons testé le respect par les plateformes de leurs obligations concernant:

  • Le fonctionnement de leur système de signalement de contenus illégaux. Plusieurs plateformes (YouTube, Facebook, Instagram) ont mis en place des mécanismes qui respectent les conditions énumérées dans le RSN. D’autres (LinkedIn, TikTok, X) semblent contrevenir à certaines.
  • Leur vitesse de décision, dans le contexte d’une période de silence électorale très courte. A l’exception possible de Facebook et Instagram lors du premier tour, aucune des plateformes auditées n’est suffisamment rapide, la plupart des décisions ayant été notifiées après la fin de la période électorale.
  • Leur interprétation de quels contenus constituent de la propagande électorale. Certaines plateformes (YouTube, X) considèrent qu’aucun des contenus soumis n’est illégal, à l’encontre de l’interprétation de juristes spécialisés en droit électoral. D’autres (Instagram, Facebook, TikTok, LinkedIn) ont considéré qu’une partie des contenus signalés étaient illégaux, sans que la différence entre les contenus jugés illégaux et non-illégaux ne soit manifeste pour un observateur extérieur, soulevant des questions de cohérence des décisions de modération.

Par ailleurs, dans le cas spécifique de X (anciennement Twitter), nous avons pu identifier des pour le seul second tour des dizaines de milliers de contenus constituant de la propagande électorale. Ces contenus, bien qu’abondants, sont issus d’une seule requête et ne représentent donc pas l’intégralité de la propagande électorale sur la plateforme, suggérant un échec de la plateforme à limiter les risques de dissémination massive de contenus illicites.

Science Feedback is a non-partisan, non-profit organization dedicated to science education. Our reviews are crowdsourced directly from a community of scientists with relevant expertise. We strive to explain whether and why information is or is not consistent with the science and to help readers know which news to trust.
Please get in touch if you have any comment or think there is an important claim or article that would need to be reviewed.

Published on:

Articles similaires

Il n'y a pas d'article similaire pour le moment