• Santé

Attention aux faux médecins dans les vidéos générées par IA sur les réseaux sociaux

Posté le : 3 Fév 2026

Avec l’avènement de l’Intelligence artificielle (IA) générative, il est aujourd’hui facile de produire des vidéos donnant l’apparence de la réalité. On voit ainsi fleurir de plus en plus de vidéos sur les thèmes de la santé et de la nutrition, qui mettent en scène un personnage présenté comme “docteur”, qui dispense des “conseils”.

Exemple avec la chaîne YouTube “Clé de Longévité”, qui indique être basée en France, mais dont le compte Facebook est associé à une adresse e-mail au Vietnam. Elle aborde des thèmes de santé destinés à un public de plus de 60 ans. La plupart des vidéos mettent en scène le même “homme” vêtu d’une blouse blanche, avec un stéthoscope autour du cou : des attributs que nous associons habituellement à un médecin (Figure 1).

Figure 1 – Capture d’écran de la chaîne YouTube « Clé de longévité »

Ces vidéos sont de toute évidence générées par l’IA, ce que trahissent plusieurs indices. On peut voir aisément ici que le personnage apparaît comme “plaqué” sur un décor. Dans la salle de consultation, la table d’examen est trop courte pour permettre à un adulte de s’allonger.

Autre exemple avec la chaîne YouTube “Dre Ana Laura”, qui prétend également être basée en France (figure 2) mais qu’on peut aussi retrouver sur une chaîne russophone basée au Brésil, qui cible elle aussi les “seniors”. Une femme, vêtue d’une blouse et parfois un stéthoscope, à l’arrière-plan (flou) ce qui semble être un “diplôme” encadré fixé au mur. Elle se présente comme “docteure”. Sur sa blouse figure parfois un badge, mais il est illisible. On détecte des problèmes de perspective sur plusieurs vidéos. De plus, la voix et le mouvement des lèvres ne semblent pas naturels, et connaissent de brusques interruptions. Là encore, il est quasiment certain que cette vidéo a été générée par IA. 

Figure 2 – Capture d’écran de la chaîne YouTube « Dre Ana Laura »

Des outils ont été développés, qui permettent de détecter les contenus générés par l’IA. Cependant la technologie de l’IA générative progresse rapidement et il sera bientôt difficile de distinguer la production de l’IA de la réalité. En revanche, il est possible de vérifier si les médecins mis en scène existent et sont réellement diplômés en médecine.

UNE USURPATION DU TITRE DE DOCTEUR EN Médecine

Dans la première vidéo de la chaîne “Clé de longévité”, la personne se présente comme le “Docteur Marc Lefèvre, médecin en prévention cardio-vasculaire depuis plus de 30 ans”. Dans d’autres, Dr Marc Lefèvre urologue et gériatre depuis plus de 25 ans” ou “Dr Lefèvre neurologue depuis 28 ans”. Or il est impossible qu’un même médecin cumule autant de spécialités.

On trouve également sur la même chaîne le “docteur Laurent Morel (cardiologie, 25+ ans d’expérience) . Alors qu’une autre vidéo, simplement narrée sur une image fixe, met en scène un “Docteur Alain Morel, nutritionniste spécialisé dans la santé des hommes seniors depuis plus de 25 ans”

Science Feedback a consulté le répertoire de l’Ordre des médecins, qui recense les médecins français en activité (l’inscription est obligatoire pour exercer en France). Résultat : pas de Marc Lefèvre. Un Laurent Morel, mais anesthésiste… Un Alain Morel, mais psychiatre… 

Quant à la chaîne Dre Ana Laura, la même recherche n’a pas permis d’identifier une médecin portant ce nom. Il paraît donc très peu probable que les médecins figurant dans les vidéos de “Clé de longévité” et de “Dre Ana Laura” existent réellement. D’autant que la “Dre Ana Laura” figure également, avec une apparence physique différente, sur les vidéos d’une autre chaîne YouTube, “Vitalité après 60”. 

Nous avons contacté les deux chaînes pour qu’elles nous indiquent où elles ont trouvé les références officielles de ces personnes qu’elles présentent comme des professionnels de santé et mettrons à jour ce texte en fonction de leur réponse.

Plus alarmant encore est le cas de la chaîne “Santé et longévité avec Dr Véronique Fournier”, de toute évidence générée par l’IA, qui propose des contenus du même type destinés aux “seniors”. Car il existe bien un Dr Véronique Fournier. Cardiologue de formation, aujourd’hui retraitée, elle a présidé le Centre national des soins palliatifs et de la fin de vie, et milite pour la reconnaissance des personnes âgées. 

Une requête effectuée avec le moteur de recherche Google pour vérifier l’existence de ce médecin renvoie vers la véritable Dr Véronique Fournier. En revanche, une requête effectuée avec le moteur de recherche Bing (Figure 3) renvoie en première position la chaîne “Santé et longévité avec Dr Véronique Fournier”, suivie de deux vidéos de la véritable Dr Fournier (figure 3). On pourrait en déduire, de manière erronée, qu’il s’agit de la même personne. Il faut dans les deux cas une vérification plus poussée pour constater qu’elles ne se ressemblent pas physiquement. Nous n’avons pu contacter la chaîne faute de coordonnées affichées sur sa page YouTube.

Figure 3 – Résultats d’une requête dans le moteur de recherche Bing avec les termes “docteur Véronique Fournier”.

L’usurpation de titre est sanctionnée par la loi

En France, comme dans de nombreux pays, l’usurpation du titre de médecin est sanctionnée par la Loi. L’article L4162-1 du Code de la santé publique indique que : 

l’usage sans droit de la qualité de médecin, de chirurgien-dentiste ou de sage-femme ou d’un diplôme, certificat ou autre titre légalement requis pour l’exercice de ces professions est puni comme le délit d’usurpation de titre prévu à l’article 433-17 du code pénal

Lequel article 433-17 indique notamment : 

L’usage, sans droit, d’un titre attaché à une profession réglementée par l’autorité publique ou d’un diplôme officiel ou d’une qualité dont les conditions d’attribution sont fixées par l’autorité publique est puni d’un an d’emprisonnement et de 15 000 euros d’amende. 

Cette usurpation est-elle constituée ici ? Science Feedback a contacté le Conseil national de l’Ordre des médecins, qui a nous a indiqué sans plus de précisions via son service de presse être confronté à un “problème inédit” face à ces vidéos générées par l’IA…  

Nous avons également contacté YouTube France pour les questionner sur la légalité de ces prétendus médecins et mettrons à jour ce texte en fonction de leur réponse.

Des affirmations sans fondement, parfois dangereuses…

Les chaînes de ce type dispensent le plus souvent des conseils de nutrition aux effets apparemment miraculeux pour la santé. Nous prenons ici deux exemples caractéristiques des allégations qu’on peut y rencontrer.  

La première catégorie est celle des affirmations sans fondement scientifique. Une vidéo du “Dr Ana Laura” intitulée “Hommes de plus de 50 ans prenez du bicarbonate de soude COMME CECI pour des érections fermes” invite les hommes à utiliser du bicarbonate de soude (en ingestion ou en application) pour retrouver une érection matinale. 

Or, une recherche sur la base de données médicales PubMed (voir Notes) montre qu’il n’existe pas de travaux scientifiques sur l’usage du bicarbonate de soude pour cette fonction physiologique. Les seuls travaux existants portent sur les performances des sportifs, le bicarbonate produisant un gain modeste sur certains types d’efforts de courte durée, notamment à cause de son effet “tampon” (réduction de l’acidité de l’organisme)[1]. De plus, l’ingestion de bicarbonate peut causer des effets secondaires tels que ballonnements, nausées, vomissements et douleurs abdominales. Un protocole strict doit être observé pour son administration[2].

… ou des études scientifiques réelles mais surinterprétées

La deuxième catégorie repose sur des bases scientifiques, avec parfois la mention “validé par la science”. Mais les travaux, s’ils existent, sont mal interprétés. Par exemple, une vidéo sur la chaîne Clé de longévité promeut le jus de grenade qui “protège votre prostate et relance votre vitalité après 60 ans”, avec un protocole à suivre. Il est vrai que la grenade suscite l’intérêt car elle contient certaines molécules pouvant jouer un rôle dans le cadre de la prévention et du traitement des cancers, par exemple en inhibant la prolifération des cellules cancéreuses[3].

La vidéo omet cependant de préciser que les études ont été faites sur des cellules in vitro ou chez l’animal, mais très peu chez l’humain. De plus, les propriétés étudiées concernent aussi d’autres parties de la plante qu’on ne consomme pas (peau, tiges). À ce stade, le jus de grenade ne peut pas être considéré comme préventif ou curatif. Une piste serait d’utiliser des extraits de grenade pour augmenter l’efficacité de thérapies conventionnelles. Le jus de grenade promu dans cette vidéo est probablement inoffensif, mais son effet contre le cancer est “survendu”. 

TikTok : une invasion d’avatars qui ressemblent à des médecins

Les exemples que nous avons pris concernent YouTube, où le phénomène semble encore émergent, les chaînes précédemment citées ne faisant encore qu’assez peu de vues, mais le phénomène est visible sur d’autres plateformes et semble se généraliser. Ainsi, sur TikTok, de nombreux comptes de nutrition et “conseils” santé mettent en scène des personnages, pas systématiquement affichés comme médecins mais qui en possèdent tous les attributs – blouse et stéthoscope notamment. C’est le cas par exemple de la chaîne Healthy Vibes, qui compte plus de 2,5 millions d’abonnés (figure 4).

Figure 4 – Des personnages habillés comme des médecins sont souvent mis en scène sur TikTok, comme ici sur la chaîne Healthy Vibes.

Il existe de vrais médecins créateurs de contenu

Nombre de médecins diplômés possèdent leur propre chaîne sur les plateformes et les réseaux sociaux. Par exemple, la chaîne PUMS (“Pour une meilleure santé”), qui accueille nombre de médecins spécialistes, soutenue par l’Université Paris Cité, ou encore celles de Michel Cymes, Jimmy Mohamed ou Marine Lorphelin pour ne citer que les plus connues et suivies. 

Il existe une ”charte du médecin créateur de contenu responsable” promue par l’Ordre des médecins en France. Elle prohibe notamment le référencement payant, les conseils médicaux personnalisés et la promotion de pratiques ou thérapeutiques non validées scientifiquement. Mais elle n’est pas obligatoire et ne mentionne pas explicitement les modalités de l’usage de l’IA.

YouTube et les contenus santé : un label, mais un manque de contrôle

YouTube a mis en place une politique d’accréditation concernant les contenus santé, pour certains pays dont la France. Si on effectue une recherche sur un thème, par exemple “cancer de la prostate”, un carrousel de vidéos apparaît avec la mention “from health sources” (sources issues de professionnels de santé). Pour bénéficier de cette mention, il faut être médecin, infirmier, ou autre professionnel de santé avec un diplôme reconnu. La plupart des chaînes de médecins citées dans le paragraphe précédent peuvent apparaître dans ce carrousel. Par ailleurs, des informations sur le contexte dans lequel a été créée une vidéo donnée peuvent apparaître dans un panneau d’information. Par exemple : 

“Publié par une chaîne d’un médecin inscrit au RPPS” , par exemple ici

[Traduit de l’anglais par Science Feedback – RPPS : Répertoire Partagé des Professionnels intervenant dans le système de Santé]

ou 

« Publié par une chaîne affiliée à un organisme de formation et de recherche en santé de France », par exemple ici 

ou encore 

“Publié par une chaîne en collaboration avec un médecin ou infirmier(ère) inscrit(e) au RPPS”, par exemple ici

Cette accréditation n’est cependant pas obligatoire, et YouTube ne semble pas vérifier les contenus des prétendus “médecins” qui n’ont pas candidaté à ce label.  

À noter que contrairement à YouTube, TikTok ne propose pas dans ses “règles de la communauté” une telle labellisation et ne prévoit rien de particulier pour la représentation des professionnels de santé et le traitement des questions de santé, hors santé mentale et “contenus qui favorisent des troubles alimentaires et des comportements de gestion du poids à risque”.   

Conclusion :

Grâce aux outils de l’Intelligence Artificielle générative, il est aujourd’hui simple et peu coûteux de générer des vidéos mettant en scène de faux médecins qui dispensent de prétendus conseils de santé, dans l’objectif de générer un maximum de vues monétisables et/ou pouvant constituer un vivier de clients potentiels auquel proposer ensuite d’acheter des produits tels que des compléments alimentaires. 

Lorsqu’un conseil de santé est donné par une personne présentée comme “médecin” ou “docteur” (en médecine), ou pour toute autre spécialité de santé affichée, il est indispensable de vérifier l’existence de la personne et la réalité de son titre. Si le “médecin” est basé en France, on peut faire notamment une recherche sur le répertoire de l’Ordre des médecins et/ou dans le RPPS (Répertoire Partagé des Professionnels intervenant dans le système de Santé, qui les recense tous) ou, s’il est à l’étranger, une recherche sur les sites des institutions équivalentes.  

Dans la grande majorité des cas, la détention d’un diplôme de médecin ou de professionnel de santé est synonyme d’une information de qualité. Cependant, la médecine n’est pas exempte de controverses, et il arrive aussi que certains médecins diplômés propagent de la désinformation.  Il convient donc de recouper les informations liées à la santé à l’aide de plusieurs sources fiables. 

Feedback des scientifiques

Ronan Pons member picture

Ronan Pons

docteur en droit de l’intelligence artificielle, ingénieur de recherche en droit , Université de Haute-Alsace

SF: Que dit la réglementation européenne sur ce type de vidéos générées par l’IA ?

RP: La réglementation européenne relative aux services numériques ne dit rien spécifiquement sur la modération des contenus IA par les plateformes en ligne comme YouTube. En revanche, le règlement européen sur l’IA impose aux déployeurs de systèmes d’IA générant du contenu (les propriétaires de la chaîne) d’indiquer clairement cela dès lors qu’il s’agit d’hypertrucages (les “deep fakes”). 

La qualification d’hypertrucage dans ce cas peut être discutée mais mon hypothèse est qu’il s’agit bien pour les chaînes YouTube citées dans cet article d’un hypertrucage, dans le sens où le contenu généré présente une ressemblance (volontaire d’autant plus) avec un professionnel de santé qui pourrait exister, même si ce dernier n’existe pas, et qui apparaît comme crédible pour les individus. 

Cependant, l’obligation de signaler ces hypertrucages n’entre en application qu’au 2 août 2026.

SF: Qu’en est-il en France ?

RP: Une proposition de loi a été déposée en décembre 2024 (n° 675) qui vise à  imposer deux obligations, avec des sanctions associées en cas de manquement :

  1. Imposer aux personnes publiant sur des réseaux sociaux une image générée ou modifiée par IA de mentionner cette origine via un avertissement clair et visible
  2. Imposer aux plateformes en ligne au sens du DSA européen [Digital services act] de mettre en place des moyens techniques pour détecter les contenus générés par IA et vérifier que ces derniers soient bien étiquetés conformément à cette proposition. De plus, YouTube doit prévoir un outil de signalement pour les internautes qui suspecteraient que le contenu est généré par IA sans pour autant que cela soit indiqué sur la vidéo.

Toutefois, cette proposition de loi n’a pas encore été votée et est encore au stade de travail parlementaire.

Il faut noter que YouTube s’est doté de règles internes qui énoncent l’obligation pour un créateur de contenus d’indiquer si la vidéo qu’il publie a été générée ou modifiée par IA. YouTube prévoit notamment la possibilité d’apposer d’elle-même le label indiquant la génération par IA, voire la suppression de la vidéo ou de la chaîne si l’absence de marquage est répétée. 

SF: Quelles sont les obligations des plateformes ? 

RP: La directive e-privacy de 2000 ainsi que sa transposition en droit français au travers de la loi pour la confiance en l’économie numérique de 2004 indiquent que, en principe, les plateformes ne sont pas responsables pour les contenus illicites qu’elles hébergent. Cependant, elles doivent prendre rapidement des mesures dès lors qu’une personne signale lesdits contenus illicites. Le signalement porte à la connaissance de YouTube l’existence du contenu, la rendant ainsi responsable de celui-ci.

S’il s’avère que le contenu de la chaîne peut être qualifié de contenu manifestement illicite (violation du droit européen, français ou règles de YouTube), comme cela pourrait être le cas si l’usurpation du titre de médecin était avérée, YouTube doit prendre les mesures nécessaires pour faire cesser cela dès lors que la plateforme en prend connaissance. Il faut noter que cette obligation n’est pas spécifiquement liée à l’usage de l’IA. Ce serait la même chose si les vidéos étaient tournées par un acteur sans le recours à l’IA.

Notes

Recherche effectuée sur la base de données PubMed : « sodium bicarbonate » AND « sexual function » OR « erection »

Références

Science Feedback is a non-partisan, non-profit organization dedicated to science education. Our reviews are crowdsourced directly from a community of scientists with relevant expertise. We strive to explain whether and why information is or is not consistent with the science and to help readers know which news to trust.
Please get in touch if you have any comment or think there is an important claim or article that would need to be reviewed.

Published on:

Articles similaires