Face à une pression démographique mondiale et des systèmes de santé saturés, l’apparition de clones numériques de médecins capables de mener des consultations virtuelles voient le jour.
Cette nouvelle pratique s'opère concrètement sur l’application chinoise AQ, laquelle compte déjà plus de 100 millions d’utilisateurs. En Chine, des patients peuvent désormais interroger l’avatar de spécialistes renommés sans quitter leur domicile.
Des « clones numériques » au chevet des patients pour désengorger les hôpitaux
Le Dr Duan Tao, obstétricien célèbre à Shanghai, a ainsi entraîné son double virtuel à l'aide de manuels médicaux, de cas cliniques et de ses propres interventions sur les réseaux sociaux pour reproduire fidèlement son expertise et son langage.
En seulement six mois, son clone a déjà répondu aux interrogations de 160 000 patients, une solution qui offre une alternative aux files d'attente interminables des cabinets physiques.
Soutenue activement par l'État et des géants technologiques comme Ant Group, cette numérisation massive vise à compenser les déserts médicaux et le vieillissement de la population de 1,4 milliard d'habitants.
Pas de prescription, mais des réponses simples à des questions simples
Si ces « chatbots » ne peuvent ni prescrire de médicaments ni remplacer un diagnostic physique, ils servent de premier filtre rassurant pour des questions de santé courantes.
Toutefois, des défis de taille subsistent : la fiabilité de l'IA reste sous surveillance étroite. Entre risques d’« hallucinations » (réponses erronées) et efficacité moindre lors de dialogues complexes, les médecins sont formels : l'IA doit rester un outil de soutien et l'humain doit conserver impérativement « le pouvoir de décision ultime ».
Une vigilance reste toutefois de mise face à l'émergence des « deepfakes » médicaux : plusieurs exemples de détournements frauduleux de l'image de médecins circulent déjà. Un rappel que l'authenticité numérique est le prochain grand défi de la e-santé.
Deepfakes médicaux : quand l’IA met la santé en danger
L’essor fulgurant des outils d’intelligence artificielle générative ouvre des perspectives fascinantes… mais aussi des brèches inquiétantes. Le monde médical en fait aujourd’hui l’amère expérience, et la filière optique aurait tort de se croire à l’abri.
En France, le Pr Serge Hercberg, inventeur du Nutri-Score, a récemment alerté sur la diffusion de 32 vidéos deepfake usurpant son image, sa voix et son identité. On y voit le médecin, en blouse blanche brodée à son nom, installé dans un cabinet fictif, délivrer de prétendus conseils sur la santé osseuse ou cérébrale des seniors. Des propos qu’il n’a jamais tenus.
Ces vidéos, publiées sur une chaîne YouTube baptisée « Santé sage », étaient générées par IA, longues, peu rigoureuses scientifiquement et illustrées d’images parfois hors sujet. Aucune promotion explicite de produit n’y figurait, laissant supposer une simple logique de monétisation.
Malgré un signalement via Pharos et auprès de la plateforme, la réponse initiale de YouTube a été négative, estimant que les critères d’usurpation d’identité n’étaient pas remplis. La chaîne n’a finalement été supprimée que le 10 février, après un mois et demi d'existence.
Des cas qui se multiplient
Le cas n’est pas isolé. Michel Cymes a vu son double numérique promouvoir sur Facebook des pilules minceur et des produits pour l’érection. Jean-Michel Cohen a été associé, sur X, à de faux produits amaigrissants. Jimmy Mohamed ou encore Marine Lorphelin ont également été victimes de détournements similaires. À l’international, des autorités sanitaires américaines ont dû alerter sur de fausses vidéos mettant en scène des médecins prétendant recommander des traitements miracles contre le diabète ou l’hypertension.
Un risque sanitaire préoccupant
Le danger est double. Pour les professionnels, le préjudice d’image est réel. Pour le public, le risque sanitaire l’est tout autant : conseils infondés, retards de prise en charge, abandon de traitements validés… L’IA permet aujourd’hui de produire des contenus crédibles, à grande échelle et à faible coût, brouillant la frontière entre information fiable et manipulation.
La filière optique doit prendre la mesure de cette menace. Qu’adviendrait-il si un deepfake mettait en scène le dirigeant d’un grand verrier annonçant un rappel fictif de produits ? Si un faux expert expliquait les dangers supposés d’un matériau ou d’un traitement antireflet ? Si un communicant de marque recommandait un dispositif non conforme ? Dans un secteur où la confiance, la santé visuelle et la conformité réglementaire sont centrales, l’impact pourrait être considérable. Mieux vaut ouvrir l'oeil, et le bon.
