Cas pratique · ~9 min

GEO pour médecins et professionnels de santé

Les IA répondent chaque jour à des millions de questions médicales. Médecins, kinés, dentistes, psychologues : comment apparaître dans ces réponses tout en respectant les contraintes déontologiques du secteur santé.

A
Antoine, expert référencement IA/GEO, rédacteur Citability

Un tiers des Français ont déjà interrogé une IA sur leur santé. Soixante pour cent d’entre eux ont suivi les recommandations reçues — dont 17 % sans en parler à leur médecin (enquête FLASHS/Galeon, 2025). Ces chiffres disent quelque chose d’important : les IA générative sont devenues un premier point de contact médical pour une partie significative de la population.

Conséquence directe pour les professionnels de santé : votre crédibilité et votre visibilité se jouent maintenant dans ces réponses automatisées. Pas seulement sur Google. Dans ChatGPT, Perplexity, Gemini — là où vos futurs patients cherchent déjà des réponses avant de vous appeler.

Le problème : la santé est l’une des thématiques les plus délicates à optimiser pour les IA. Elle combine des enjeux de responsabilité juridique, de déontologie professionnelle et des standards de qualité renforcés imposés par les LLMs eux-mêmes. Mal gérer ce virage, c’est soit rester invisible, soit perdre en crédibilité.

Voici comment faire les deux — sans renoncer à l’un.

Ce que les gens demandent réellement aux IA sur la santé

Les requêtes médicales aux IA ne ressemblent pas à ce qu’on tape sur Google. Elles sont plus longues, plus personnelles, plus narratives :

  • “J’ai une douleur dans le bas du dos depuis trois jours, pire le matin. Est-ce que ça peut être une hernie discale ?”
  • “Mon médecin m’a prescrit de l’amoxicilline pour une angine, mais j’ai lu que les antibiotiques ne servent à rien pour les virus. Il a peut-être tort ?”
  • “Quels sont les meilleurs kinésithérapeutes spécialisés en rééducation du genou à Lyon ?”
  • “Comment choisir un psychologue spécialisé en TCC pour un enfant de 10 ans ?”

Ce n’est pas seulement de l’information générique que les utilisateurs cherchent : c’est une orientation, une confirmation, parfois une recommandation de praticien. Et les IA y répondent — avec ou sans vous.

Pourquoi la santé est un cas à part : YMYL et responsabilité renforcée

La santé appartient à la catégorie YMYL — Your Money Your Life. C’est un concept issu des guidelines de Google, qui désigne les thématiques dont le contenu peut avoir un impact direct sur la santé, la sécurité ou les finances d’une personne. La médecine, la nutrition, les médicaments, les symptômes : tout cela est YMYL.

Pour les LLMs, la conséquence est directe : les standards de vérification des sources sont plus élevés dans ces domaines que partout ailleurs. Un contenu qui fonctionnerait bien en référencement SEO classique ne suffit pas. Les IA appliquent, implicitement ou explicitement via leurs filtres de contenu, une grille d’évaluation renforcée.

Ce que ça signifie concrètement : pour être cité dans une réponse médicale d’une IA, votre contenu doit satisfaire des critères que la plupart des sites ne remplissent pas — même des sites médicaux reconnus.

Perplexity, par exemple, cite en priorité des guidelines cliniques et des revues à comité de lecture dans ses réponses médicales — pas des articles de blog, aussi bien écrits soient-ils. ChatGPT intègre systématiquement des disclaimers de type “consultez un médecin”, mais les sources qu’il mobilise en arrière-plan suivent la même logique de sélection par autorité.

Comment les LLMs évaluent la crédibilité d’une source médicale

Derrière les réponses des IA, il y a un mécanisme de pondération des sources. Pas de boîte noire mystérieuse : des critères identifiables, que vous pouvez travailler.

L’authorship vérifiable. Un contenu signé par un médecin nommément identifié, avec sa spécialité, son numéro RPPS ou son affiliation hospitalière, sera évalué différemment d’un contenu anonyme. Les LLMs ont été entraînés sur des quantités massives de littérature médicale peer-reviewed, où l’auteur est toujours clairement identifié. Ils reproduisent cette logique.

Les sources citées. Une étude publiée dans Nature Communications en 2025 a mesuré la qualité des citations des LLMs en médecine : entre 50 et 90 % des affirmations dans les réponses médicales des IA ne sont pas pleinement étayées par les sources citées. Ce chiffre révèle une réalité : les LLMs cherchent des sources, mais ne trouvent pas toujours ce qu’il faut. Si votre contenu cite explicitement des études, des recommandations HAS ou des guidelines de sociétés savantes, vous devenez une source de meilleure qualité que celles qui ne le font pas.

La cohérence sémantique sur le temps. Un professionnel de santé qui publie régulièrement sur une même spécialité — avec la même signature, sur le même domaine, avec les mêmes références — construit une autorité thématique que les LLMs reconnaissent. Ce n’est pas la quantité qui compte : c’est la cohérence.

Le E-E-A-T appliqué aux LLMs. Le cadre d’évaluation de Google (Expérience, Expertise, Autorité, Fiabilité) a un équivalent fonctionnel dans les systèmes d’IA génératifs. Les credentials professionnels — diplômes, affiliations, publications — ne sont pas décoratifs. Ils sont des signaux que les modèles ont appris à reconnaître comme marqueurs de fiabilité.

7 actions concrètes pour être cité par les IA

1. Créer une page auteur exhaustive et structurée

C’est la base. Chaque professionnel de santé qui publie du contenu en ligne doit avoir une page dédiée mentionnant : titre exact (Dr, spécialité), numéro RPPS ou Ordre, formations initiales et complémentaires, affiliations (hôpital, clinique, association professionnelle), et si possible quelques publications ou communications. Cette page doit être liée à chaque contenu signé.

Les IA indexent les données structurées. Une page auteur bien construite est l’équivalent d’un curriculum vitae que les LLMs peuvent “lire” et pondérer.

2. Produire du contenu éducatif ciblé par symptôme ou pathologie

Pas des articles généraux sur “la santé”. Des articles précis, structurés autour de la question qu’un patient peut poser : “Quelle est la différence entre une entorse et une fracture ?”, “Quand consulter pour une douleur thoracique ?”, “Comment se déroule une séance de psychothérapie EMDR ?”

Structure idéale : titre en question, réponse directe en 2-4 phrases, développement sourcé, encadré FAQ en fin d’article. Cette architecture est directement extractible par les IA.

3. Citer des sources vérifiables à chaque affirmation factuelle

Chaque chiffre, chaque affirmation clinique, chaque recommandation doit être ancrée dans une source : étude publiée, recommandation HAS, guideline d’une société savante (SFR, SFAR, SFP…), données Santé publique France. Le triptyque chiffre + source + date est le signal de citabilité le plus fort en YMYL.

“La lombalgie touche beaucoup de Français.”

“La lombalgie affecte 80 % des Français au moins une fois dans leur vie et représente la première cause d’invalidité avant 45 ans (Santé publique France, 2024).“

4. S’inscrire dans les annuaires médicaux référencés par les IA

Doctolib, Ameli, Annuaire santé de l’Assurance Maladie, Medecin.fr, RDV Médicaux : ces plateformes sont régulièrement citées par les LLMs quand une requête porte sur “trouver un médecin”. Votre présence sur ces annuaires — avec un profil complet, une spécialité claire, des informations à jour — est une condition nécessaire, pas suffisante, mais indispensable.

5. Obtenir des mentions sur des sites médicaux d’autorité

Une citation dans un article du Quotidien du Médecin, de Le Généraliste, de Prescrire ou dans une publication d’une société savante vaut infiniment plus qu’un article sur votre propre blog. Les LLMs pondèrent fortement les sources tierces. Intervenir comme expert cité dans des médias spécialisés, contribuer à des guides pratiques, être référencé dans des publications institutionnelles : c’est ce qui construit une autorité perçue par les IA.

6. Adopter les données structurées Schema.org

Sur votre site, implémentez les balisages MedicalOrganization, Physician ou MedicalSpecialty de Schema.org. Ces données permettent aux moteurs — et par extension aux LLMs qui utilisent des données web enrichies — de comprendre précisément votre spécialité, votre localisation, vos actes. Ce n’est pas du SEO classique : c’est du signal de contexte que les IA peuvent exploiter directement.

7. Maintenir une cohérence entre tous vos profils en ligne

Google My Business, Doctolib, votre site, LinkedIn, les annuaires de l’Ordre : vos informations (nom, titre, adresse, spécialité, diplômes) doivent être identiques partout. Les LLMs agrègent des sources multiples pour construire leur représentation d’un professionnel. Les incohérences créent de l’ambiguïté — et l’ambiguïté réduit la probabilité d’être cité.

La ligne à ne pas franchir : information vs conseil médical

C’est le point le plus sensible du GEO en santé. Il existe une frontière claire entre informer et conseiller, et les LLMs eux-mêmes l’appliquent : ils ajoutent systématiquement des disclaimers sur leurs réponses médicales précisément parce qu’ils savent qu’ils ne peuvent pas se substituer à une consultation.

Pour les professionnels de santé, le cadre déontologique français est sans ambiguïté. Le décret n° 2020-1662 a assoupli les règles de communication, mais la charte du Conseil National de l’Ordre des Médecins (CNOM, janvier 2025) pose dix principes fondamentaux. Parmi eux : délivrer une information rigoureuse et sourcée, s’identifier clairement avec ses qualifications, et ne pas présenter des hypothèses non confirmées comme des faits établis.

Ce que vous pouvez faire en ligne : expliquer des mécanismes physiologiques, décrire des symptômes et leurs causes possibles, présenter des options thérapeutiques générales, informer sur des pathologies. Ce que vous ne pouvez pas faire : poser un diagnostic à distance, recommander un traitement personnalisé à un patient que vous n’avez pas vu, comparer vos résultats à ceux d’un confrère.

La bonne nouvelle : cette contrainte déontologique est exactement alignée avec ce que les IA valorisent. Un contenu éducatif, neutre, sourcé et non promotionnel est précisément le type de contenu que Perplexity, ChatGPT et Gemini chercheront à citer dans leurs réponses médicales. Vouloir être visible dans les IA et respecter la déontologie ne sont pas deux objectifs contradictoires — ils sont, dans ce cas précis, la même chose.

Ce que ça change réellement pour votre cabinet

Voici une réalité que les chiffres illustrent bien : 80 % des médecins reçoivent régulièrement des patients qui se sont auto-diagnostiqués avec une IA avant de venir en consultation, et 90 % de ces auto-diagnostics sont erronés ou incomplets (enquête FLASHS/Galeon, 2025).

Ce n’est pas une raison de fuir les IA. C’est une raison de les alimenter avec de meilleures informations.

Un kinésithérapeute qui publie des contenus précis sur la rééducation du genou après ligamentoplastie, signés, sourcés, structurés — il y a de bonnes chances que ces contenus finissent par être cités quand un patient demande à ChatGPT comment se passe la récupération après cette opération. Et quand ce patient viendra en consultation, il sera mieux informé, plus confiant, et la relation thérapeutique démarrera sur de meilleures bases.

Le GEO en santé, bien fait, ne remplace pas la consultation. Il la prépare.


Sources :

— Enquête FLASHS pour Galeon, 2025 : utilisation des IA génératives pour la santé en France (n > 2000). Via Le Quotidien du Médecin et CNews.

— Baromètre IA Santé 2025, Cegedim Santé : usages et perceptions des IA dans le secteur médical en France. cegedim-sante.com.

— Frontiers in Digital Health, 2025 : “Accuracy of ChatGPT-3.5, ChatGPT-4o, Copilot, Gemini, Claude, and Perplexity in advising on lumbosacral radicular pain against clinical practice guidelines.” frontiersin.org.

— Nature Communications, 2025 : “An automated framework for assessing how well LLMs cite relevant medical references.” nature.com.

— Charte de communication du Conseil National de l’Ordre des Médecins (CNOM), janvier 2025. Via MACSF.

— Décret n° 2020-1662 du 22 décembre 2020 modifiant les règles de publicité applicables aux professionnels de santé.

— HealthCie, 2025 : “Le GEO pour référencer les médecins et chirurgiens.” healthcie.fr.