10 prompts Claude pour booster votre GEO
10 prompts prêts à copier-coller pour utiliser Claude comme un pro du référencement IA — audit, FAQ, schema, analyse concurrents, contenu.
Si vous faites du GEO sérieusement en 2026, Claude est probablement l’outil que vous sous-utilisez le plus. Pas parce qu’il est le plus puissant — ChatGPT et Gemini se défendent bien — mais parce qu’il est particulièrement doué pour ce qu’on lui demande en référencement IA : comprendre du contenu long, suivre des consignes précises, produire du markdown propre, et raisonner sur la structure d’une page.
Selon Anthropic (mars 2026), Claude Opus 4.6 et Sonnet 4.6 traitent désormais jusqu’à 1 million de tokens en contexte, soit environ 750 000 mots ou 1 500 pages de texte. Concrètement, vous pouvez lui coller 20 articles concurrents d’un coup et lui demander une synthèse stratégique. Aucun autre modèle grand public ne fait ça aussi proprement aujourd’hui.
Dans cet article, je partage 10 prompts que j’utilise chaque semaine pour auditer, structurer et optimiser des contenus GEO. Chacun est prêt à copier-coller — il suffit de remplacer les variables entre crochets par vos propres données.
Petite note avant de commencer : Claude répond particulièrement bien aux prompts structurés avec des balises XML (<role>, <context>, <task>). C’est documenté par Anthropic dans ses guides officiels, et ça change vraiment la qualité des réponses. Tous les prompts ci-dessous suivent ce format.
1. Auditer la citabilité d’une page
Le prompt que j’utilise pour savoir si une page a des chances d’être citée par ChatGPT, Perplexity ou Google AI Overviews. Il évalue les 6 critères clés du GEO.
<role>
Tu es expert en Generative Engine Optimization (GEO). Tu évalues la citabilité d'un contenu par les LLMs (ChatGPT, Perplexity, Claude, Gemini).
</role>
<context>
Voici le contenu d'une page web à auditer :
[COLLER LE TEXTE COMPLET DE LA PAGE]
URL : [URL]
Requête cible : [REQUÊTE QUE L'ON VEUT CAPTER]
</context>
<task>
Évalue cette page sur 6 critères, note chacun de 1 à 10, justifie en 2 phrases :
1. Réponse directe à la question dès les premières lignes
2. Structure sémantique (H2/H3 logiques, paragraphes courts)
3. Autorité perçue (sources citées, auteur identifié, dates)
4. Densité factuelle (stats, chiffres, citations précises)
5. Format "extractable" (définitions, listes, tableaux)
6. Couverture de la longue traîne conversationnelle
Termine par :
- Score global /60
- Top 3 actions prioritaires pour améliorer la citabilité
</task>
Ce prompt fonctionne mieux sur Claude que sur ChatGPT car Claude suit strictement la grille d’évaluation sans broder. Vous obtenez un scoring réplicable page après page.
2. Générer une FAQ optimisée GEO
Les formats structurés — FAQ, listes comparatives, définitions — sont les chouchous des IA génératives. Selon l’analyse de Profound portant sur 680 millions de citations, 32,5 % des citations IA proviennent de listicles comparatifs, et les pages bien structurées (questions-réponses explicites, paragraphes courts) sont extraites beaucoup plus facilement que les blocs de prose dense.
<role>
Tu es rédacteur SEO/GEO spécialisé dans les formats extractibles par les LLMs.
</role>
<context>
Sujet de l'article : [SUJET]
Requête principale : [REQUÊTE]
Audience : [B2B / grand public / expert]
Contenu existant : [COLLER L'ARTICLE OU LES POINTS CLÉS]
</context>
<task>
Génère 8 questions-réponses FAQ optimisées GEO.
Contraintes :
- Questions formulées comme un humain parlerait à ChatGPT (langage naturel, pas de mots-clés forcés)
- Mix de questions courtes ("C'est quoi X ?") et longues ("Comment faire X quand Y ?")
- Chaque réponse : 40-80 mots, commence par une réponse directe
- Inclure au moins 2 chiffres ou stats vérifiables
- Éviter les tournures génériques ("Il est important de...", "De nos jours...")
Format de sortie : JSON prêt pour un schema FAQPage.
</task>
Astuce : demandez ensuite à Claude de convertir directement ce JSON en balisage schema.org/FAQPage. Il le fait parfaitement.
3. Créer un schema JSON-LD à partir d’un contenu
Le balisage structuré reste un signal fort pour les moteurs IA. Claude est excellent pour le générer sans erreurs de syntaxe.
<role>
Tu es expert en données structurées schema.org. Tu génères du JSON-LD valide selon les spécifications Google 2026.
</role>
<context>
Voici le contenu d'une page :
[COLLER LE CONTENU]
Type de page : [article | produit | service | recette | événement | FAQ]
URL : [URL]
Auteur : [NOM]
Date de publication : [DATE]
</context>
<task>
Génère le JSON-LD schema.org complet et valide pour cette page.
Inclure :
- Tous les champs recommandés (pas seulement obligatoires)
- Les imbrications pertinentes (author → Person, publisher → Organization)
- BreadcrumbList si applicable
- Un second bloc FAQPage si le contenu contient des questions
Retourne uniquement le code JSON-LD encadré par <script type="application/ld+json">, sans commentaire.
</task>
Je vérifie toujours le résultat avec le Rich Results Test de Google, mais Claude sort du JSON-LD valide dans 95 % des cas.
4. Analyser les sources citées par ChatGPT sur une requête
Pour ce prompt, récupérez d’abord une réponse ChatGPT (ou Perplexity) avec les sources citées, puis collez-la à Claude.
<role>
Tu es analyste GEO. Tu identifies les patterns dans les sources citées par les LLMs.
</role>
<context>
Requête testée : [REQUÊTE]
Moteur : [ChatGPT | Perplexity | Gemini]
Réponse obtenue avec les sources citées :
[COLLER LA RÉPONSE + LES URLs DES SOURCES]
</context>
<task>
Analyse ces sources et réponds :
1. Typologie des sources (médias, blogs, institutionnels, forums, e-commerce...)
2. Patterns communs dans les titres et H1
3. Structure récurrente (tableau comparatif, guide étape par étape, liste...)
4. Ancienneté moyenne des contenus cités
5. Présence ou absence de marques commerciales
6. Stratégie à adopter pour entrer dans ce panel de sources citées
Sois concret : donne-moi un brief actionnable de 10 lignes max.
</task>
5. Réécrire une intro pour répondre directement à la question
Les IA favorisent massivement les contenus qui répondent dès les 100 premiers mots. Ce prompt retravaille vos intros dans ce sens.
<role>
Tu es rédacteur spécialisé en GEO et réponses directes pour LLMs.
</role>
<context>
Intro actuelle de l'article :
[COLLER L'INTRO]
Requête principale que l'article cible :
[REQUÊTE]
</context>
<task>
Réécris cette intro en respectant ces règles :
- Phrase 1 : réponse directe à la question en 1 phrase (maximum 25 mots)
- Phrase 2-3 : contexte ou nuance importante
- Phrase 4-5 : promesse de ce que l'article va apporter
- Ton : naturel, conversationnel, pas de "Dans un monde où..."
- Intégrer au moins 1 chiffre factuel
- 80 à 120 mots total
Propose 3 variantes avec des angles différents.
</task>
6. Générer 20 variations de requêtes conversationnelles
Les utilisateurs de ChatGPT ne tapent pas “meilleur CRM 2026”. Ils demandent “c’est quoi le meilleur CRM pour une agence de 5 personnes qui débute ?”. Cibler ces formulations longues est au cœur du GEO.
<role>
Tu es expert en recherche conversationnelle et longue traîne GEO.
</role>
<context>
Mot-clé SEO traditionnel : [MOT-CLÉ]
Persona cible : [DESCRIPTION RAPIDE]
Intention : [informationnelle | commerciale | transactionnelle]
</context>
<task>
Génère 20 variations de requêtes conversationnelles qu'un humain poserait à ChatGPT ou Claude sur ce sujet.
Répartis en 4 catégories :
- 5 questions "c'est quoi / définition"
- 5 questions "comment faire"
- 5 questions comparatives ("X vs Y", "mieux que X ?")
- 5 questions contextuelles ("quand tu es dans [situation]")
Critères :
- Au moins 10 mots par requête
- Langage parlé (pas optimisé SEO)
- Inclut parfois des précisions (budget, taille, secteur...)
Format : tableau avec colonne "requête" et colonne "intention sous-jacente".
</task>
7. Auditer le robots.txt pour les bots IA
Beaucoup de sites bloquent involontairement GPTBot ou PerplexityBot. Ce prompt vérifie la configuration.
<role>
Tu es expert technique SEO/GEO. Tu audites les fichiers robots.txt pour la visibilité dans les LLMs.
</role>
<context>
Voici le contenu de mon robots.txt :
[COLLER LE CONTENU]
Objectif : maximiser la visibilité dans ChatGPT, Perplexity, Claude, Gemini, Google AI Overviews — tout en préservant la sécurité.
</context>
<task>
Analyse le fichier et réponds :
1. Quels bots IA sont actuellement bloqués (explicite ou implicite) ?
2. Quels bots IA importants manquent dans les directives ?
3. Y a-t-il des conflits ou des règles contradictoires ?
4. Propose un robots.txt corrigé et commenté pour 2026, incluant :
- GPTBot, ChatGPT-User, OAI-SearchBot
- PerplexityBot, Perplexity-User
- ClaudeBot, Claude-Web, anthropic-ai
- Google-Extended, GoogleOther
- CCBot, Bytespider, Amazonbot
Explique chaque directive en 1 ligne.
</task>
Selon Originality.ai, environ 35,7 % des sites les plus populaires bloquent aujourd’hui GPTBot dans leur robots.txt — contre seulement 5 % lors du lancement du bot en août 2023. Beaucoup de ces blocages sont hérités d’un template par défaut, sans décision consciente. Vérifier ce fichier est l’action avec le meilleur ROI en GEO.
8. Comparer son article à ceux des concurrents
Claude brille particulièrement ici grâce à sa grande fenêtre de contexte. Vous pouvez coller 5-10 articles d’un coup.
<role>
Tu es analyste contenu/GEO. Tu identifies les écarts entre un article et ses concurrents sur une même requête.
</role>
<context>
Ma requête cible : [REQUÊTE]
Mon article :
[COLLER L'ARTICLE]
Articles concurrents qui se classent actuellement dans ChatGPT/Perplexity :
Concurrent 1 :
[COLLER]
Concurrent 2 :
[COLLER]
Concurrent 3 :
[COLLER]
</context>
<task>
Produis un rapport comparatif :
1. Sujets/angles couverts par les concurrents mais pas par moi
2. Formats utilisés (tableaux, listes, définitions) chez eux vs chez moi
3. Densité de chiffres et sources citées (comptage comparé)
4. Structure H2/H3 : quels titres reviennent chez au moins 2 concurrents ?
5. Tone of voice : quelle différence avec mon article ?
6. 5 actions concrètes pour rendre mon article plus citable que les leurs
Sois direct et critique. Ne me flatte pas.
</task>
Le dernier point — « ne me flatte pas » — change vraiment la sortie. Claude a tendance à édulcorer sinon.
9. Générer un cluster sémantique autour d’un sujet
Un cluster = un pilier + une dizaine d’articles satellites qui renforcent l’autorité thématique. C’est la stratégie la plus efficace pour être cité régulièrement par les IA.
<role>
Tu es stratège éditorial GEO. Tu construis des clusters sémantiques pour renforcer l'autorité thématique.
</role>
<context>
Sujet pilier : [SUJET]
Cible : [AUDIENCE]
Positionnement éditorial : [angle unique du média]
Articles déjà publiés (pour éviter les doublons) :
- [LISTE]
</context>
<task>
Construis un cluster complet :
1. Article pilier (titre + angle + intention + 5 H2 principaux)
2. 10 articles satellites avec pour chacun :
- Titre SEO/GEO
- Requête conversationnelle cible (pas le mot-clé)
- Angle unique (pourquoi lire celui-ci plutôt qu'un autre)
- 3 questions conversationnelles que l'article doit couvrir
- Lien interne suggéré vers 2 autres articles du cluster
3. Ordre de publication recommandé (lequel publier en premier et pourquoi)
Format : tableau clair, pas de blabla.
</task>
10. Détecter les opportunités de “Cite Sources”
ChatGPT Search et Perplexity affichent des sources cliquables. Identifier les requêtes où vous pourriez apparaître est une mine d’or.
<role>
Tu es expert en identification d'opportunités de citation dans les LLMs.
</role>
<context>
Mon site : [URL]
Thématique principale : [SUJET]
Top 20 articles de mon site :
[LISTE DES TITRES + URLs]
Positionnement : [en quoi le site se distingue]
</context>
<task>
Pour chacun de mes 20 articles, propose 3 requêtes conversationnelles où ChatGPT/Perplexity pourraient me citer comme source.
Pour chaque requête, indique :
- Probabilité d'être cité aujourd'hui (Faible / Moyenne / Forte) avec justification
- 1 amélioration concrète à apporter à l'article pour passer de "Moyenne" à "Forte"
- Concurrents probables déjà cités sur cette requête
Priorise les 10 opportunités avec le meilleur ratio effort/impact et explique pourquoi.
</task>
Comment combiner ces prompts en workflow
Utilisés à la chaîne, ces prompts deviennent un vrai système de production. Voici le workflow que je recommande pour auditer et améliorer un article existant en moins d’une heure :
Étape 1 — Diagnostic (10 min). Prompt #1 pour auditer la citabilité. Vous obtenez un score et les 3 axes prioritaires.
Étape 2 — Benchmark (15 min). Prompt #8 pour comparer à 3 concurrents cités par ChatGPT. Vous voyez exactement ce qui vous manque.
Étape 3 — Intro + FAQ (15 min). Prompts #5 et #2 pour refaire l’intro et ajouter une FAQ structurée. C’est souvent ce qui fait basculer une page dans les sources citées.
Étape 4 — Longue traîne (10 min). Prompt #6 pour identifier 20 requêtes conversationnelles à intégrer naturellement dans le body.
Étape 5 — Schema (5 min). Prompt #3 pour générer le JSON-LD final.
Étape 6 — Vérification technique (5 min). Prompt #7 ponctuellement, pour s’assurer que les bots peuvent bien crawler.
Pour la stratégie éditoriale globale plutôt qu’un article isolé, les prompts #9 (cluster) et #10 (opportunités) sont à faire en début de trimestre.
Un dernier conseil : gardez vos prompts versionnés dans un fichier à vous. À force, vous allez les adapter à votre ton, à vos critères, à votre marché. Les prompts ci-dessus sont une base solide, pas une vérité gravée. Claude s’améliore quand vous le cadrez, et ce cadre, c’est à vous de le construire au fil du temps.
Sources : Anthropic, “Use XML tags to structure your prompts” (docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/use-xml-tags) ; Anthropic, “Claude Opus 4.6 — 1M context window” (anthropic.com, mars 2026) ; Profound, “AI Platform Citation Patterns” (tryprofound.com/blog/ai-platform-citation-patterns) ; Originality.ai, “AI Bot Blocking Study” (originality.ai/ai-bot-blocking) ; Google Search Central, “Structured data guidelines”.