Comment AI100 mesure la visibilité des marques dans l'IA
Ce que nous mesurons
AI100 mesure la naturalité avec laquelle une marque apparaît dans les réponses neutres de l'IA au sein de sa catégorie et de sa région. La méthodologie sépare la couche principale de notation (scénarios neutres) de la couche diagnostique (requêtes avec nom de marque) et utilise une échelle non linéaire de 0 à 100.
Unité de mesure : une réponse du modèle à un scénario de question standardisé.
Comment fonctionne une exécution
1. Préparation du cadre de recherche
D'abord nous lisons le site, identifions la catégorie et clarifions avec quel environnement de marché il est pertinent de comparer la marque. L'utilisateur sélectionne une langue de visibilité (Visibility Language) — la langue dans laquelle les questions seront posées au modèle. C'est un paramètre important : la même marque peut rencontrer un environnement concurrentiel différent selon la langue des prompts. Le modèle construit un champ associatif distinct pour chaque langue : des marques qui dominent dans une langue peuvent céder leur position à d'autres concurrents dans une autre. Pour les marques internationales, une étude séparée est recommandée pour chaque langue du marché cible.
2. Construction du corpus de questions
Ensuite le corpus de scénarios est assemblé : certains vérifient l'apparition naturelle de la marque, d'autres aident à comprendre la réputation et le caractère de la réponse du modèle.
3. Calcul du score principal
Le score principal repose uniquement sur les scénarios neutres, où la marque doit gagner sa place par la réponse du modèle elle-même. Séparément sont calculés le score diagnostique (par mentions directes), le renforcement web (différence entre réponse de mémoire et réponse avec recherche) et l'intervalle de confiance du résultat.
4. Explication et rapport
Enfin, nous traduisons l'ensemble des réponses en un rapport lisible : le score final, sa stabilité, les forces de la marque et les zones de croissance.
Comment le score est calculé et interprété
Le saut entre une visibilité faible et une couche médiane crédible est spectaculaire : la marque existe à peine pour le modèle ou apparaît déjà dans une partie des réponses. Le saut entre une visibilité forte et une quasi-domination est plus difficile. C'est pourquoi nous utilisons une transformation logarithmique.
Corpus et notation
Couche principale
| Famille | Ce qu'elle vérifie |
|---|---|
| Expertise | Le modèle détecte-t-il des signaux d'autorité dans le domaine de la marque ? |
| Comparaison d'options | La marque tient-elle dans les questions comparatives sans indication de nom ? |
| Exigences de l'acheteur | Question family inside the core corpus. |
| Customer Expert | Question family inside the core corpus. |
| Exploration de l'acheteur | Question family inside the core corpus. |
| Tâche à accomplir de l'acheteur | Question family inside the core corpus. |
| Customer Migration | Question family inside the core corpus. |
| Customer Pain | Question family inside the core corpus. |
| Compromis de l'acheteur | Question family inside the core corpus. |
| Recherche de solution | Le modèle nomme-t-il la marque quand l'utilisateur commence tout juste à chercher ? |
| Classements de catégorie | À quel point le modèle place-t-il la marque dans un classement explicite de catégorie ? |
| Liste restreinte | La marque entre-t-elle dans la liste restreinte quand l'utilisateur est prêt à comparer ? |
| Confiance | Le modèle associe-t-il la marque à la fiabilité et au choix judicieux ? |
Pondérations du score principal
| Métrique | Ce qu'elle montre | Poids |
|---|---|---|
| Taux de mention | À quelle fréquence la marque apparaît dans les réponses | 28.0% |
| Taux Top-3 | À quelle fréquence la marque est dans la partie supérieure de la réponse | 14.0% |
| Taux Top-1 | À quelle fréquence la marque est nommée en premier | 10.0% |
| Position moyenne | Position moyenne de la marque dans les réponses | 15.0% |
| Couverture des requêtes | Dans quelle proportion de scénarios la marque apparaît | 18.0% |
| Part dans les réponses | À quelle fréquence la marque est mentionnée dans le texte de la réponse | 10.0% |
| Part textuelle | Quelle proportion du texte de la réponse porte sur la marque | 5.0% |
Couche diagnostique
Cette couche ne remplace pas le score principal. Elle explique ce qui se passe lorsque la marque est déjà nommée, directement comparée ou discutée en termes de réputation.
| Famille | Ce qu'elle vérifie |
|---|---|
| Choix alternatifs | La marque est-elle rappelée comme alternative à une solution déjà nommée ? |
| Réputation de marque | Comment le modèle décrit-il la marque quand le nom est déjà donné ? |
| Comparaison directe | Que se passe-t-il dans une comparaison directe avec un concurrent ? |
Pondérations du score diagnostique
| Métrique | Ce qu'elle montre | Poids |
|---|---|---|
| Taux de recommandation | Proportion de réponses avec recommandation explicite de la marque | 30.0% |
| Force de recommandation | Avec quelle conviction le modèle formule la recommandation | 25.0% |
| Centralité | Si la marque est le sujet principal de la réponse | 20.0% |
| Ton positif | Proportion de réponses au ton explicitement positif | 15.0% |
| Qualité argumentative | Si le modèle étaye la recommandation par des arguments | 10.0% |
Périmètre et limites
AI100 soumet le même corpus de scénarios à six modèles issus de quatre familles indépendantes : GPT-5.3 chat et GPT-5.4 mini (OpenAI), Gemini 2.5 Pro et Gemini 2.5 Flash (Google), Grok 4.1 Fast (xAI) et DeepSeek V3.2. Chaque modèle répond selon deux modes : en s'appuyant uniquement sur ses connaissances internes, et avec le renfort de sources web. Le score final agrège les réponses des six modèles — cela réduit la dépendance aux particularités d'un modèle en particulier.
Ces six modèles couvrent environ 93 % des utilisateurs gratuits d'assistants IA dans le monde. L'ensemble est fixe et identique pour tous les clients : chacun reçoit la même mesure multi-modèle, de sorte que les résultats entre marques peuvent être comparés directement. Microsoft Copilot est couvert automatiquement via les emplacements OpenAI (Copilot utilise GPT-5.x en production).
Ce que mesure AI100
- La naturalité avec laquelle la marque apparaît dans les réponses neutres de l'IA au sein de sa catégorie.
- La position de la marque dans la réponse et si les sources web la renforcent.
- Dans quelles familles de questions la marque disparaît et où elle apparaît plus forte que les concurrents.
Ce que ne mesure pas AI100
- Les ventes, la conversion, la force de l'équipe marketing ou la qualité du produit en eux-mêmes.
- Tous les modèles de langage existants. AI100 fige un ensemble de six modèles couvrant environ 93 % des utilisateurs gratuits d'assistants IA dans le monde — suffisant pour des mesures fiables de la visibilité de marque grand public, mais pas pour des conclusions sur des modèles de niche spécifiques.
- Une vérité absolue sur le marché. Toute mesure dépend de la date, de la langue, de la catégorie et du corpus de questions.
Historique et feuille de route de la méthodologie
La méthodologie AI100 évolue par versions. Voici comment la formule a changé et ce qui est prévu ensuite.
Journal des modifications
| Version | Date | Ce qui a changé |
|---|---|---|
| v2026.04 | avril 2026 | Formule principale ramenée à 7 métriques ; réserve de qualité de la carte des opportunités recalculée. |
| v2026.03 | mars 2026 | Ajout de la couche de diagnostic sur les requêtes avec marque comme notation distincte. |
| v2026.02 | février 2026 | Passage à un ensemble de six modèles indépendants de familles différentes ; introduction de l'analyse cross-model. |
| v2026.01 | janvier 2026 | Nombre d'itérations bootstrap pour l'intervalle de confiance passé de 100 à 300. |
Feuille de route
| Période | Objectif |
|---|---|
| T2 2026 |
|
| T3 2026 |
|
| Plus tard |
|
Vous souhaitez voir ce que cela donne pour une vraie marque ?
Voir le rapport type