Qué medimos

AI100 mide cuán naturalmente aparece una marca en las respuestas neutrales de IA dentro de su categoría y región. La metodología separa la capa principal de puntuación (escenarios neutrales) de la capa diagnóstica (consultas con nombre de marca) y utiliza una escala no lineal de 0 a 100.

Unidad de medición: una respuesta del modelo a un escenario de pregunta estandarizado.

Cómo funciona una ejecución

1. Preparación del marco de investigación

Primero leemos el sitio, identificamos la categoría y aclaramos con qué entorno de mercado tiene sentido comparar la marca. El usuario selecciona un idioma de visibilidad (Visibility Language): el idioma en el que se formularán las preguntas al modelo. Este es un parámetro importante: la misma marca puede encontrar un entorno competitivo diferente según el idioma de los prompts. El modelo construye un campo asociativo separado para cada idioma: marcas que dominan en un idioma pueden ceder su posición a otros competidores en otro. Para marcas internacionales se recomienda un estudio separado para cada idioma del mercado objetivo.

2. Construcción del corpus de preguntas

Luego se recopila el conjunto de escenarios: algunos verifican la aparición natural de la marca, otros ayudan a comprender la reputación y el carácter de la respuesta del modelo.

3. Cálculo de la puntuación principal

La puntuación principal se construye solo a partir de escenarios neutrales, donde la marca debe ganarse su lugar a través de la respuesta del modelo. Por separado se calcula la puntuación diagnóstica (por menciones directas), el refuerzo web (la diferencia entre respuesta de memoria y respuesta con búsqueda) y el intervalo de confianza del resultado.

4. Explicación e informe

Finalmente, traducimos el conjunto de respuestas en un informe legible: mostramos la puntuación final, su estabilidad, las fortalezas de la marca y las zonas de crecimiento.

Cómo se calcula y se lee la puntuación

El salto de visibilidad débil a una capa media creíble se siente drástico: la marca apenas existe para el modelo o ya aparece en parte de las respuestas. El salto de visibilidad fuerte a casi dominar es más difícil. Por eso usamos una transformación logarítmica.

S = 100 ×  ln(1 + r / 12) ln(1 + 100 / 12)
S — puntuación final (0–100) r — señal bruta de visibilidad (0–100) 12 — suavizador (parámetro de calibración)
0 25 50 75 100 0 25% 50% 75% 100% Señal bruta de visibilidad (r) Puntuación lineal 25% → 50 puntos
Qué significa raw. Es la señal bruta de visibilidad: con qué frecuencia aparece la marca, cuán alto se mantiene en la respuesta y cuán convincente resulta en el conjunto de escenarios neutrales.
Por qué usamos un logaritmo. El logaritmo hace que la parte inferior y media de la escala sea más sensible. Así, unas pocas respuestas afortunadas no se convierten demasiado rápido en una puntuación final alta.
Cómo leer el resultado. Un avance de 20 a 40 refleja un fortalecimiento real de la presencia. Un avance de 80 a 90 también importa, pero es mucho más difícil de lograr — y ese es exactamente el efecto que la escala no lineal busca preservar.
Intervalo de confianza. Cada resultado viene acompañado de un intervalo de confianza — el rango dentro del cual probablemente caería la puntuación si se ejecutara de nuevo el mismo corpus de preguntas. Un intervalo estrecho indica visibilidad estable; uno amplio indica que la presencia de la marca fluctúa según el escenario.
Refuerzo web. El estudio se ejecuta en dos modos: solo con el conocimiento del modelo y modelo + fuentes web. La diferencia entre ambas puntuaciones se reporta como refuerzo web. Un valor positivo significa que las fuentes web fortalecen la marca; un valor negativo significa que la debilitan.

Corpus y puntuación

Capa principal

Familia Qué verifica
Experiencia¿Detecta el modelo señales de autoridad en el dominio de la marca?
Comparación de opciones¿Se mantiene la marca en preguntas comparativas sin indicación de nombre?
Requisitos del compradorQuestion family inside the core corpus.
Customer ExpertQuestion family inside the core corpus.
Exploración del compradorQuestion family inside the core corpus.
Tarea por resolver del compradorQuestion family inside the core corpus.
Customer MigrationQuestion family inside the core corpus.
Customer PainQuestion family inside the core corpus.
Compensaciones del compradorQuestion family inside the core corpus.
Búsqueda de solución¿Nombra el modelo a la marca cuando el usuario apenas empieza a buscar?
Listas de clasificación¿Cuán alto coloca el modelo a la marca en una clasificación explícita de categoría?
Lista corta¿Entra la marca en la lista corta cuando el usuario está listo para comparar?
Confianza¿Asocia el modelo la marca con fiabilidad y elección acertada?

Pesos de la puntuación principal

Métrica Qué muestra Peso
Frecuencia de menciónCon qué frecuencia aparece la marca en las respuestas28.0%
Tasa Top-3Con qué frecuencia la marca está en la parte superior de la respuesta14.0%
Tasa Top-1Con qué frecuencia la marca es nombrada en primer lugar10.0%
Posición mediaPosición media de la marca en las respuestas15.0%
Cobertura de consultasEn qué proporción de escenarios aparece la marca18.0%
Participación en respuestasCon qué frecuencia se menciona la marca en el texto de la respuesta10.0%
Participación textualQué proporción del texto de la respuesta trata sobre la marca5.0%

Capa diagnóstica

Esta capa no sustituye la puntuación principal. Explica qué ocurre cuando la marca ya está nombrada, se compara directamente o se discute en términos de reputación.

Familia Qué verifica
Opciones alternativas¿Se recuerda la marca como alternativa a una solución ya mencionada?
Reputación de marca¿Cómo describe el modelo a la marca cuando el nombre ya está dado?
Comparación directa¿Qué ocurre en una comparación directa con un competidor?

Pesos de la puntuación diagnóstica

Métrica Qué muestra Peso
Tasa de recomendaciónProporción de respuestas con recomendación explícita de la marca30.0%
Fuerza de recomendaciónCuán convincentemente el modelo formula la recomendación25.0%
CentralidadSi la marca es el tema principal de la respuesta20.0%
Tono positivoProporción de respuestas con tono explícitamente positivo15.0%
Calidad argumentativaSi el modelo respalda la recomendación con argumentos10.0%

Alcance y limitaciones

AI100 plantea el mismo corpus de escenarios a seis modelos de cuatro familias independientes: GPT-5.3 chat y GPT-5.4 mini (OpenAI), Gemini 2.5 Pro y Gemini 2.5 Flash (Google), Grok 4.1 Fast (xAI) y DeepSeek V3.2. Cada modelo responde en dos modos: basándose únicamente en su conocimiento interno y con el apoyo de fuentes web. La puntuación final agrega las respuestas de los seis modelos, lo que reduce la dependencia de las particularidades de un solo modelo.

Estos seis modelos cubren aproximadamente el 93 % de los usuarios gratuitos de asistentes de IA en todo el mundo. El conjunto es fijo e idéntico para todos los clientes: cada uno recibe la misma medición multimodelo, de modo que los resultados entre marcas pueden compararse directamente. Microsoft Copilot queda cubierto automáticamente a través de las ranuras de OpenAI (Copilot utiliza GPT-5.x en producción).

Qué mide AI100

  • Cuán naturalmente aparece la marca en respuestas neutrales de IA dentro de su categoría.
  • Cuán alto se mantiene la marca en la respuesta y si las fuentes web la refuerzan.
  • En qué familias de preguntas la marca desaparece y dónde se ve más fuerte que los competidores.

Qué no mide AI100

  • Ventas, conversión, fuerza del equipo de marketing o calidad del producto en sí mismos.
  • Todos los modelos de lenguaje existentes. AI100 fija un conjunto de seis modelos que cubren aproximadamente el 93 % de los usuarios gratuitos de asistentes de IA en el mundo — suficiente para mediciones fiables de la visibilidad de marca en el mercado masivo, pero no para conclusiones sobre modelos específicos de nicho.
  • Una verdad absoluta sobre el mercado. Cualquier medición depende de la fecha, el idioma, la categoría y el corpus de preguntas.

Historia y hoja de ruta de la metodología

La metodología de AI100 evoluciona por versiones. Aquí se muestra cómo ha cambiado la fórmula y qué se planea a continuación.

Registro de cambios

Versión Fecha Qué cambió
v2026.04 abril de 2026 La fórmula principal pasa a 7 métricas; recalculada la reserva de calidad en el mapa de oportunidades.
v2026.03 marzo de 2026 Introducida la capa diagnóstica sobre consultas con marca como calificación separada.
v2026.02 febrero de 2026 Cambio a un grupo de seis modelos independientes de familias diferentes; introducido el análisis cross-model.
v2026.01 enero de 2026 Iteraciones bootstrap para el intervalo de confianza aumentadas de 100 a 300.

Hoja de ruta

Período Enfoque
T2 2026
  • Fijación del conjunto competitivo entre auditorías repetidas de una marca para una comparación honesta de las métricas de cuota
T3 2026
  • Ejecuciones repetidas para medir la varianza intra e interidiomática
  • Extensión del análisis cross-model a familias adicionales de modelos
Más adelante
  • Ecosistemas de distribución: cómo los modelos se apoyan en Reddit, YouTube, GitHub y tiendas de aplicaciones
  • Seguimiento longitudinal de una marca a lo largo del tiempo

¿Quiere ver cómo se ve para una marca real?

Ver informe de muestra