Cómo ChatGPT, Claude y Perplexity eligen qué citar

Las citas de IA modelos no son aleatorias. Según una investigación de NetRanks publicada en 2026, solo el 38% de los resultados #1 de Google aparecen citados en ChatGPT, y apenas el 22% en Perplexity. El factor que más predice si tu marca aparece no son los backlinks ni el SEO técnico: es el volumen de búsqueda de marca, con una correlación de 0.334.

En 30 segundos

  • El 94% de compradores B2B usa ChatGPT, Claude o Perplexity para evaluar proveedores en 2026, según datos de NetRanks.
  • ChatGPT cita Wikipedia en el 47.9% de los casos; Perplexity prioriza Reddit (46.7%); Claude favorece argumentación técnica profunda.
  • Solo el 11% de dominios aparece en ambas plataformas simultáneamente.
  • El 87% de lo que las IA dicen sobre una marca viene de fuentes externas, no del dominio propio.
  • Marcas con presencia en 4 o más plataformas tienen 2.8 veces más probabilidad de aparecer citadas.

Claude es un modelo de lenguaje grande desarrollado por Anthropic que genera texto y proporciona asistencia conversacional, análisis y programación. Fue lanzado públicamente en 2023.

¿Qué son las citas de IA modelos y por qué importan?

Una cita de IA es cuando ChatGPT, Claude o Perplexity mencionan o referencian una marca, empresa o sitio web al responder una consulta. No es lo mismo que aparecer en Google: en Google competís por posición en una lista. En una respuesta de IA, o existís en la respuesta o no existís. No hay segundo lugar.

El número que realmente cambia la perspectiva: el 94% de compradores B2B ya usa estos modelos para investigar proveedores, según el análisis de NetRanks de 2026. Si alguien le pregunta a ChatGPT “qué plataforma de email marketing me recomendás para una empresa mediana”, la respuesta va a citar dos o tres marcas. Si la tuya no está entre ellas, esa venta potencial ni siquiera te llegó a visitar.

La diferencia estructural con Google es importante. Google rastrea y rankea páginas. Los LLM combinan conocimiento de entrenamiento con RAG (Retrieval-Augmented Generation), lo que les permite traer información fresca al generar la respuesta. Según el análisis de Ahrefs sobre citaciones de LLM, el mecanismo de recuperación varía por plataforma, lo que explica por qué las mismas marcas no aparecen en todas.

Cómo ChatGPT, Claude y Perplexity seleccionan fuentes

Cada plataforma tiene un mecanismo diferente. No es un detalle menor: define qué tipo de contenido tenés que crear para aparecer en cada una.

ChatGPT

Usa Bing como motor de búsqueda para las consultas en tiempo real. Su base de conocimiento tiene fecha de corte, pero cuando tiene acceso a internet tira de Bing. El resultado: Wikipedia aparece en el 47.9% de sus citas. Es el modelo más influenciado por autoridad de dominio histórica y presencia en fuentes de referencia consolidadas.

Claude

Tiene corte de conocimiento en febrero de 2025 (para la versión disponible en 2026). No crawlea en tiempo real en su versión base. Lo que lo distingue es el criterio de selección: Claude prioriza precisión, definiciones claras y profundidad técnica. Si tu contenido es superficial o ambiguo en los términos que usa, Claude lo descarta.

Perplexity

Es el más “vivo” de los tres: crawlea en tiempo real y cita fuentes actuales. Reddit aparece en el 46.7% de sus citas. También cita más fuentes primarias (NIH, PubMed) y directorios B2B con autoridad. El contenido fresco, de 6 a 18 meses de antigüedad, tiene clara preferencia frente a contenido más viejo. Ya lo cubrimos antes en la influencia de la regulación en IA.

¿Y qué tienen en común los tres? El mecanismo RAG. Recuperan fragmentos relevantes de texto basándose en similitud semántica con la consulta, los meten como contexto, y el modelo genera la respuesta desde ahí. Lo que no aparece en ese contexto recuperado no existe para el modelo en ese momento.

Los 4 factores principales que deciden qué marca citar

Acá viene lo concreto. Según el análisis de Discovered Labs sobre patrones de citación, estos son los cuatro predictores más fuertes:

1. Volumen de búsqueda de marca

Correlación de 0.334 con la frecuencia de citas. Es el predictor individual más fuerte, por encima de backlinks y domain authority. La lógica es circular pero real: si mucha gente busca tu marca, hay más contenido sobre vos en internet, y los LLM tienen más material desde donde citarte. Construir brand awareness no es una estrategia “soft”: es infraestructura para la visibilidad en IA.

2. Domain authority y confianza histórica

Los dominios con autoridad construida a lo largo del tiempo siguen teniendo ventaja. No es tan determinante como el volumen de marca, pero filtra hacia afuera a sitios recién creados o con poca historia de citas externas.

3. Presencia multiplataforma

Las marcas presentes en 4 o más plataformas tienen 2.8 veces más probabilidad de aparecer citadas. Específicamente: estar en Quora y Reddit multiplica las citas por 4; tener perfil en G2, Capterra o Trustpilot las multiplica por 3. La presencia no es tu propio dominio: es dónde hablan de vos.

4. Frescura del contenido

El rango preferido es de 6 a 18 meses de antigüedad. Demasiado nuevo y los LLM no lo tienen en su base; demasiado viejo y Perplexity (que crawlea en tiempo real) lo ignora. Perplexity en particular favorece contenido reciente con datos verificables.

El sesgo oculto: por qué no todas las marcas aparecen igual

Ponele que tenés un sitio web prolijo, con buen SEO, bien optimizado. ¿Eso garantiza que los LLM te citen? No.

Un paper publicado en PNAS en 2026 documentó un sesgo IA-IA: los LLM tienden a favorecer contenido generado por otros LLM sobre contenido humano original. Es un loop preocupante porque si el contenido que más se cita es el que ya suena “como IA”, el ecosistema se retroalimenta en una dirección que puede degradar la calidad general de las fuentes (spoiler: nadie tiene todavía una solución clara para esto). Tema relacionado: rendimiento técnico de Claude documentado.

Otro dato que sorprende: el 87% de lo que una IA dice sobre tu marca viene de fuentes externas, no de tu propio dominio. Tu sitio web aporta apenas el 13% del contexto desde el que hablan de vos. Lo que escriben de vos en Reddit, en reseñas, en artículos de terceros, en directorios, en foros, pesa seis veces más que lo que vos decís de vos mismo.

Y la volatilidad es real. Reddit cayó del 60% al 10% de frecuencia de citas en Perplexity en apenas 6 semanas, después de un cambio en los parámetros de rastreo de Google. Un cambio en la plataforma puede borrar la visibilidad que construiste en meses.

Diferencias clave: Reddit domina Perplexity, Wikipedia en ChatGPT, precisión en Claude

Reddit es la fuente #1 a nivel global con el 40.1% de frecuencia de citas. Pero ese número es un promedio que esconde diferencias grandes por plataforma. Según el ranking de sitios más citados publicado por Visual Capitalist, la distribución es así:

PlataformaFuente #1PorcentajeCaracterística principal
ChatGPTWikipedia47.9%Prioriza autoridad histórica, usa Bing
PerplexityReddit46.7%Cita tiempo real, favorece fuentes primarias
ClaudeFuentes técnicasN/DRequiere profundidad y definiciones claras
Google AI OverviewsMixtoVariableFavorece dominios con autoridad E-E-A-T

Solo el 11% de dominios aparece en ambas plataformas al mismo tiempo. Eso significa que si estás optimizando para aparecer en ChatGPT, no estás necesariamente optimizando para Perplexity. Son estrategias que se superponen pero no son idénticas.

Para Claude en particular, la diferencia es cualitativa: no basta con mencionar el tema, hay que definirlo bien. Si tu contenido usa términos ambiguos, no desarrolla los argumentos y no cita fuentes, Claude lo filtra. El modelo prioriza textos donde los conceptos están explicados, los datos están atribuidos y la estructura lógica es clara.

Cómo monitorear tu visibilidad en IA search

El problema con la visibilidad en LLM es que no tenés un Search Console que te diga cuántas veces te citaron. Por eso en 2026 empezaron a surgir herramientas específicas:

  • Rankscale: monitorea frecuencia de citaciones por plataforma y keyword
  • LLMrefs: rastrea menciones de marca en respuestas de LLM
  • AEO Grader (HubSpot): audita si tu contenido está estructurado para ser citado por IA
  • Metricus: métricas de visibilidad en IA search con histórico

Lo que hay que medir va más allá del “aparecés o no aparecés”: la frecuencia por plataforma, la posición en la respuesta (primer párrafo vs. mención al final), el contexto de la cita (¿te mencionan como recomendación o como ejemplo de lo que no funciona?). Ese contexto importa tanto como la frecuencia.

Estrategia práctica para aumentar citas de IA

Ninguna de las siguientes tácticas funciona sola. La combinación es lo que genera el efecto compuesto: Te puede servir nuestra cobertura de diferencias clave entre LLMs principales.

Crear contenido con estadísticas originales sube la visibilidad un 30-40% según el análisis de NetRanks. Los LLM favorecen fuentes que producen datos que otros no tienen. Si hacés una encuesta, publicás un benchmark o analizás datos propios, eso es material que los modelos quieren citar.

Usar data-backed insights (datos con fuente atribuida dentro de tu propio contenido) aumenta la probabilidad de ser citado un 22%. Básicamente, si vos citás bien, los LLM te citan a vos.

Incluir referencias verificables en el contenido sube la chance de cita un 37%. No es solo agregar links: es que el texto mismo tenga la estructura de un argumento con evidencia.

Optimizá para el canal correcto. Si tu audiencia está en Perplexity (tech, investigación), necesitás contenido fresco con citas primarias. Si el objetivo es ChatGPT, construir presencia en Wikipedia y dominios de referencia es más relevante. Para Claude, el trabajo es estructural: definiciones claras, argumentación sin lagunas, términos bien delimitados.

Y el factor más difícil de construir pero el más poderoso: el volumen de búsqueda de marca. Si querés que los LLM te citen, necesitás que la gente te busque. Las campañas de awareness, la presencia en eventos, los artículos de terceros que mencionan tu marca, todo eso construye el predictor #1 de visibilidad en IA.

Qué está confirmado / Qué no

AfirmaciónEstado
El volumen de búsqueda de marca es el predictor #1 de citas (correlación 0.334)Confirmado — NetRanks 2026
Solo el 11% de dominios aparece en ChatGPT y Perplexity simultáneamenteConfirmado — análisis Discovered Labs
El 87% del contexto sobre una marca viene de fuentes externasConfirmado — múltiples análisis 2026
Sesgo LLM hacia contenido generado por LLMConfirmado — paper PNAS 2026
Estrategias de contenido pueden garantizar citaciónNo confirmado — aumentan probabilidad, no la garantizan
Los cambios de parámetros de Google afectan citas en PerplexityObservado — pendiente confirmación sistemática

Errores comunes al intentar aparecer en respuestas de IA

Error 1: Optimizar solo para el propio dominio. Si todo el esfuerzo va al sitio web propio y no hay trabajo de presencia externa (reseñas, menciones, perfiles en directorios, participación en foros), el 87% del contexto que usan los LLM está vacío. La estrategia tiene que incluir plataformas externas desde el día uno.

Error 2: Tratar la visibilidad en IA como si fuera SEO tradicional. Los backlinks importan menos que el volumen de marca. El ranking en Google no se traduce directamente en citas de LLM (solo el 38% del top 1 de Google aparece en ChatGPT). Son canales con lógicas distintas que requieren estrategias distintas, aunque se superponen. Para más detalles técnicos, mirá competencia entre ChatGPT y Claude.

Error 3: Ignorar la diferencia entre plataformas. Un contenido optimizado para aparecer en ChatGPT no es el mismo que el optimizado para Perplexity o Claude. Si mandás el mismo artículo genérico a todos, no estás optimizado para ninguno. Hay que entender qué plataforma usa la audiencia objetivo y ajustar la estrategia de contenido en consecuencia.

Error 4: No medir. Sin herramientas como Rankscale o LLMrefs, no sabés si tu visibilidad mejoró o empeoró después de un cambio. La volatilidad documentada (Reddit de 60% a 10% en 6 semanas) muestra que los patrones cambian rápido. Sin monitoreo, tomás decisiones a ciegas.

Preguntas Frecuentes

¿Cómo seleccionan las IA qué fuentes citar?

Cada plataforma usa un mecanismo distinto. ChatGPT recupera información vía Bing y favorece fuentes con autoridad histórica como Wikipedia. Perplexity crawlea en tiempo real y prioriza Reddit y fuentes primarias como NIH o PubMed. Claude no recupera en tiempo real en su versión base y selecciona texto con argumentación clara, definiciones precisas y profundidad técnica. En todos los casos, el sistema RAG recupera fragmentos relevantes que el modelo usa como contexto para generar la respuesta.

¿Qué hace que mi marca aparezca en ChatGPT o Perplexity?

El predictor individual más fuerte es el volumen de búsqueda de marca (correlación 0.334). Después viene la presencia en múltiples plataformas externas: marcas en 4 o más plataformas tienen 2.8 veces más probabilidad de ser citadas. Tener perfil en G2, Capterra o Trustpilot multiplica por 3 las citas; presencia en Quora y Reddit las multiplica por 4. El 87% del contexto que usan los LLM sobre una marca viene de fuentes externas, no del propio dominio.

¿Por qué Claude cita fuentes diferentes que ChatGPT?

Claude tiene criterios de selección centrados en precisión técnica y argumentación estructurada, no en popularidad o autoridad histórica de dominio. ChatGPT usa Bing y favorece fuentes consolidadas como Wikipedia (47.9% de sus citas). Claude descarta contenido ambiguo o superficial independientemente del domain authority. El resultado es que los dos modelos citan universos de fuentes con solo un 11% de superposición.

¿Cuál es el factor más importante para que me citen los LLM?

Según el análisis de NetRanks 2026, el volumen de búsqueda de marca es el predictor más fuerte, con una correlación de 0.334, por encima de backlinks y domain authority. Crear contenido con estadísticas originales sube la visibilidad un 30-40%; incluir referencias verificables dentro del propio contenido aumenta la probabilidad de cita un 37%. No existe una sola táctica: la combinación de brand awareness, presencia multiplataforma y contenido bien estructurado es lo que genera el efecto.

¿Es realmente importante aparecer en respuestas de IA?

El 94% de compradores B2B usa ChatGPT, Claude o Perplexity para investigar proveedores en 2026. A diferencia de Google, donde podés estar en la posición 3 o 5, en una respuesta de LLM o existís en la respuesta o no existís. La visibilidad en IA search ya no es una apuesta a futuro: es donde está pasando la evaluación de proveedores para una parte significativa del mercado B2B.

Conclusión

La investigación de NetRanks y los análisis complementarios de 2026 confirman algo que muchos intuían pero pocos habían medido: la visibilidad en LLM sigue reglas distintas al SEO tradicional, y el dominio propio no es el centro de gravedad. El 87% del contexto desde el que te citan viene de afuera. El predictor más fuerte no son los backlinks sino cuánta gente busca tu marca.

Lo que cambia con esto es la forma de pensar la estrategia de contenido. No alcanza con tener un buen sitio web optimizado; hay que construir presencia en el ecosistema externo donde los LLM rastrean: directorios, reseñas, foros, menciones en medios. Y hay que hacerlo entendiendo que ChatGPT, Perplexity y Claude tienen criterios distintos, audiencias distintas, y no van a citarte a todos igual.

Si trabajás en marketing B2B o manejás la presencia digital de una empresa, medir la visibilidad en IA search ya debería ser parte del dashboard mensual, no un experimento opcional.

Fuentes

Desplazarse hacia arriba