¿Te imaginas hacer una consulta en ChatGPT y que en la respuesta aparezca tu marca?
Pues eso ya está pasando.
Fíjate en la siguiente imagen:
ChatGPT recomienda DinoRANK como herramienta SEO para realizar un análisis TF*IDF.
Te prometo que no le hemos pagado para que diga eso. De hecho, ni se puede.
El motivo de que mencione nuestra marca es porque forma parte de su base de conocimiento.
¿Te gustaría conseguir lo mismo con tu proyecto?
Entonces sigue leyendo, porque en este post te explico en qué consiste el LLMO, un concepto que está muy de moda por el auge de la IA, y cómo puedes empezar a trabajarlo desde hoy mismo.
¡Empezamos!
¿Qué es un LLM y para qué sirve?
LLMs significa Large Language Models (o modelos de lenguaje de gran tamaño) y es la tecnología que utilizan las herramientas de Inteligencia Artificial como ChatGPT, Gemini, Copilot o Claude para funcionar.
Estos modelos, basados en sistemas de aprendizaje profundo (deep learning) y redes neuronales, han sido alimentados con multitud de información de todo tipo: artículos científicos, libros, webs, foros, etc.
El objetivo no es otro que aprender cómo escribimos las personas, cómo preguntamos o cómo contestamos a diferentes cuestiones en contextos diversos.
De ese modo, cuando tú entras a ChatGPT y le pides algo, el LLM que hay por detrás es capaz de entender el lenguaje que utilizas y generarte una respuesta apropiada (un artículo, un resumen, un fragmento de código o lo que tú desees) como si fuera una persona.
Y entonces, ¿cuáles son los principales modelos LLM?
Algunos de los LLMs más conocidos son:
- GPT-4, GPT-5 de OpenAI.
- Gemini 2.0, Gemini 2.5 de Google.
- Llama 3, Llama 4 de Meta.
- Claude Opus 4.1, Claude Sonnet 4 de Anthropic.
Quizá te extrañes de que no aparezca ChatGPT en esta lista. Esto es porque ChatGPT no es un LLM en sí, sino un chatbot, es decir, la interfaz que permite a los usuarios interactuar con la IA de una manera sencilla.
ChatGPT es, por tanto, la aplicación. Por debajo utiliza los LLMs de OpenAI para generar las respuestas, al igual que hace Copilot de Microsoft.
Por otro lado, la aplicación de Gemini usa los modelos de Google y Claude.ai utiliza los de Anthropic. En este caso, los responsables han decidido llamar a la herramienta de chat igual que a los modelos, pero no dejes que eso te confunda.
En cualquier caso, verás que en muchos artículos, por simplificar, no distinguen entre interfaz y modelo. Así, por ejemplo, hablan de ChatGPT como si fuera el LLM, pero tú ya sabes diferenciarlos y eso te permitirá comprender mejor cómo utilizarlos.
¿Cómo funcionan los LLMs?
Ahora toca ponerse un poco más técnico. Pero no te preocupes, intentaré no liarte con conceptos raros y contarte cómo funciona un LLM de la manera más sencilla de la que sea capaz.
Fase 1: entrenamiento
Para que un modelo de IA pueda responderte a todo aquello que le preguntes, antes debe ser alimentado con cantidades ingentes de datos: libros, artículos, hilos de Reddit, blogs de recetas, papers científicos y un montón de fuentes más.
Toda esa información, una vez procesada, forma lo que llamamos el corpus del LLM.
Esta fase se llama entrenamiento y es carísima. Dura semanas o meses y requiere unos ordenadores superpotentes.
Fase 2: inferencia
Una vez entrenado, el LLM ya está listo para responder preguntas, escribir textos, hacer sugerencias, etc. Esto se llama inferencia y es lo que ocurre cada vez que tú interactúas con la IA, dándole unas instrucciones, un contexto o corrigiéndole cuando no te gusta lo que te devuelve.
Ahora bien, para crear esta respuesta, el LLM debe procesar tu prompt.
El prompt es dividido en trozos más pequeños llamados tokens.
Estos tokens se emparejan con elementos del modelo, se calculan las relaciones semánticas y se van prediciendo nuevos tokens que compondrán la respuesta final.
Fase 3: búsqueda de información actual
El LLM solo conoce lo que ha aprendido hasta su última actualización. Por ejemplo, en el caso de GPT-5, tiene información hasta junio de 2024.
¿Qué pasa entonces si le preguntas por algo reciente?
Supongo que ya sabes la respuesta: lo busca en Internet.
Esta técnica se conoce con el nombre de RAG (Retrieval-Augmented Generation) y no es sino el proceso que permite a los LLMs complementar la información de su corpus con los datos de una fuente externa.
De manera sencilla, lo que hace el RAG es esto:
- Detecta que tu pregunta necesita información nueva o específica.
- Descompone tu prompt y lo transforma en varias consultas, que lanza de manera simultánea a Internet. Es lo que se llama query fan-out.
- Recupera los textos más relevantes, los filtra, los resume y se los pasa al modelo.
- Y con eso, genera la respuesta final.
Así, aunque el modelo “base” esté entrenado hasta cierta fecha, puede actualizarse sobre la marcha si tiene acceso a fuentes externas.
¿Qué es el SEO para LLM? ¿Qué significa LLMO?
LLMO viene de “Large Language Model Optimization” y consiste en optimizar tus contenidos para que sean comprendidos correctamente por los modelos de IA y, de esta manera, puedan aparecer como parte de las respuestas que generan.
Vendría a ser como el SEO, pero para los modelos de lenguaje.
Y eso incluye tener presencia tanto en su entrenamiento como en la búsqueda de información cuando utilizan su modo RAG.
¿LLMO y GEO son lo mismo?
No, no lo son. Aunque es cierto que muchas veces se utilizan para referirse al mismo concepto, el SEO para IA, no se refieren exactamente a lo mismo.
GEO (Generative Engine Optimization) consiste en optimizar tu contenido para los motores generativos. Piensa en Perplexity, en las AI Overviews o en ChatGPT cuando se conecta a Internet. El objetivo es que tu web aparezca citada como fuente en las respuestas generadas por estas plataformas.
Sin embargo, el LLMO va más allá del motor de búsqueda. Aquí el objetivo es estar presente en cualquier respuesta generada por el modelo, aunque no haya una citación directa a tu web.
¿Cuál es la diferencia entre SEO tradicional y LLMO?
SEO y LLMO difieren tanto en su propósito como en la plataforma a la que se orientan.
El SEO tradicional se centra en los motores de búsqueda como Google o Bing. El objetivo es que tu web aparezca lo más arriba posible en el listado de resultados para conseguir el mayor número de clics.
En cambio, el LLMO trabaja la optimización para modelos de lenguaje. La idea es estar en la respuesta que da una IA cuando alguien pregunta algo, ya sea mediante una citación a la fuente, una mención a nuestra marca o una recomendación de nuestro producto, por ejemplo.
¿Cómo optimizar para LLMs? Guía de buenas prácticas con ejemplos
Llegados a este punto, quizá estés empezando a pensar que esto del LLMO es demasiado complejo. Modelos de lenguaje, redes neuronales, inteligencia artificial,.. Todo suena demasiado técnico y quizá por eso asuste un poco enfrentarse a ello.
Déjame tranquilizarte. Lo cierto es que la optimización SEO para LLMs se basa en una serie de pautas que casi todo el mundo puede aplicar en su sitio web.
No necesitas ser programador, ni tener una ingeniería para trabajar el LLMO. Si ya hacías SEO verás que muchas cosas son similares y que otras tan solo requieren un poquito de cuidado y sentido común.
Vamos a verlo.
1. Estructura tus contenidos de forma clara
Los LLMs necesitan procesar y comprender tus textos. Por eso, si utilizas una estructura lógica y jerárquica, junto con un formato escaneable, facilitarás mucho su trabajo.
- Usa encabezados (<h2>, <h3>,…) para dividir bien los bloques temáticos.
- Destaca palabras clave o ideas clave en negrita.
- Utiliza las listas con viñetas o números.
- Incluye tablas o comparativas si tienes varios elementos que contrastar.
- Evita los párrafos largos: 3 ó 4 líneas por bloque como máximo suele ser una buena aproximación.
Por otro lado, ¿te has fijado en los bullet points que solemos colocar al inicio de nuestros posts?
Son una buena práctica que no solo ayudan al lector a saber si le va a interesar o no el contenido, sino que también le dan al modelo una idea rápida de lo que puede encontrar y qué partes usar si tiene que citarte o resumirte.
2. Utiliza formatos de pregunta-respuesta
Si estructuras tus páginas en forma de preguntas y las contestas a continuación estarás ofreciendo a los modelos del lenguaje justo la información que necesitan para responder a los usuarios.
Si analizas los títulos de este mismo post verás que esto es precisamente lo que hemos intentado hacer.
Ten en cuenta que la interacción con la IA suele ser muy conversacional, por lo que cuanto más nos ajustemos a ese formato, más probable es que nuestros contenidos formen parte de los resultados que ofrece.
¿No se te ocurre qué preguntas puedes incluir en tus contenidos?
No me lo creo. Pero si es así, siempre puedes inspirarte en las preguntas frecuentes de Google.
3. Responde a la intención de búsqueda lo antes posible
No marees y ve al grano. No pongas contexto innecesario, ni te lies con historias que no vienen a cuento.
Porque si el lector humano se cansa rápido, el modelo seguramente considere que tu información es de poco valor si no le das lo que busca en las primeras líneas.
Intenta responder siempre en el primer párrafo, o mejor en la primera frase. Luego ya, si quieres, desarrollas, matizas o amplías la información. Pero la respuesta principal tiene que estar arriba.
Mira estos dos ejemplos para la pregunta “¿Qué es el SEO On-Page?”:
- El SEO On-Page es el conjunto de optimizaciones que se aplican dentro de una página web para mejorar su posicionamiento en buscadores.
- El SEO, o Search Engine Optimization, es una práctica cada vez más común en el marketing digital. Desde que los motores de búsqueda existen, los profesionales han buscado formas de mejorar su presencia online. Existen muchos tipos de estrategias SEO, bla, bla, bla …
¿Con cuál crees que se quedará la IA y cuál desechará?
4. Enriquece tus contenidos con entidades relacionadas
Para que un LLM entienda tus contenidos y pueda usarlos en sus respuestas, debes darle contexto semántico y, para ello, usar sinónimos, conceptos relacionados, ejemplos, etc.
En este punto, juegan un papel muy relevante las entidades, que ya eran utilizadas por Google, pero que ahora con los LLMs adquieren más importancia si cabe.
Las entidades son términos que tienen un significado claro y reconocido dentro de una base de conocimiento. Por ejemplo:
- “Google” es una entidad (empresa).
- “SEO” es una entidad (disciplina).
- “PageRank” es una entidad (algoritmo).
¿Recuerdas el tema de los tokens que comentamos antes?
Pues bien, la combinación de varios tokens puede dar lugar a entidades, que el modelo puede entender y relacionar entre sí. En la siguiente imagen creo que se ve bastante bien esta idea:
De este modo, cuantas más de estas entidades relevantes incluyas en tu contenido, más claro le queda al modelo de qué estás hablando.
5. Incluye citas, ejemplos y estadísticas
Si te apoyas en datos reales y concretos aumentas las probabilidades de que un LLM te considere una fuente fiable al generar sus respuestas.
Porque cuando el modelo escanea tu contenido, identifica que no estás divagando, sino que te apoyas en hechos, nombras entidades relevantes y sabes de los que hablas.
Y eso, a nivel práctico, se traduce en usar ejemplos claros, estadísticas relevantes o citas con fuentes. Mira, por ejemplo, este fragmento de nuestro post sobre cómo posicionar en las AI Overviews.
Además, si aportas tu experiencia personal con casos reales y demostrables, que apoyen lo que estás contando, estarás reforzando tu autoridad como experto en la materia y es muy probable que la IA te acabe citando en determinadas ocasiones.
6. Emplea lenguaje natural
Escribe como si hablaras. De manera correcta, eso sí, pero sin tecnicismos, ni frases enrevesadas.
Recuerda que los modelos de lenguaje necesitan entender lo que dices, pero también cómo lo dices, para poder dar respuestas lo más naturales posibles.
Por eso, funcionan mejor cuando el lenguaje es claro y directo, ya que les resulta más sencillo dividir las frases en tokens coherentes, asociar esos tokens a entidades y entender el significado global de todo el texto.
Te pongo un ejemplo para que entiendas mejor a lo que me refiero:
- “El PageRank constituye uno de los pilares fundamentales del ecosistema algorítmico de Google para la jerarquización de los resultados de búsqueda.”
- “El PageRank es uno de los sistemas que usa Google para decidir qué páginas muestra primero cuando buscas algo.”
En definitiva, cuando escribas algo, léelo dos o tres veces y, si hace falta, pásaselo a tu hermano a ver si lo entiende.
7. Utiliza datos estructurados
Si queremos que la IA interprete nuestro contenido sin lugar a errores podemos usar metadatos o datos estructurados tipo Schema.org para informarle sobre los puntos fundamentales. Echa un vistazo al siguiente ejemplo:
Le estamos diciendo al modelo, a través de un formato legible para máquinas, cosas como:
- “Esto es un artículo de blog.”
- “Se trata de una guía para aparecer en ChatGPT.”
- “Se ha publicado recientemente”
- “El autor es Eduard Coromina, que forma parte de DinoRANK”
De este modo, además de facilitar al modelo la interpretación del contenido, ya estás identificando entidades desde un primer momento, por lo que tus textos serán también más fáciles de reutilizar e integrar en las respuestas de la IA.
8. Refuerza tu EEAT
Para que los LLMs te tengan en cuenta, deben poder fiarse de ti y de tus contenidos. Y para ello, tienen muy presente lo que otros dicen de ti.
En el mundo SEO, Google lleva ya tiempo hablando y valorando el tema del EEAT. Ahora, con los modelos de lenguaje, este concepto cobra todavía más peso.
Por ejemplo, si ChatGPT ve que DinoRANK aparece en artículos de blogs de SEO, en comparativas de software, en podcasts de SEO local o en foros temáticos, seguramente asuma que es relevante cuando alguien pregunta por herramientas de SEO.
Por eso, necesitas estar presente en los lugares que el modelo considera contextualmente significativos para tu sector. De esa manera será más probable que te tome como fuente de autoridad, ya sea para usar tu contenido o para citarte en sus respuestas.
- Directorios especializados del sector.
- Foros o comunidades temáticas.
- Webs de nicho o blogs con autoridad.
- Entrevistas, podcasts, webinars.
- Redes sociales.
9. Actualiza tus contenidos con regularidad
A los LLMs les gusta la información fresca. Y más aún si están conectados a la web o utilizan sistemas de recuperación como RAG.
Piénsalo por un momento:
¿De qué le vale a un LLM un contenido que es igual que lo que ya tiene en su corpus? ¿O para qué quiere procesar un texto que ya está desfasado?
Por eso:
- Revisa al menos cada 6 meses los contenidos clave de tu web.
- Si haces un cambio relevante, actualiza la fecha de publicación o modificación.
- Añade nuevos ejemplos, estadísticas o capturas de pantalla actualizadas.
- Comprueba que los enlaces externos sigan funcionando.
De este modo es mucho más probable que un LLM confíe en ti como fuente para generar una respuesta.
10. Trabaja el SEO de tu sitio web
El LLMO no sustituye al SEO, sino que ambos se complementan.
Ya hemos visto que cuando el modelo no tiene datos actualizados sobre un tema utiliza el modo RAG para conectarse a Internet y consultar nuevas fuentes que le permitan complementar su información.
¿A qué sitios web crees que accederá en busca de esta nueva información?
Exacto, a los que estén mejor posicionados en los buscadores.
Debes tener en cuenta que la mayoría de los modelos de IA utilizan la API de Google o la de Bing para acceder a Internet, por lo que todas las estrategias SEO que conocíamos hasta ahora siguen estando vigentes.
Y por eso, si tu web no está optimizada para SEO es muy difícil (te diría que casi imposible) que consigas ser visible en las respuestas generadas por IA.
Checklist SEO para LLMs
Espero que ahora ya tengas bastante más claro qué es eso del LLMO y cómo puedes aplicarlo a tu proyecto.
En cualquier caso, para facilitarte todavía más las cosas, a continuación te dejo una recopilación de las acciones que hemos ido viendo para que las tengas más a mano.
- Organiza tus contenidos con títulos claros, usando <h2>, <h3>, etc.
- Pon en negrita las ideas importantes para que salten a la vista.
- Usa listas con viñetas o números: facilitan muchísimo el escaneo.
- Explica las cosas con frases cortas, claras y sin rodeos.
- Evita los tecnicismos si no hacen falta.
- Organiza tus textos en preguntas y respuestas para dar un enfoque más conversacional.
- Responde justo debajo de la pregunta. Sin rodeos.
- Escribe como hablas: usa un lenguaje directo y natural.
- No te líes con párrafos eternos que no dicen nada.
- Menciona marcas, nombres conocidos o conceptos que cualquiera del sector reconozca.
- Emplea sinónimos, variantes, ejemplos. Dale contexto.
- Explica con ejemplos concretos, no con teorías.
- Añade experiencias reales, cosas que te hayan pasado a ti o a tu equipo.
- Cita fuentes fiables y menciona a personas que sepan de lo que hablan.
- Si puedes, añade schema.org a tus contenidos.
- Asegúrate de que tu nombre (o tu marca) aparece en sitios donde debería estar: entrevistas, directorios, listados del sector, etc.
- Participa en podcasts, foros o comunidades donde se hable de lo tuyo.
- Que hablen bien de ti en redes también ayuda.
- No dejes que tu contenido se quede desfasado: revísalo cada medio año como mínimo.
- Y como siempre, no descuides el SEO.
Mi recomendación es que te imprimas esta lista y la tengas siempre a mano cuando trabajes la optimización de tu página web.
Si lo aplicas, poco a poco verás cómo tus contenidos no solo posicionarán en Google, sino que además tendrán muchas papeletas de aparecer en herramientas como ChatGPT, Gemini o Claude.
Y eso, en el momento actual, es un escaparate increíble que no deberías desatender.