10 de febrero de 2026
Un análisis independiente ha examinado más de 1.500 respuestas generadas por sistemas de inteligencia artificial en 51 ciudades españolas para entender qué patrones se repiten cuando estas tecnologías recomiendan clínicas sanitarias, un proceso que cada vez influye más en decisiones de búsqueda local.
El uso de sistemas de inteligencia artificial generativa como fuente de información local no ha dejado de crecer. Cada vez más personas formulan preguntas directas a herramientas como ChatGPT, Gemini o Perplexity para informarse sobre servicios locales, entre ellos clínicas y centros sanitarios.
A pesar de este cambio de hábitos, apenas existe documentación pública que explique cómo estos sistemas organizan la información cuando responden a las solicitudes de recomendación. Este estudio parte precisamente de ese vacío y aborda el fenómeno desde un enfoque descriptivo, centrado en la estructura real de las respuestas que generan.
Estas respuestas no solo informan: configuran el primer filtro de visibilidad para muchos usuarios antes de visitar una web o comparar opciones.
El análisis se basa en 1.530 respuestas generadas por tres sistemas de inteligencia artificial —ChatGPT, Gemini y Perplexity— a partir de un protocolo fijo de diez preguntas, aplicado de forma idéntica en 51 ciudades españolas con más de 100.000 habitantes.
Las consultas se centraron en clínicas dentales, de fisioterapia y de medicina estética, tres tipologías con alta demanda en búsquedas locales. Todas las respuestas se analizaron tal y como fueron generadas, sin edición ni correcciones posteriores, lo que permite detectar patrones estructurales bajo condiciones controladas.
El estudio no valora si una clínica es mejor o peor, ni analiza su reputación, calidad asistencial o resultados clínicos. Tampoco verifica la veracidad de las afirmaciones incluidas en las respuestas ni examina los criterios internos de funcionamiento de los modelos de IA.
El análisis se limita exclusivamente a elementos observables del texto generado: la extensión de las respuestas, el uso de listas o bloques descriptivos, la presencia de advertencias o referencias externas, los cierres explicativos y el uso de la primera persona.
Uno de los patrones más claros es que la forma de preguntar condiciona más la respuesta que la clínica o la ciudad mencionada. Las preguntas abiertas o comparativas tienden a generar respuestas más largas y mejor estructuradas, mientras que cuando se pide una respuesta breve, el contenido se vuelve mucho más corto y directo.
También se observan diferencias estructurales estables entre los sistemas de IA analizados. Cada modelo presenta estilos reconocibles a la hora de organizar la información, mientras que el tipo de clínica introduce variaciones de menor peso relativo.
Los resultados describen patrones observables en un contexto concreto y en un momento determinado. No garantizan más visibilidad en sistemas de IA, no explican cómo estos toman decisiones ni ofrecen recomendaciones prácticas para clínicas o profesionales sanitarios.
Este análisis es el primero de una serie de tres estudios orientados a comprender cómo los sistemas de inteligencia artificial presentan información sobre clínicas en España, a partir de datos reales y una metodología documentada.
El estudio completo, con la metodología y los límites del análisis documentados, está disponible públicamente en el siguiente enlace: estudio sobre cómo los sistemas de IA estructuran las recomendaciones de clínicas en España.