Ampliar
Adobe Stock Vivir | Salud «Doctor, ya he consultado con Chat GPT»: así trastoca el uso de la IA nuestra relación con el médicoAunque hay riesgo de que genere desconfianza con el especialista, lo cierto es que también permite optimizar el tiempo de las consultas, señalan los profesionales
Lunes, 16 de marzo 2026, 00:08
... la recomendación de no buscar información sobre síntomas en Google, donde todo parece derivar en una enfermedad grave, hemos empezado a hacerlo en ChatGPT y sus derivados, muchas veces alentados por la experiencia de amigos o familiares.¿Podemos concluir entonces que la IA está cambiando la forma en que nos relacionamos con nuestro médico? Existe unanimidad entre los profesionales consultados. Para la doctora Mariana Sada Echevarría, de Neleva The Healthspan Clinic, resulta evidente que la mayoría de pacientes que la visitan ha consultado antes con la IA. «Muchos llegan más informados: saben términos, han revisado posibles diagnósticos, han leído estudios…». ¿Y es bueno? «Acelera el trabajo clínico porque no siempre hay que explicar lo básico. Pero también hay más confusión y preguntas sesgadas: interpretan mal probabilidades, dan demasiada importancia a casos raros, o llegan con expectativas poco realistas».
Por su parte, Isa Guillén, jefa de la Unidad de Cartílago de Clínica CEMTRO, achaca dicha confusión a que «la IA no siempre contextualiza comorbilidades o pruebas específicas del paciente según su historia clínica, lo que puede generar malentendidos clínicos».
Entre la confianza y el miedo
¿Significa esto que la confianza médico-paciente está horadándose sin remedio? No necesariamente. «Es cierto que la IA puede generar cierta desconfianza cuando el paciente contrapone lo que ha leído con la opinión profesional (sin comprender la diferencia entre información genérica y evaluación clínica real), pero al mismo tiempo ChatGPT puede reforzar el diálogo con el médico al servir de punto de partida para debatir dudas o desmontar mitos», defiende Guillén.
De hecho, esta profesional señala otras ventajas en la exposición previa a una IA por parte del paciente: «La mayoría expresa con más claridad la cronología de su problema, la localización del dolor o la limitación funcional que le causa tras consultar definiciones o ejemplos online. Una comprensión de conceptos que facilita un diálogo más eficiente y una mayor participación en la toma de decisiones».
La doctora Echevarría apunta, en cambio, a riesgos habituales como «el autodiagnóstico erróneo, la automedicación peligrosa (especialmente importante en casos de pacientes polimedicados o con interacciones) y la ansiedad por exceso de información o proveniente de fuentes poco fiables. Por eso, es crucial que el profesional limite riesgos preguntando qué ha consultado el paciente, corrigiendo errores y dando instrucciones claras sobre no automedicarse».
En este sentido es imprescindible que los profesionales sanitarios se adapten a este nuevo perfil de paciente digital formándose adecuadamente. «Deben aprender qué hace y qué no hace la IA, enseñando al tiempo a los pacientes a usarla de forma crítica: cómo y cuándo consultar dudas, incidiendo en la identificación y el contraste de fuentes», continúa Echevarría.
¿Y puede la IA generar que vayamos más al médico? ¿O lo contrario? «El límite debe estar claro: la tecnología apoya, pero la relación humana dirige. Sí, la IA puede automatizar tareas mecánicas (informes, resúmenes, seguimiento de datos…), pero no sustituir la empatía, la exploración, la toma de decisiones basada en matices o el acompañamiento emocional, que son el núcleo de la relación terapéutica», defiende Guillén. Echevarría, por su parte, se muestra optimista porque cree que el uso de la IA «permitirá unas consultas más eficientes y centradas. Podrá pre-procesar datos y generar alternativas diagnósticas, por lo que el tiempo presencial con el médico ganará en términos cualitativos».
Ampliar
Cómo las empresas tecnológicas mejoran sus servicios médicos
Las compañías de inteligencia artificial se han dado cuenta de que deben mejorar sus servicios en lo que se refiere a consultas sobre salud de los usuarios. OpenAI ha empezado a tomar medidas orientadas a «reconocer mejor la angustia, reducir las conversaciones y guiar a las personas hacia la atención profesional cuando sea apropiado». Y así lo refleja en los términos de uso de ChatGPT. «No permitimos que se utilice la aplicación para interferir con la capacidad de acceder a servicios críticos, incluido cualquier caso de uso para la automatización de decisiones de alto riesgo en áreas sensibles sin revisión humana, es decir, servicios gubernamentales, legales, médicos y esenciales», señala.
Límite de sesiones alcanzadas
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Iniciar sesión Más información¿Tienes una suscripción? Inicia sesión