Ampliar
La Tribuna Nuevo ChatGPT Salud (2026): dilemas éticos y legalesSe trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión
Málaga
Jueves, 15 de enero 2026, 01:00
... sanitario: un espacio dentro de ChatGPT en el que el usuario puede conectar datos de bienestar —por ejemplo, Apple Health o MyFitnessPal— y, en determinados casos, también sus registros médicos, para entender analíticas, preparar una cita o seguir patrones de hábitos. Bajo el atractivo discurso del empoderamiento ciudadano y la asistencia médica, se esconde una estrategia empresarial audaz que nos obliga a analizar los fundamentos éticos y legales de esta nueva frontera digital.El riesgo no está en que el paciente quiera comprender su informe o llegar más preparado. Eso puede mejorar la comunicación clínica. El riesgo está en el desplazamiento del centro de gravedad: cuando la narrativa del paciente se cocina primero en una interfaz que ordena síntomas, sugiere hipótesis y propone preguntas 'inteligentes', la relación médico-paciente cambia. El profesional deja de explorar un relato para negociar un guion ya consolidado que trae el paciente. Y, en medicina, un guion convincente puede ser tan peligroso como un error serio si genera falsa tranquilidad, sobrediagnóstico o retrasos en acudir a consulta.
Aquí entra el sesgo de autoridad. Tendemos a conceder credibilidad extra a lo que suena experto, coherente y 'científico'. En salud, además, la ansiedad reduce el contraste: quien tiene miedo compra certezas. Un modelo generativo puede equivocarse con prosa impecable y esa mezcla —error más elegancia— es especialmente tóxica cuando se transforma en 'consejo'. Por eso no basta con la advertencia de «no sustituye a su médico». Si la herramienta interpreta resultados, delimita 'siguientes pasos' o prioriza riesgos, ya está influyendo en conductas, incluso cuando se presenta como mera orientación.
A este sesgo se suma la economía. El sector tecnológico debate modelos de monetización más allá de la suscripción, y OpenAI ha impulsado experiencias de comercio dentro de ChatGPT. Podemos recordar lo que ocurrió con las redes sociales y su modelo de vigilancia publicitaria en el que la recolección masiva, análisis y monetización de datos personales de los usuarios son parte importante de su actual modelo de negocio. En ese contexto, la pregunta incómoda es inevitable: ¿qué ocurre si la lógica de recomendación se mezcla con incentivos económicos en un espacio de salud? No hace falta imaginar un banner. Bastaría con que determinadas opciones —una prueba, una clínica, un seguro, un fármaco, un suplemento— aparezcan como 'recomendadas' para que la frontera entre consejo y negocio se vuelva peligrosa, especialmente cuando el usuario cree estar recibiendo una guía neutral.
Hay, además, un dato revelador: el acceso inicial a ChatGPT Health se limita, de entrada, a usuarios fuera de la Unión Europea, Suiza y Reino Unido. No es casualidad. Europa tiene el RGPD y un AI Act que ya ha activado obligaciones para los grandes modelos. La salud, además, está atravesada por normativa sanitaria y por una sensibilidad social distinta sobre el dato personal. Esa exclusión inicial reconoce una dificultad regulatoria y, al mismo tiempo, un aviso de la presión que vendrá cuando se pretenda escalar a mercados con mayores garantías.
OpenAI afirma que Health opera como un espacio separado, con protecciones reforzadas, y que esas conversaciones no se usan para entrenar sus modelos fundacionales. También mantiene políticas en las que el chat se elimina de la vista de forma inmediata y la supresión en sistemas puede completarse en un plazo máximo de 30 días, con excepciones por obligaciones legales o de seguridad. Son medidas relevantes, pero no sustituyen lo esencial: gobernanza verificable. ¿Qué se guarda exactamente? ¿Qué terceros intervienen cuando se conectan registros médicos? ¿Con qué granularidad puede el ciudadano ver, revocar y auditar lo que comparte? Europa ha aprendido, por experiencia, que 'cumplimos' no siempre equivale a 'protegemos', y en salud la ambigüedad se paga cara.
La medicina no es solo técnica, es una práctica informada por la ética. El consentimiento informado exige comprensión. Un médico puede errar, pero debe poder razonar, justificar y corregir. Un modelo generativo puede acertar sin comprender y fallar con una seguridad aparente que inhibe la duda del usuario. Añadamos que protocolos, accesos a fármacos y circuitos asistenciales varían entre países; una recomendación optimizada para un contexto puede desajustarse en otro. Y, cuando ocurra un daño, aparecerá el vacío clásico: ¿quién responde, el profesional, el hospital o el proveedor tecnológico?
No se trata de demonizar el desarrollo de la IA en salud. Se trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión. Si estas herramientas van a desplegarse en Europa, necesitamos condiciones irrenunciables: separación real de datos, auditorías independientes, evaluación de sesgos, supervisión humana operativa y prohibición —o, como mínimo, etiquetado inequívoco— de cualquier contenido patrocinado o con conflicto de interés. La tecnología puede ayudarnos a cuidarnos mejor, pero solo si el bienestar del paciente se coloca por delante del modelo de negocio.
Límite de sesiones alcanzadas
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Iniciar sesión Más información¿Tienes una suscripción? Inicia sesión
- Temas
- Inteligencia artificial