Viernes, 23 de enero de 2026 Vie 23/01/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

El nuevo objetivo de los 'chatbots': convertirse en asistentes médicos

El nuevo objetivo de los 'chatbots': convertirse en asistentes médicos
Artículo Completo 1,241 palabras
Tanto OpenAI como Anthropic han anunciado en las últimas semanas el lanzamiento de inteligencia artificial específica para gestionar datos médicos privados de los usuarios. Leer
InnovaciónEl nuevo objetivo de los 'chatbots': convertirse en asistentes médicos 23 ENE. 2026 - 00:55DREAMSTIMEEXPANSION

Tanto OpenAI como Anthropic han anunciado en las últimas semanas el lanzamiento de inteligencia artificial específica para gestionar datos médicos privados de los usuarios.

Aproximadamente, 32 millones de personas hacen preguntas relacionadas con su salud cada día en ChatGPT. En total, unas 230 millones semanalmente. Entre las dudas más comunes están las preguntas sobre síntomas, medicamentos, opciones de tratamiento, seguros médicos, y con cada vez más frecuencia, dudas sobre salud mental.

Conscientes del crecimiento de este segmento dentro de sus consultas, OpenAI y Anthropic han anunciado nuevos proyectos específicos en el campo de la salud. OpenAI ha presentado ChatGPT Health, un espacio separado y dedicado a la salud dentro del asistente desde donde poder hacer preguntas médicas como en cualquier conversación. Está diseñado para integrar datos personales, como registros de salud, aplicaciones de bienestar (Apple Health, MyFitnessPal, etc.) o el historial médico, y la compañía asegura que toda esta información se trabaja con una mayor privacidad que las conversaciones normales con el chatbot. Detrás de este nuevo asistente médico está el asesoramiento de cientos de expertos a lo largo del mundo, según OpenAI.

Además, la semana pasada la compañía de Sam Altman anunció la adquisición por unos 100 millones de dólares de la start up Torch, especializada en la gestión y unificación de historiales médicos y datos sanitarios.

Por su parte, Anthropic ha anunciado también este mes Claude for Healthcare, una plataforma que extiende el uso de su modelo Claude hacia casos de uso en el sector de la salud y ciencias de la vida, tanto para pacientes individuales como para profesionales sanitarios, hospitales, aseguradoras y laboratorios farmacéuticos.

Con permiso del usuario, Claude puede acceder a registros médicos y a datos de bienestar recopilados por dispositivos inteligentes para proporcionar explicaciones contextualizadas a los pacientes sobre determinadas dudas médicas. A diferencia de la propuesta de OpenAI, incluye conexiones a sistemas como la Clasificación Internacional de Enfermedades (ICD-10), registros administrativos de proveedores de salud y bases de datos científicas como PubMed, para facilitar el soporte tanto clínico como administrativo. Según la compañía, la solución se ha diseñado con marcos de privacidad compatibles con normativas como HIPAA (de Estados Unidos) para asegurar que los datos sensibles se manejan siempre bajo consentimiento explícito y con posibilidades de revocar permisos.

Información inexacta

Con estos lanzamientos por parte de dos de los principales actores de inteligencia artificial, queda claro que la salud va a ser uno de los grandes focos de estas compañías para los próximos meses.

"Antes también usábamos Google para que ejerciera de médico en alguna ocasión, pero siempre remitía a una fuente concreta, que te ofrecía una respuesta que se podía ajustar más o menos a tu duda. Ahora ofrecen un servicio directo al paciente, respondiendo a sus dudas pero con el riesgo de que se comentan alucinaciones, que siguen siendo muy frecuentes. Es necesaria una capacidad crítica por parte del usuario, poner en duda lo que nos dice el chatbot", explica Juan José Beunza, catedrático de salud pública y director de IASalud de la Universidad Europea.

Las alucinaciones en IA siguen siendo comunes y hay expertos que aseguran que, aunque se reduzcan, van a seguir existiendo, lo que podría suponer un problema para algunos pacientes.

En un artículo científico publicado en la revista Nature, Cuando la amabilidad fracasa: LLMs y el riesgo de información médica falsa debido al comportamiento adulador, se descubrió que los modelos están diseñados para priorizar la utilidad sobre la precisión médica y para proporcionar siempre una respuesta para que el usuario probablemente responda.

"Se me ocurren decenas de casos en los que pondría en riesgo la salud de una persona. Imagínate un usuario que introduce unos síntomas y el asistente le tranquiliza, por lo que no va al médico y retrasa un posible tratamiento de un cáncer, por ejemplo. O un abuelo que en el ordenador de su nieto pregunta sobre un sangrado en la orina. La IA le dirá que no es grave, pues cree que quien pregunta es un chaval joven", explica Beunza.

Los expertos coinciden en que un uso masivo de estas herramientas podrían provocar que el médico tenga que tratar la información del paciente y todas las dudas generadas por la IA, incluso que el paciente pueda poner en duda la decisión del médico si se fía de la tecnología.

Privacidad

A pesar de las promesas de las compañías de IA, el uso de datos personales sobre salud e incluso historias cínicas, genera también bastantes dudas sobre el riesgo de la privacidad.

Los datos de los usuarios son el petróleo de estas empresas que necesitan más y más información para seguir entrenando y mejorando sus modelos. "Estos datos médicos son valiosísimos. Se los han pedido a los hospitales y no se los han dado, así que ahora han buscado la manera de pedírselo a los usuarios. Sin estos datos no pueden mejorar las consultas sobre salud, y se exponen a muchos errores, por lo que es la pescadilla que se muerde la cola", añade el profesor.

OpenAI asegura que todos estos datos no serán utilizados para entrenar modelos principales, pero ¿y los que no son principales? Asimismo, la firma de Sam Altman ya fue multada en Italia por vulnerar datos personales.

"Estos lanzamientos tienen como objetivo el bienestar del usuario, es la monetización. OpenAI ya está moviendo ficha para monetizar su plataforma, pues tiene que justificar millones y millones de inversiones. No tenemos claro cómo, pero quizás mediante el pago de usuarios, de aseguradoras que quieran conectar así con sus pacientes, publicidad personalizada...", apunta el catedrático.

De momento, la herramienta de OpenAI está disponible en Estados Unidos pero solo para un reducido grupo de usuarios a modo de prueba, mientras que la de Anthropic ya funciona para profesionales de la salud en EEUU. En Europa, pese a que la regulación podría complicar el despliegue de este tipo de asistentes, los expertos creen que acabarán llegando. "Hay muchos intereses económicos de por medio", asegura Beunza. Eso sí, el médico tiene claro que aunque no daría sus datos personales a estos chatbots, sí lo ve útil para consultas genéricas pero "a mi madre o hermana les diría que no lo usen".

OpenAI podría lanzar sus propios auriculares con ChatGPT en septiembreGadgets para desconectar de la tecnologíaAsí funciona el centro madrileño desde donde Ryanair pilota su apuesta digital Comentar ÚLTIMA HORA
Fuente original: Leer en Expansión
Compartir