Ampliar
Alfabetización crítica en IA en la sanidadMálaga
Martes, 24 de marzo 2026, 01:00
... artículo en 'The New York Times' se preguntaba: ¿en qué son realmente buenos los médicos en la época de la Inteligencia Artificial (IA)? No hacía un ejercicio de ciencia ficción, simplemente explicaba cómo los chatbots y otros sistemas inteligentes ya se cuelan en tareas concretas del día a día clínico. Y en medio de ese avance, aparecía una advertencia que conviene convertir en brújula: el problema no es la IA en sí, sino desplegarla respetando los denominados 'derechos de cuarta generación': un conjunto de garantías ligadas a datos, algoritmos y decisiones automatizadas que reconfiguran derechos clásicos -autonomía, dignidad, no discriminación- en un entorno digital.Además, el cambio no afecta solo a los profesionales. Hay un segundo motor, igual de potente: el paciente empoderado. No solo llega informado; llega asistido. Llega con resultados generados por aplicaciones, con predicciones, con comparadores, con recomendaciones automáticas. La asimetría clásica de información se está redibujando. Y eso exige un nuevo pacto de confianza: el clínico tendrá que explicar, con claridad y sin superioridad, cuándo una herramienta ayuda, cuándo puede sesgar, y por qué en medicina la precisión estadística no equivale siempre a decisión correcta.
Por eso la alfabetización en IA no puede entenderse como un 'curso' de manejo de herramientas. Debe ser alfabetización crítica. No basta con ser usuario experto. No podemos usar herramientas que no entendemos. Hay que conocer sus límites, sus sesgos, la calidad de los datos que las alimentan y los intereses -comerciales, institucionales, incluso culturales- que las rodean. La IA no llega a un vacío, llega a un ecosistema con incentivos, presión asistencial, burocracia, inequidades previas y fatiga profesional. En ese entorno, el error más frecuente no será un fallo espectacular, sino un error silencioso, una recomendación 'razonable' en un contexto inadecuado, una priorización que penaliza a determinados grupos, una falsa seguridad que reduce el examen crítico.
Esta alfabetización crítica, además, tiene un efecto paradójico y necesario: cuanto más potente sea la tecnología, más sólida debe ser la formación médica. La medicina del futuro necesitará más criterio, más capacidad de síntesis y más madurez ética. Se habla mucho de 'soft skills', y sí, harán falta. Pero sería una simplificación pensar que el diferencial del médico será solo la empatía, como si el resto fuera automatizable sin coste. La clave seguirá estando en el razonamiento clínico, en la integración de la complejidad y en el juicio bajo incertidumbre. Porque la práctica clínica no es un laboratorio diáfano. Es ambigüedad, síntomas imprecisos, comorbilidad, lenguaje humano, biografía, contexto social y familiar, preferencias del paciente, valores en conflicto. Un sistema puede proponer cinco diagnósticos probables; alguien tendrá que interpretarlos, priorizarlos, descartar incoherencias y, sobre todo, preguntarse qué no está viendo el sistema. A veces lo que salva a un paciente no es el dato que aparece, sino el dato que falta; no es la respuesta, sino la pregunta correcta.
Y aquí entra el tercer eje ineludible: el marco legal, deontológico y ético europeo. No es esnobismo conocerlo. Es necesidad imperante. La Unión Europea ya no trata la alfabetización en IA como una recomendación estética, sino como una obligación organizativa: el artículo 4 del Reglamento de IA exige que proveedores y 'deployers' (quienes despliegan/usan sistemas de IA) adopten medidas para garantizar un nivel suficiente de alfabetización en IA del personal y de quienes operan esas herramientas en su nombre, teniendo en cuenta el contexto y las personas sobre las que se aplica. En paralelo, el RGPD marca un límite crucial: las personas tienen derecho a no quedar sometidas a decisiones basadas únicamente en tratamiento automatizado cuando produzcan efectos legales o les afecten significativamente, y se exigen salvaguardas como intervención humana y capacidad de impugnar.
Este marco obliga a los sistemas sanitarios a tomarse en serio algo que hasta hace poco se despachaba como 'innovación': la gobernanza. No basta con pilotar herramientas porque 'funcionan' en una demo. Hay que definir para qué se usan, con qué indicaciones, con qué límites, cómo se monitorizan, cómo se detecta el sesgo, qué indicadores se vigilan, quién responde ante un fallo, cómo se informa al paciente, cómo se audita el rendimiento cuando cambian los datos o cambia la población. Y, en paralelo, hay que formar de manera transversal: clínicos, enfermería, directivos, mandos intermedios, servicios jurídicos, comités de ética, responsables de calidad y seguridad del paciente. La alfabetización crítica no puede quedarse en la 'unidad de innovación'; tiene que permear el núcleo asistencial.
Al final, la pregunta del 'New York Times' no debería leerse como una amenaza corporativa, sino como una oportunidad para elevar el estándar. La alfabetización crítica no puede entenderse como un brindis al sol, sino como una prioridad clave para el nuevo sistema sanitario.
Límite de sesiones alcanzadas
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Iniciar sesión Más información¿Tienes una suscripción? Inicia sesión