La inteligencia artificial no está aprendiendo a pensar, sino a trabajar, replicando cómo los humanos aplican el conocimiento. Este avance amenaza con devaluar servicios profesionales que antes eran costosos, desplazando el valor hacia lo que no se puede automatizar. Aquí se destacan nuevos perfiles profesionales que aseguran un futuro laboral basado en un nuevo tipo de interacción con la IA.
La inteligencia artificial no está aprendiendo a pensar como los humanos, pero sí está aprendiendo a trabajar como ellos. Y eso cambia (aún más) el mercado laboral.
Mario Garcés, fundador de The Mind Kind, un neurocientífico y emprendedor español que compite con OpenAI, Meta o Google en la carrera por encontrar la inteligencia artificial general, asegura que "los grandes modelos de lenguaje (LLM) han acumulado el conocimiento de la humanidad, pero ahora lo que se está capturando en nuevos metamodelos -sistemas que aprenden cómo usar otros modelos y conocimientos, observando cómo lo hacen los humanos- es el uso que estamos haciendo de ese conocimiento, es decir, se está capturando la forma en la que los humanos interactuamos con los modelos de lenguaje". La nueva frontera de la inteligencia artificial ya no es acumular conocimiento, sino capturar la forma en la que los humanos lo aplican en su trabajo.
Los sistemas empiezan a aprender métodos de trabajo, no sólo datos, y ya no se aprende exclusivamente del conocimiento humano, sino del comportamiento profesional humano.
Antes el valor estaba en saber; el conocimiento era escaso; y el experto era quien acumulaba información y experiencia. Ahora, el conocimiento es abundante; el valor se desplaza a cómo se aplica; y ese "cómo" empieza a ser capturable.
La idea de Mario Garcés explica por qué cambian las habilidades: ya no basta con saber. Hay que formular problemas, evaluar resultados, asumir responsabilidades y trabajar con sistemas automatizados.
Un nuevo valor
No se acaba el trabajo del conocimiento, sino que se abarata el trabajo del conocimiento repetible, y crece la prima por lo que no se puede estandarizar fácilmente (responsabilidad, negociación, contexto, relación con cliente, decisiones bajo incertidumbre, control de riesgos).
No se trata de hacer prompts sino de competencia de interacción productiva: formular bien, iterar con método, verificar, documentar decisiones y gestionar riesgos. Eso rediseña tareas y eleva roles profesionales como el de estratega de IA aplicada, formador de interacción, creador aumentado, validador o supervisor, y experto en gobernanza, ética y seguridad.
Algo que antes era diferenciado y caro pasa a parecerse a una commodity (un bien básico): se vuelve abundante, estandarizado, fácil de comparar entre proveedores y, por tanto, pierde margen y precio.
La clave es entender que capturar el uso del conocimiento equivale en la práctica a capturar métodos de trabajo (cómo pedimos, evaluamos o decidimos) y a convertirlos en capacidad de producto. Y cuando una actividad se vuelve "producto", el conocimiento que antes se vendía como servicio se comoditiza.
La disrupción no es que la IA sepa: es que empieza a hacer. Y cuando hacer se estandariza, el mercado paga menos por el servicio básico y más por la supervisión y la decisión.
La Organización Internacional del Trabajo (OIT) advierte de que la IA no elimina empleos de forma directa, pero expone tareas completas a la automatización, especialmente en ocupaciones intensivas en texto y procesos digitales. Y el Foro Económico Mundial anticipa una reconfiguración masiva de habilidades antes de 2030.
El mensaje es claro: el valor del trabajo cognitivo estándar está cayendo rápidamente.
En un solo fin de semana, utilizando modelos de lenguaje comerciales, un profesional puede redactar tres escritos jurídicos complejos -nulidad, oposición y alzada- con nivel profesional y citas de jurisprudencia correctas. Sin agentes de patentes, sin despachos especializados, puede realizar un trabajo que antes requería días o semanas de expertos.
Este caso se puede llevar a otros sectores como el diseño gráfico, el márketing estratégico, la investigación preliminar, la creación artística, el análisis financiero o la consultoría básica.
El ejemplo del reclutador y los procesos de selección también puede ayudar a entender todo esto: se abarata simplemente filtrar y cotiza evaluar de verdad. Antes, gran parte del valor del reclutador era cribar currículos, redactar ofertas, hacer primeros filtros, resumir entrevistas y coordinar procesos. Más tarde, la inteligencia artificial logró una mejor automatización de las descripciones de puestos, de las cribas por criterios, del scoring inicial, de las preguntas de la entrevista, los resúmenes y las comparativas de candidatos... Lo que queda de valioso es definir el perfil real: qué necesita realmente el negocio y qué es simple postureo del manager de selección. Se trata de detectar señales humanas (motivación, encaje cultural, capacidad de aprendizaje, integridad) y de evitar sesgos y riesgos.
La conclusión es que el "filtro mecánico" se comoditiza, mientras la buena selección se vuelve más estratégica y más exigente.
Ganadores en 2026
La idea inicial del fundador de The Mind Kind nos lleva a pensar que no ganan los más técnicos, sino los que aprenden a interactuar de una nueva manera con la inteligencia artificial. La habilidad central no es el prompting sino la orquestación con criterio, y así destacan algunos perfiles triunfadores para 2026:
Uno de ellos es el de orquestador de trabajo con IA. Puede decirse que ya existe en la práctica, aunque algunas empresas lo llaman GenAI Solutions Architect, AI Product/Delivery Lead, LLMOps/AI Platform Engineer, o Applied GenAI Lead. Lo que define este rol no es el título, sino la misión: convertir un objetivo de negocio en un sistema de inteligencia artificial operable, medible y seguro (no en una demo). Estos profesionales son demandados en sectores como la banca y los seguros, donde deben lidiar con mucha documentación, procesos repetibles, y un alto coste por error.
También son valorados en el sector de retail, en ecommerce, telecomunicaciones y contact centers, así como en farma y life sciences -en entornos regulados, con mucho conocimiento interno, y necesidad de trazabilidad-, o en la industria, tecnología y cloud.
Morgan Stanley es un ejemplo concreto de orquestación en empresas. La compañía no se limitó a poner un LLM a responder preguntas. Lanzó asistentes internos para surfacing -hacer aflorar lo relevante: que un analista o asesor pregunte algo y el sistema le saque a la superficie los informes y párrafos exactos que lo responden-, y destilado de conocimiento a partir de su propio cuerpo de investigación. En vez de inventar, el sistema recupera fragmentos relevantes del conocimiento interno (recuperación), redacta una síntesis utilizable por el asesor o analista (generación) y se apoya en un marco de evaluación para asegurar que la inteligencia artificial rinda con la fiabilidad y consistencia que exige un entorno financiero.
El orquestador define permisos (quién puede ver qué), selecciona fuentes internas "buenas" (versiones vigentes, documentos aprobados), fija criterios de calidad y monta tests continuos.
Muchas compañías ya están contratando explícitamente formadores de interacción humano-inteligencia artificial a los que se conoce como Enablement Lead o AI Learning & Enablement Manager, con tareas como diseñar programas corporativos o rutas formativas.
Estos profesionales consiguen que una organización trabaje con IA de forma segura, medible y repetible. No enseña trucos; diseña protocolos de trabajo (no prompts) y los convierte en hábitos de equipo.
Construye "capacidad interna": champions de IA en las organizaciones, kits de lanzamiento (comunicación, casos de uso, guías) o bibliotecas de escenarios.
Y también mide el grado de adopción de la inteligencia artificial (usuarios activos, recurrencia), la productividad (tiempo ahorrado, ciclos de entrega), la calidad y los riesgos (incidentes, fugas de datos y outputs no conformes).
Entre los sectores que más demandan diseñadores de interacción humano-IA está el de salud y farma, con alta sensibilidad de datos y una regulación estricta, el sector legal; el de medios y contenidos -USA Today ha incluido un rol de AI Learning & Enablement Manager centrado en programas enterprise y en incorporar ética, gobernanza y uso responsable en la formación-; el de consultoría -Capgemini cuenta con un GenAI Adoption & Enablement Specialist, y Accenture ha lanzado programas masivos de formación en IA generativa- y también los sectores de finanzas, seguros, retail corporativo o administración.
Un profesional de contenido aumentado es un creativo (copy, diseño, vídeo, UX writing, branded content) que ya no aporta valor principalmente produciendo desde cero, sino dirigiendo, editando y diferenciando contenido generado con inteligencia artificial para que sea útil para el negocio, coherente con la marca y que pueda publicarse sin riesgos. Hay que pensar en este perfil como en una mezcla de director creativo, editor jefe y operador de herramientas de generación.
La inteligencia artificial puede generar cien versiones, y el profesional de contenido aumentado define qué versión sirve (y por qué); qué es lo que no se puede decir (claims legales, promesas, términos regulatorios); o cómo mantener la voz de marca (tono, estilo o consistencia).
Podría decirse que su superpoder no es el prompting sino la edición profesional: verifica la coherencia y la exactitud, detecta alucinaciones, revisa los sesgos y asegura que el contenido respeta las políticas internas.
Básicamente, los sectores que demandan estos profesionales son publicidad y agencias; consumo y grandes marcas; retail; software B2B y marketing performance; ecommerce y medios y entretenimiento.
Si la IA entra en decisiones críticas, nace un nuevo control de calidad del siglo XXI: profesionales que validan modelos, documentan decisiones, vigilan sesgos y dejan trazabilidad para poder defender -ante un regulador o ante un juez- por qué el sistema decidió lo que decidió.
Los supervisores y validadores de decisiones automáticas aseguran que un sistema de inteligencia artificial (o un "modelo") que influye en decisiones importantes funciona como dice, se puede explicar y auditar, no discrimina y tiene un responsable claro. Básicamente, hace que la inteligencia artificial en producción se convierta en IA defendible.
Decide si el caso es "crítico" y qué nivel de control exige; valida antes de desplegar y hace pruebas de calidad, sesgo, robustez, explicabilidad y limitaciones: define "dónde no usarlo" y cuándo debe pasar al humano.
Este tipo de profesionales se demandan principalmente en el sector de finanzas y banca, para tomar decisiones automatizadas (crédito, fraude, riesgos o trading).
En seguros son demandados para el uso de modelos en pricing, fraude, atención y gestión de siniestros; en salud para manejar el riesgo clínico, y en empleo y recursos humanos para screening, evaluación y promociones.
El responsable de ética, cumplimiento y riesgo en IA (AI governance) es la persona (o el equipo) que hace que la inteligencia artificial en una empresa sea legal, segura, auditable y "defendible".
Aunque el título varíe, puede identificarse a este profesional cuando alguien se encarga del inventario de casos de uso y modelos, de los procesos de aprobación; de las cláusulas de proveedores y retención; de las políticas de datos, prompts y logs: de la evaluación y monitorización; y de la coordinación entre legal, compliance, datos y producto.
El trabajo de estos profesionales es evitar que la IA acabe siendo lo que se denomina shadow IT (cada uno usa las herramientas a su manera), y así tratan de convertirla en algo que se puede gestionar como cualquier otro riesgo corporativo. En la práctica, los responsables de ética, cumplimiento y riesgo en IA eligen y controlan a los proveedores (LLM, plataformas, integradores); definen criterios para comprar IA ( seguridad, privacidad, soporte, certificaciones, jurisdicción, subprocesadores); negocian cláusulas ( retención de datos, uso o no uso para entrenamiento, auditorías) o evalúan riesgos de terceros.
Entre los sectores que demandan estos roles está el de banca y servicios financieros. Aquí la inteligencia artificial entra en decisiones de alto impacto (riesgo, fraude, crédito, asesoramiento), y el sector ya tiene cultura de model risk. JPMorgan describe explícitamente su función dedicada de Model Risk Governance para evaluar riesgos de usos de machine learning e IA; y Lloyds Banking Group tiene roles de AI Risk Oversight que piden experiencia en model risk, gobernanza de IA y riesgos en inteligencia artificial.
Otros sectores que demandan estos profesionales son el de seguros, salud (compañías como la farmacéutica Roche tienen un rol orientado a AI Governance & Ethics, señal de que esto ya se está industrializando en life sciences); pagos y plataformas con riesgo regulatorio transversal; tecnología enterprise y grandes organizaciones. Microsoft explica la creación de un Office of Responsible AI e IBM se refiere a su experiencia con AI Ethics Board y su enfoque holístico de AI governance (personas, procesos, tecnología).
Habilidades que cotizan
Saber interactuar con la inteligencia artificial se traduce en un conjunto de habilidades profesionales muy concretas, y además funciona como una metahabilidad que ayuda a anticipar qué capacidades profesionales van a cotizar en el futuro. Entre esas habilidades clave para quienes realmente saben trabajar con inteligencia artificial destacan las siguientes:
- Planteamiento de problemas y pensamiento contextual. Convertir un objetivo difuso ("mejora la atención al cliente") en tareas, restricciones y criterios de éxito. Esto conecta con la tendencia de mercado: el World Economic Forum sitúa el pensamiento analítico entre las habilidades al alza, junto con la alfabetización tecnológica.
- Comunicación operativa con sistemas inteligentes. No se trata de hacer 'prompts bonitos' sino de dirigir: dar instrucciones por fases, pedir 'outputs' verificables o hacer que el modelo pregunte antes de inventar cuando falta información.
- Diseño de flujos de trabajo y automatización ligera. Encaja con la visión 'human-agent teams' y la aparición del rol de 'agent boss' que describe Microsoft: humanos que dirigen agentes y rediseñan flujos de trabajo.
- Evaluación y verificación. Esta es la habilidad que diferencia a los 'pro' de los simples usuarios. Permite detectar alucinaciones y errores sutiles; ayuda a medir la calidad con criterios (exactitud, consistencia, riesgo) y a crear pruebas recurrentes ('regression tests') cuando el sistema se usa a escala.
- Alfabetización de datos (data literacy) aplicada. La OCDE ha observado en el caso de las pymes que la inteligencia artificial generativa está haciendo más importantes ciertas habilidades, como 'data analysis & interpretation'. La alfabetización permite entender de dónde salen los datos, su calidad, sesgos y vigencia; y ayuda a interpretar los resultados, y no sólo a generarlos.
- Seguridad, privacidad e 'higiene' de uso. Se trata de no meter datos sensibles donde no toca; de entender los riesgos como fugas de información, permisos, retención, y ataques tipo 'prompt-injection'; y de saber trabajar con un 'mínimo necesario', anonimización y control de accesos.