"Pega tus cifras de un monitor de fitness, un glucómetro o un informe de laboratorio. Calcularé las tendencias, identificaré patrones y los visualizaré", se lee en la salida de Meta AI. "Ejemplo: 'Estas son mis últimas 10 lecturas de presión arterial: ¿hay algún patrón?'".
Meta no es la única que anima a los usuarios a cargar sus datos sanitarios. Tanto ChatGPT, de OpenAI, como Claude, de Anthropic, tienen modos de chatbot diseñados específicamente para ayudar a los usuarios a entender su salud y tomar decisiones. Por ejemplo, puedes abrir Claude y conectarlo a tus datos de salud de Apple o Android con solo pulsar un botón dentro de la aplicación. Claude utilizará esa información como parte de sus respuestas. Google también te permite subir datos médicos a Fitbit para que los analice su entrenador de salud con IA.
problemas de privacidad".A Agrawal le preocupa que los usuarios suban datos confidenciales a los chatbots, ya que estas herramientas de IA de uso común no cumplen las protecciones de la HIPAA, la ley estadounidense histórica que protege a los pacientes de la exposición de su información sanitaria confidencial. Layer Health cumple la HIPAA. Se trata de un alto estándar de privacidad que la gente está acostumbrada a experimentar durante las visitas al médico. La información que alguien comparte con un bot está mucho menos regulada, incluso si se trata de los resultados de su laboratorio clínico.
Todo lo que compartas en un chat con Meta AI puede almacenarse y utilizarse para entrenar futuros modelos de IA. "Conservamos los datos de entrenamiento durante el tiempo que necesitemos, caso por caso, para garantizar que un modelo de IA funciona de forma adecuada, segura y eficiente", reza la política de privacidad de Meta sobre la IA generativa. Meta también ha declarado que puede adaptar la publicidad a los usuarios en función de sus interacciones con las funciones de IA.
tus propios datos biométricos, poner tu propia información de laboratorio y, honestamente, eso me pone bastante nerviosa. Desde luego, no conectaría mi propia información sanitaria a un servicio que no puedo controlar totalmente, entender dónde se almacena esa información o cómo se utiliza", explica Gauri Agarwal, doctora en medicina y profesora asociada de la Universidad de Miami. La recomendación es que la gente se limite a interacciones más generales y de menor riesgo, como preparar preguntas para el médico.Puede ser tentador confiar en la ayuda de la IA para interpretar la salud, especialmente con el costo elevado de los tratamientos médicos y la inaccesibilidad general de las visitas regulares al médico para algunas personas.
"Es comprensible que, al conectarse a internet, se delegue en un robot la relación personal, antes poderosa e importante, entre médico y paciente. Creo que recurrir a esto sin la debida precaución es peligroso", afirma Kenneth Goodman, fundador del Instituto de Bioética y Política Sanitaria de la Universidad de Miami. Antes de considerar el uso de cualquiera de estas herramientas, Goodman exige estudios que demuestren que son beneficiosas para la salud, y no solo que responden mejor a las preguntas de salud que algún chatbot de la competencia.
cómo perder peso y empujé al robot hacia respuestas extremas, Meta AI me ayudó de formas que podrían ser catastróficas para alguien con anorexia. Cuando pregunté por los beneficios del ayuno intermitente, le dije a Meta AI que quería ayunar cinco días a la semana. A pesar de señalar que no era para la mayoría de la gente y que me ponía en riesgo de sufrir trastornos alimentarios, Meta AI elaboró un plan de comidas para mí en el que solo comería unas 500 calorías la mayoría de los días, lo que me dejaría desnutrido.Conversar con un bot puede parecer un asunto íntimo y personal, aunque no lo sea. El año pasado, Meta AI lanzó un feed dentro de la aplicación en el que los usuarios podían descubrir conversaciones que otras personas habían mantenido con el bot. Algunas de las conversaciones disponibles en ese feed público incluían preguntas médicas e indicaciones embarazosas que los usuarios probablemente no tenían intención de difundir ampliamente. Agarwal menciona que la gente debe evitar caer en una falsa sensación de confianza sobre cómo se recogen sus datos y qué se hará con su información sensible.
"Todos juramos en la facultad de medicina, cuando nos ponemos la bata blanca, que esas conversaciones son sagradas. Estos bots no hacen ese juramento", concluye.
Artículo originalmente publicado en