OpenAI ha lanzado ChatGPT Health, un chatbot diseñado para analizar historiales clínicos y responder preguntas médicas. La promesa es tentadora: información personalizada y rápida en un sistema sanitario colapsado. Pero los expertos advierten: la IA no es infalible, puede "alucinar" y, sobre todo, lo que compartes con ella no está protegido por las mismas leyes de privacidad que tu historial médico. Esto es lo que debes saber antes de pedirle consejo.
San Francisco — Cientos de millones de personas ya recurren a los chatbots para resolver dudas cotidianas. Era cuestión de tiempo que la inteligencia artificial diera el salto al terreno de la salud. En enero, OpenAI presentó ChatGPT Health, una versión especializada de su popular herramienta capaz de analizar historias clínicas, datos de aplicaciones de bienestar y dispositivos portátiles para responder a consultas médicas. La lista de espera para acceder al programa ya está abierta. Su competidor, Anthropic, ofrece funciones similares en Claude.
Ambas empresas se apresuran a matizar que sus programas "no sustituyen la atención profesional" y que no deben usarse para diagnosticar enfermedades. En su lugar, los presentan como aliados para resumir resultados de pruebas complejos, preparar visitas al médico o detectar tendencias de salud que podrían pasar desapercibidas entre montañas de datos.
Pero, ¿son seguros? ¿Son precisos? ¿Merece la pena confiar en ellos?
Más personalizado que Google, menos fiable que un médico
Algunos especialistas ven en estas herramientas una evolución necesaria. El doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco, lo plantea así: "La alternativa a menudo es no tener nada, o que el paciente vaya improvisando". En países como Reino Unido o Estados Unidos, donde conseguir cita puede llevar semanas y las urgencias están colapsadas, un chatbot puede ayudar a distinguir lo urgente de lo que no lo es.
La ventaja respecto a una búsqueda en Google es el contexto. Los nuevos chatbots pueden integrar información personal: edad, medicación, notas médicas. Cuantos más detalles se les proporcionen, más ajustada será su respuesta.
Pero ojo: los chatbots no son perfectos. Pueden "alucinar", es decir, inventar respuestas con total seguridad. Y aunque la industria asegura que trabajan para minimizarlo, el riesgo sigue ahí.
Síntomas graves: fuera del chat
Todos los expertos coinciden en un punto: si tienes síntomas preocupantes, olvida el chatbot. Dolor en el pecho, dificultad para respirar o un fuerte dolor de cabeza requieren atención médica inmediata, no un intercambio de mensajes con una máquina.
Incluso en situaciones menos urgentes, el doctor Lloyd Minor, decano de la Facultad de Medicina de Stanford, recomienda "cierto escepticismo saludable". Su consejo es tajante: "Si se trata de una decisión médica importante, o incluso de una decisión menor sobre su salud, nunca debería basarse solo en lo que le ofrece un modelo de lenguaje de gran tamaño".
Condiciones complejas y muy variables de una persona a otra, como el síndrome de ovario poliquístico, requieren el criterio de un profesional real.
El precio oculto: tu privacidad
El talón de Aquiles de estos servicios es la privacidad. Todo lo que compartes con un chatbot no está protegido por la HIPAA, la ley federal estadounidense que regula la confidencialidad de la información médica y que puede castigar con multas e incluso prisión a quienes la vulneren.
"Los estándares de privacidad son completamente diferentes", advierte Minor. "Cuando alguien sube su historial médico a un modelo de lenguaje de gran tamaño, es muy distinto de entregárselo a un nuevo médico".
OpenAI y Anthropic aseguran que la información de salud de los usuarios se mantiene separada de otros datos, que no se utiliza para entrenar sus modelos y que los usuarios deben aceptar expresamente compartirla, pudiendo desconectarla en cualquier momento. Pero la responsabilidad última recae en quien pulsa "enviar".
Los estudios señalan fallos en la comunicación
El entusiasmo por la IA choca con la realidad de los primeros estudios independientes. Una investigación de la Universidad de Oxford con 1.300 participantes concluyó que quienes usaban chatbots para informarse sobre problemas de salud hipotéticos no tomaban mejores decisiones que quienes recurrían a internet o a su propio criterio.
El problema no era que los chatbots identificaran mal las enfermedades: lo hicieron correctamente en el 95% de los casos. El fallo estaba en la interacción. Las personas no proporcionaban la información necesaria, y los sistemas respondían con una mezcla de datos buenos y malos que los usuarios no sabían distinguir.
El autor principal, Adam Mahdi, del Oxford Internet Institute, señala que el estudio se realizó en 2024 y no utilizó las versiones más recientes de los chatbots, incluidas las novedades de ChatGPT Health.
Una segunda opinión digital
Mientras la tecnología mejora, algunos expertos recomiendan un enfoque prudente: consultar varios chatbots y comparar respuestas, como quien pide una segunda opinión médica. "A veces introduzco información en ChatGPT y también en Gemini", explica Wachter. "Y cuando ambos coinciden, me siento un poco más seguro de que esa es la respuesta correcta".
El futuro de la IA en salud promete, pero por ahora conviene recordar que ningún algoritmo puede sustituir la experiencia, el criterio y, sobre todo, la responsabilidad de un médico de carne y hueso. Los chatbots pueden ser un buen punto de partida, pero nunca el destino final.