Expertos alertan que el rápido avance de la inteligencia artificial en la medicina y la salud pública también implica riesgos
Por: César Leyva
Cada vez es más común escuchar a pacientes, familiares o amigos decir que "consultaron" sus síntomas o resultados de laboratorio con una inteligencia artificial. Esta tendencia no es casual. Recientemente,
OpenAI lanzó dentro de ChatGPT una nueva función llamada Health, diseñada para integrar en un solo espacio información clínica, estudios de laboratorio, aplicaciones de salud y métricas de ejercicio provenientes de relojes inteligentes, todo de forma personalizada y accesible mediante suscripción.
¿QUIÉN HIZO POSIBLE CHATGPT HEALTH?
Ante este avance surge una pregunta inevitable: ¿estamos frente al inicio del fin de la atención médica de primer nivel como la conocemos?
La respuesta corta es no. ChatGPT Health no fue creada para suplantar a los médicos, aunque sí puede optimizar tiempo en consultas básicas o servir como herramienta de orientación.
Según OpenAI, esta función fue desarrollada con la colaboración de 260 médicos de 60 países, lo que respalda su contenido en medicina basada en evidencia y con información en constante actualización.
EL RIESGO DE LA AUTOMEDICACIÓN
Expertos alertan que el rápido avance de la inteligencia artificial en la medicina y la salud pública también implica riesgos. Aunque legalmente se presenta como un sistema para "navegar información", existe un peligro conductual real como es la automedicación, el retraso en la búsqueda de atención médica o una falsa sensación de tranquilidad.
Esto puede ocurrir cuando los usuarios malinterpretan resultados, confunden valores de laboratorio o desconocen el contexto clínico bajo el cual se solicitaron ciertos estudios.
Por ahora, ChatGPT Health no está disponible en México, aunque se espera su llegada en las próximas semanas. A futuro, esta tecnología podría ser una aliada para apoyar a comunidades remotas, ayudando a identificar casos urgentes y facilitando traslados oportunos. No obstante, hoy sigue siendo un arma de dos filos.
LO QUE LA IA NO PUEDE HACER
La inteligencia artificial no comprende el contexto humano, emocional y situacional del paciente. Solo interpreta datos.
Por ello, puede ser útil para organizar métricas de salud y entender información general, pero ante cualquier malestar, nada sustituye la valoración directa de un profesional de la salud, capaz de decidir si se trata de algo pasajero o de una situación que pone en riesgo la vida.