Un estudio publicado en la revista científica Nature Medicine reveló que ChatGPT Health, la herramienta médica desarrollada por OpenAI, puede cometer errores al evaluar casos de salud urgentes. La investigación señala que el sistema subestimó el 52% de las situaciones que requerían atención médica inmediata, lo que genera preocupación sobre su uso en decisiones relacionadas con emergencias.
El análisis evaluó 60 escenarios clínicos de distintas especialidades médicas mediante 960 interacciones con la inteligencia artificial. Luego, las respuestas del sistema fueron comparadas con el criterio de médicos y guías científicas, encontrando que el chatbot cometió fallas tanto en casos leves como en situaciones críticas.
Los investigadores también detectaron que la herramienta puede verse influenciada por la información inicial proporcionada por los usuarios, lo que puede llevar a minimizar síntomas graves. Por ello, los expertos advierten que este tipo de tecnologías deben seguir siendo herramientas de apoyo y no reemplazar la evaluación de profesionales de la salud.