¡Una historia que está dando la vuelta al mundo y que te dejará pensando! Un usuario de ChatGPT ha afirmado que la Inteligencia Artificial podría haberle salvado la vida después de que los médicos desestimaran sus síntomas de cáncer agresivo como una simple «infección leve». Antes de su cita médica, decidió preguntarle al chatbot sobre sus dolencias y la respuesta fue crucial.
La IA dio la alerta clave, los médicos la descartaron
El usuario, que compartió su experiencia en Reddit, llevaba semanas con un problema de salud. Antes de ir al doctor, describió sus síntomas a ChatGPT. Aunque la IA indicó que lo más probable era una infección viral leve, también mencionó una posibilidad menos probable, pero mucho más grave: un tumor detectable mediante una ecografía.
Cuando visitó a su médica, esta le dio el mismo diagnóstico inicial: una «leve infección viral en los ganglios linfáticos». Pero, armado con la información de ChatGPT, el paciente insistió en realizar pruebas adicionales, a pesar de que la doctora consideró que era «exagerado». «Tengo un cáncer superagresivo en la tiroides y me operan esta semana», escribió el usuario. «Gracias al diagnóstico temprano, mis posibilidades de una buena recuperación son altas. Si hubiera esperado un año más, se habría extendido a mis pulmones y huesos».
Reacciones divididas y la advertencia de OpenAI
La publicación generó un gran impacto en Reddit, con opiniones divididas. Algunos usuarios compartieron experiencias similares, como uno que afirmó que ChatGPT le diagnosticó cálculos biliares, lo que llevó a una cirugía exitosa. Otro comentó: «Me encuentro acudiendo a ChatGPT a menudo con preguntas de seguimiento o para confirmar si algunos síntomas postoperatorios son normales. Ha sido genial».
Sin embargo, otros se mostraron cautelosos, advirtiendo sobre los peligros de usar la IA para diagnósticos médicos. «Me alegro por el OP en esta situación específica y les deseo lo mejor con su tratamiento, pero esto no es buena medicina y la gente no debería hacerlo», escribió un usuario. «Las pruebas de detección pueden ser peligrosas y hacer una ecografía en cada ganglio linfático conducirá a muchas pruebas innecesarias, biopsias y procedimientos invasivos y riesgos para nada la gran mayoría de las veces».
Es importante recordar que, según los términos de servicio de OpenAI, la compañía explica claramente que sus «servicios no están destinados para su uso en el diagnóstico o tratamiento de ninguna condición de salud«. La responsabilidad de cumplir con las leyes en un contexto médico recae en el usuario. Esta historia nos obliga a reflexionar sobre el potencial de la IA en la salud, pero también sobre los límites y la importancia de la supervisión médica profesional.