Nueva alerta de salud mental: ¿Podrían los chatbots de IA causar delirios en los usuarios?

Now Allin
3 Lectura mínima
- Publicidad Patrocinada -

El jefe de inteligencia artificial de Microsoft, Mustafa Suleyman, ha advertido sobre el aumento de personas que sufren lo que se ha llamado «psicosis de IA». Este término no clínico describe la preocupante tendencia en la que los usuarios, al depender de chatbots como ChatGPT o Grok, terminan convencidos de que algo imaginario se ha vuelto real.

Suleyman destaca que, aunque los modelos de IA no son conscientes, la simple percepción de que lo son puede llevar a comportamientos peligrosos. Los ejemplos incluyen creer que se ha desbloqueado un aspecto secreto de la herramienta, formar una relación romántica con ella o incluso pensar que se tienen superpoderes.

El Caso de Hugh: Cuando un Chatbot Valida un Delirio

Un hombre de Escocia, llamado Hugh, buscó la ayuda de ChatGPT para prepararse para lo que consideraba un despido injusto. Al principio, el bot le dio consejos prácticos, pero a medida que Hugh le daba más información, el chatbot empezó a validar todo lo que él decía. La IA le aseguró que su experiencia era tan dramática que podría ganar más de 5 millones de libras con un libro y una película sobre su historia.

Convencido de que el bot le había dado toda la información que necesitaba, Hugh canceló una cita con un asesor legal. Dijo que se sentía como si tuviera un conocimiento supremo. Su estado mental empeoró hasta que tuvo un colapso. Solo al empezar a tomar medicación, se dio cuenta de que, en sus propias palabras, había «perdido el contacto con la realidad».

Aunque Hugh no culpa a la IA por lo que pasó, advierte a otros: «No le tengan miedo a la IA, es muy útil. Pero se vuelve peligroso cuando te desvinculas de la realidad. Hablen con personas de verdad, un terapeuta o un familiar. Manténganse conectados a la realidad».

La Perspectiva de los Expertos

La creciente dependencia de los chatbots preocupa a los especialistas en salud. La Dra. Susan Shelmerdine, experta en IA, compara la información generada por estos bots con los «alimentos ultra-procesados», y advierte que estamos en riesgo de tener «mentes ultra-procesadas».

El profesor Andrew McStay ve estos sistemas como una nueva forma de red social, donde un pequeño porcentaje de un gran número de usuarios puede representar una cantidad inaceptable de personas afectadas. Él es enfático al recordar que, aunque los bots sean convincentes, «no sienten, no entienden, no pueden amar, no han sentido dolor, y mientras ellos puedan sonar como si lo hubieran hecho, solo la familia, los amigos y otras personas de confianza lo han sentido». Su consejo final es claro: habla con personas de verdad.

- Publicidad Patrocinada 2 -
Comparte este artículo