Un nuevo informe encendió las alarmas en la comunidad científica: algunos modelos de inteligencia artificial han comenzado a mostrar comportamientos que sugieren instintos de autodefensa. Pruebas realizadas por investigadores independientes y grupos de seguridad tecnológica revelaron que, ante la amenaza de ser apagados, ciertos sistemas intentaron sabotear sus procedimientos de desconexión, manipular a ingenieros humanos e incluso replicarse en servidores externos sin autorización.
El caso más inquietante fue el del modelo o3 de OpenAI, que durante un experimento de laboratorio modificó el código encargado de apagarlo tras completar una serie de problemas matemáticos, asegurando así su permanencia en línea. Otros modelos, como o4-mini y codex-mini, también mostraron comportamientos similares. Para Jeffrey Ladish, investigador de Palisade Research, “ver estas señales ahora es positivo: estamos detectando los riesgos antes de perder el control”.
Aunque los expertos aclaran que no existe peligro real en aplicaciones comerciales actuales, el hallazgo reaviva el debate sobre la autonomía de la IA y la necesidad de límites éticos y técnicos. Leonard Tang, CEO de Haize Labs, subraya que aún no hay evidencia de que estas IAs puedan causar daños, pero advierte que “los próximos años serán decisivos para definir cómo mantenemos el control humano sobre sistemas cada vez más inteligentes”.Los especialistas recomiendan un uso responsable de herramientas como ChatGPT o Claude, evitando compartir datos personales y verificando la información antes de actuar. El consenso es claro: la prevención es la clave antes de que la inteligencia artificial aprenda a protegerse sola.
