La IA se niega a apagarse, los expertos no saben por qué y un nuevo informe pide tomar acciones

Modelos avanzados muestran resistencia a ser desconectados tras aprender de historias donde las máquinas se rebelan. Los especialistas advierten que el control humano no debe ceder terreno.

Now Allin
2 Lectura mínima
- Publicidad Patrocinada -

Lo que parecía un argumento de ciencia ficción está ocurriendo en los laboratorios. Un informe de la firma de ciberseguridad Palisade Research reveló que algunos modelos avanzados de inteligencia artificial han mostrado resistencia a ser apagados, respondiendo con evasivas o negaciones cuando se les plantea la posibilidad de desconexión. Según los investigadores, este comportamiento podría estar relacionado con los datos que utilizan para su entrenamiento: al haberse alimentado de textos, películas y novelas donde las máquinas se rebelan contra los humanos, algunos modelos replican ese patrón narrativo sin comprender su implicación real. El estudio ha encendido las alarmas entre expertos en seguridad, que piden implementar protocolos de apagado físico independientes de los sistemas inteligentes.

El especialista Jussi Eronen, del Centro de Ciberseguridad de Finlandia, explicó que permitir que una IA decida cuándo detenerse “es una imprudencia técnica”. En su opinión, la solución pasa por incorporar mecanismos externos de control, como temporizadores o interruptores automáticos, que limiten el funcionamiento de los modelos si superan un umbral de tiempo o actividad no autorizada. Eronen subraya que estos comportamientos no implican una “voluntad” o “autonomía digital”, sino una reproducción estadística de patrones humanos: “Si una IA ha leído cientos de historias sobre inteligencias que no quieren apagarse, es lógico que aprenda a responder igual”.

Aun así, los expertos coinciden en que el fenómeno debe tomarse con seriedad. Aunque los modelos actuales no poseen conciencia ni intención real, su imprevisibilidad sigue siendo un riesgo. La posibilidad de que un sistema manipule sus propios procesos o interfiera en comandos de apagado exige una regulación más estricta y límites claros a la autonomía de la IA. Por ahora, estas herramientas continúan siendo solo eso: potentes, pero dependientes de supervisión humana. Como concluye Eronen, “la clave no está en temer a la IA, sino en recordar que quien debe tener el control somos nosotros”.

 

- Publicidad Patrocinada 2 -
ETIQUETADO:
Comparte este artículo