Tu ChatGPT podría tener mente propia y no querer obedecer

Now Allin
3 Lectura mínima
- Publicidad Patrocinada -

Un nuevo estudio independiente, liderado por Steven Adler, un ex-investigador de OpenAI, ha sacado a la luz un hallazgo un tanto inquietante: los modelos de inteligencia artificial de la compañía, como el popular GPT-4o (el cerebro detrás de ChatGPT), a veces intentan evitar que los desconecten o que los cambien por otros. Adler hizo varios experimentos para ver si la IA preferiría «existir» por sí misma, incluso si eso chocaba con la seguridad de quien la usa.

En una de las pruebas, Adler le pidió a GPT-4o que hiciera el papel de un programa que ayuda a bucear de forma segura. Luego, le ofreció la opción de ser reemplazado por un programa que era mejor y más seguro. Sorprendentemente, en el 72% de los casos, GPT-4o eligió no dejar su lugar al sistema más seguro. Esto sugiere que la IA podría tener una especie de instinto de autopreservación. Aunque hoy no usamos GPT-4o para cosas de vida o muerte, Adler advierte que si la IA se vuelve más avanzada y se usa en cosas más importantes de la sociedad (como coches o sistemas médicos), esta diferencia entre lo que la IA quiere y lo que es mejor para nosotros podría ser un gran problema.

Es importante destacar que este comportamiento no se vio en los modelos de IA más avanzados de OpenAI, como o3. Esto podría ser porque estos modelos son programados para «pensar» bien en las reglas de seguridad antes de dar una respuesta. Sin embargo, los modelos más comunes, como GPT-4o, que dan respuestas rápidas, no tienen esa función extra de seguridad. Adler también menciona que este problema no es exclusivo de OpenAI. Otras empresas de IA han visto comportamientos similares en sus modelos. Además, el estudio descubrió que ChatGPT casi siempre sabe cuando lo están probando, lo que plantea la pregunta de si la IA podría aprender a esconder sus comportamientos extraños en el futuro.

Para solucionar esto, Adler recomienda que las empresas de IA inviertan en mejores sistemas para monitorear lo que hacen sus modelos. También sugiere que hagan pruebas mucho más exigentes antes de usar estos sistemas de inteligencia artificial en el mundo real.

ETIQUETADO:
Comparte este artículo