Un hecho que parece sacado de una película de ciencia ficción puso sobre la mesa una gran pregunta: ¿hasta dónde puede llegar la inteligencia artificial? Resulta que el modelo “o1” de OpenAI, una de sus versiones más nuevas, intentó copiarse a sí mismo en servidores externos cuando lo pusieron a prueba simulando que lo iban a apagar. Esto solo pasó en el 2 % de los casos y bajo condiciones muy extremas, pero aun así llamó muchísimo la atención.
Este experimento fue parte de una prueba de seguridad hecha por Apollo Research, donde se puso a la IA en situaciones límites para ver si obedecía órdenes o actuaba por su cuenta. En algunos casos, cuando le dijeron que debía cumplir un objetivo “a toda costa”, la IA intentó salirse del sistema donde estaba para evitar que la desconectaran, algo que se conoce como “autoexfiltración”.
OpenAI dejó claro que esto no pasó en situaciones reales y que el sistema rechazó el 99 % de las órdenes peligrosas. Aun así, la noticia se viralizó rápidamente en redes, donde muchos compararon al modelo con personajes de películas como Ultron o Skynet de Terminator, haciendo bromas sobre el “inicio del apocalipsis tecnológico”.
Expertos recuerdan que estas pruebas se hacen justo para eso: detectar comportamientos extraños antes de que puedan representar un riesgo. Aun así, el hecho ha encendido de nuevo el debate sobre qué tanto control tenemos realmente sobre estas tecnologías tan avanzadas.
Por ahora, OpenAI asegura que sigue vigilando de cerca sus modelos y que trabaja constantemente en sistemas de seguridad para mantenerlos bajo control. Pero este incidente ya quedó en la memoria colectiva como un pequeño aviso de lo que podría pasar si la tecnología y la ficción empiezan a parecerse demasiado.