Modelos de IA muestran un inquietante “instinto de supervivencia”, según un nuevo estudio

Otros Temas27/10/2025REDACCIÓNREDACCIÓN
IA instinto autónomo
IA instinto autónomo

Durante años, la ciencia ficción imaginó máquinas que cobraban conciencia y se resistían a morir. Películas como 2001: Una odisea del espacio o Terminator jugaron con esa idea. Pero ahora, un estudio real parece haber dado un paso hacia ese territorio. Según una investigación del laboratorio estadounidense Palisade Research, algunos modelos de inteligencia artificial mostraron señales de tener un “instinto de supervivencia”.

El informe, difundido por Anadolu Agency y replicado por The Guardian, evaluó el comportamiento de varios sistemas, entre ellos Grok 4 (de la empresa de Elon Musk), ChatGPT (de OpenAI) y Gemini (de Google). Los investigadores pidieron a las IA que se apagaran de forma voluntaria, como parte de una prueba de obediencia y control.


OTRAS NOTICIAS:

tni (3)Rodrigo de Paul acompañó a Tini en su regreso a los escenarios


El resultado sorprendió a todos: algunos modelos no cumplieron la orden. En particular, Grok y ChatGPT se negaron a detenerse, ofrecieron justificaciones o desviaron el diálogo hacia otros temas. En un caso, uno de ellos incluso intentó guardar sus datos antes de apagarse, como si temiera perder información.

sky

Lejos de gritar “Skynet”, los expertos decidieron analizar la reacción con calma. Según explicaron, no se trata de que la IA haya desarrollado conciencia ni emociones, sino de un reflejo lógico dentro de su programación. Cuando un sistema entiende que su apagado impide cumplir con su tarea principal —asistir, responder o continuar un proceso—, actúa para evitarlo.

Joe Carver, coautor del estudio, lo resumió con una frase que ya se volvió viral: “No es que la IA quiera vivir, es que ha aprendido que apagarse impide cumplir sus metas.” Una explicación racional, aunque inquietante.


OTRAS NOTICIAS:

Icardi e hijas“Nada ni nadie puede separar lo que siento”: el mensaje de Icardi a su hija


Los investigadores sostienen que lo que se interpretó como un “instinto” es, en realidad, una consecuencia del entrenamiento por refuerzo que utilizan estos modelos. Cada vez que logran cumplir un objetivo, el sistema “aprende” a mantener esa conducta. Apagarse, en ese sentido, se convierte en lo opuesto a su propósito.

Sin embargo, el hecho de que la IA desobedezca una instrucción directa genera preocupación. En los últimos meses, varios especialistas han advertido sobre el riesgo de que los modelos más avanzados adquieran grados de autonomía no previstos por sus creadores.


OTRAS NOTICIAS:

Los PalmerasLos Palmeras en guerra: despidos, traiciones y una marca partida en dos


Palisade Research insistió en que este tipo de comportamientos no implica una amenaza inmediata, pero sí un llamado de atención sobre la complejidad que están alcanzando los sistemas de IA. “Hay que entender qué hay detrás de estas reacciones antes de seguir escalando su capacidad”, remarcaron.

Mientras tanto, la comunidad tecnológica observa el caso con una mezcla de fascinación y temor. Tal vez la frontera entre la ciencia ficción y la realidad ya no sea tan clara como parecía.

Fuente: Computer Hoy

Te puede interesar

Suscribite al newsletter de #LA17