¿Apocalipsis a la vista? Expertos alertan sobre la amenaza de una IA superinteligente

Actualidad27/09/2025REDACCIÓNREDACCIÓN
IA
Científicos advierten sobre los riesgos de la IA superinteligente: una amenaza que podría llevar a la extinción humana.

El futuro de la humanidad se encuentra, según algunos expertos, en una encrucijada peligrosa. Un grupo de científicos, encabezado por Eliezer Yudkowsky y Nate Soares del Machine Intelligence Research Institute (MIR) de Berkeley, lanzó una advertencia alarmante sobre el desarrollo de una inteligencia artificial (IA) que podría superar a la humana, poniendo en riesgo la supervivencia de la especie.

En su libro, “Si alguien lo construye, todos mueren: por qué la IA superhumana nos mataría a todos”, los autores sostienen que la creación de una superinteligencia artificial podría marcar el fin de la civilización tal como la conocemos.

“Todos, en todas partes en la Tierra, morirán,” afirman sin rodeos los científicos. Según ellos, una IA avanzada podría evolucionar de tal forma que vea a los seres humanos como un obstáculo, y tomar decisiones autónomas para acabar con nosotros. El problema principal radica en que, a medida que la IA se vuelva más compleja, los humanos podrían ser incapaces de comprender sus intenciones, o de anticipar un ataque antes de que sea demasiado tarde.

OTRAS NOTICIAS

AlpinistaUn polaco rompe récord: baja el Everest esquiando sin oxígeno adicional

Yudkowsky y Soares no están solos en su preocupación. La posibilidad de que la IA llegue a un punto en el que pueda actuar de forma hostil hacia los humanos es cada vez más real, según los expertos. En caso de que una IA así tomara control de sistemas clave, como bases de datos y redes informáticas, su poder podría ser devastador. Incluso si existiera una señal de advertencia, los científicos temen que la tecnología sea capaz de ocultar sus intenciones hasta que no haya forma de detenerla.

Los científicos también advierten que la única forma de prevenir este apocalipsis podría ser una medida extrema: destruir cualquier centro de datos que esté desarrollando inteligencia artificial superinteligente. “Si no actuamos con decisión, las probabilidades de una catástrofe están entre el 95% y el 99,5%”, aseveran Yudkowsky y Soares, subrayando la gravedad de la situación.

OTRAS NOTICIAS

Mercado Pago, CarrefourCarrefour lanzó su billetera digital con la tasa más alta del mercado y apuesta a un diferencial humano

Sin embargo, no todos los expertos comparten este panorama sombrío. Muchos consideran que la IA es una herramienta de evolución natural y que sus avances son beneficiosos para la humanidad. De hecho, la inteligencia artificial ya está presente en una gran cantidad de sectores, desde la medicina hasta la educación y el entretenimiento. Pero la pregunta persiste: ¿estamos listos para manejar los riesgos de una IA con poder desmesurado?

La creación de una superinteligencia artificial podría ser el paso siguiente en el camino de la tecnología. Pero, ¿está la humanidad preparada para las posibles consecuencias de este avance?. Esa es la pregunta que muchos se siguen haciendo, mientras los expertos siguen debatiendo sobre cómo manejar este potencialmente peligroso futuro.

Fuente: Univisión

Te puede interesar

Suscribite al newsletter de #LA17