El Pentágono sanciona a empresa de IA tras negarse a liberar su tecnología militar

Actualidad15/03/2026REDACCIÓNREDACCIÓN

El gobierno de Estados Unidos incluyó a la empresa Anthropic en una lista de riesgo luego de su negativa a permitir el uso irrestricto de su inteligencia artificial en operaciones militares.

Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI.
Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI.

El Departamento de Defensa de Estados Unidos tomó una decisión que expone las tensiones entre el sector tecnológico y la estructura militar del país. La empresa de inteligencia artificial Anthropic quedó incorporada a una lista de compañías consideradas de riesgo para la seguridad nacional en materia de suministros. La medida llegó después de que la firma se negara a permitir el uso sin restricciones de su tecnología por parte del ejército.

La determinación implica consecuencias concretas en la cadena de proveedores del Pentágono. Todos los contratistas que trabajan con el organismo deberán dejar de utilizar productos o servicios vinculados a Anthropic en proyectos relacionados con defensa. Entre los sistemas afectados figura Claude, el asistente de inteligencia artificial generativa creado por la empresa.

El trasfondo del conflicto está en la postura adoptada por la compañía frente a las exigencias del gobierno estadounidense. Anthropic rechazó habilitar el uso de su tecnología para vigilancia masiva o automatización de ataques militares, condiciones que la administración buscaba ampliar para las fuerzas armadas.

El caso aparece en medio de un debate cada vez más intenso dentro de Estados Unidos sobre los límites del uso militar de la inteligencia artificial. En distintos ámbitos del sector tecnológico surgieron posiciones divergentes sobre la participación en proyectos vinculados a defensa.


OTRAS NOTICIAS:

energía undimotrizBuscan generar electricidad con el movimiento del mar frente a Mar del Plata


Según información difundida por medios internacionales, modelos tecnológicos de Anthropic se utilizaron previamente en tareas relacionadas con la preparación de la ofensiva israeloestadounidense contra Irán, episodio que derivó en una guerra en Medio Oriente. Ese antecedente elevó la sensibilidad política en torno al uso de herramientas de IA en escenarios militares.

Mientras en Washington se discuten estos límites, la disputa también recibe atención en otros países. El portavoz del Ministerio de Defensa chino, Jiang Bin, cuestionó el avance de la inteligencia artificial en el ámbito bélico y expresó preocupación por su impacto en las decisiones militares.

El funcionario señaló que permitir que algoritmos participen de forma determinante en operaciones armadas puede generar problemas éticos y tecnológicos. En ese marco sostuvo: "Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico".


OTRAS NOTICIAS:

Es una tecnología útil en lugares donde los métodos para recolectar energía eólica y solar son obsoletos.Científicos prueban un sistema que genera electricidad a partir del impacto de gotas de lluvia


El portavoz también recurrió a una referencia cultural para describir ese riesgo. "Una distopía como la que se describe en la película estadounidense 'Terminator' podría convertirse algún día en realidad", afirmó al responder preguntas sobre la intención de Washington de ampliar el acceso militar a sistemas de inteligencia artificial.

La película "Terminator", estrenada en 1984 y protagonizada por Arnold Schwarzenegger, presenta una historia situada en un futuro donde una inteligencia artificial domina sistemas militares y desencadena una guerra contra la humanidad. La referencia suele aparecer en debates públicos cuando se discute el grado de autonomía que podrían alcanzar los sistemas tecnológicos.

En este escenario, el conflicto entre el Pentágono y Anthropic expone las tensiones entre innovación tecnológica, intereses militares y límites éticos. La decisión del Departamento de Defensa muestra hasta qué punto las políticas de seguridad pueden influir en el vínculo entre el Estado y las compañías que producen inteligencia artificial.

Te puede interesar
Suscribite al newsletter de #LA17