
Ética cibernética: Renunció a una firma líder en IA y dejó una frase inquietante: “El mundo está en peligro”
Actualidad11/02/2026
REDACCIÓN
El crecimiento acelerado de la inteligencia artificial no solo despierta entusiasmo en Silicon Valley. También genera inquietud entre quienes trabajan en el corazón del sistema. La salida de un responsable de seguridad de una de las compañías más influyentes del sector volvió a poner esa tensión en primer plano.
Mrinank Sharma, hasta hace días encargado del área de salvaguardas en Anthropic, comunicó su renuncia con una advertencia directa. En su carta interna escribió: “El mundo está en peligro”, y aclaró que el problema no se limita a la inteligencia artificial. Según su planteo, los desafíos tecnológicos conviven con crisis interconectadas que avanzan al mismo tiempo.
El investigador explicó que su decisión no respondió a un desacuerdo puntual, sino a una reflexión más amplia sobre el rumbo del sector. Reconoció que en la empresa encontró determinación y talento, y sostuvo: “Hay tanto aquí que me inspira y me ha inspirado”. Sin embargo, admitió que actuar en coherencia con los propios valores se vuelve complejo en un entorno de presión constante.


Durante dos años trabajó en proyectos vinculados a la seguridad de los sistemas de IA. Entre sus aportes mencionó análisis sobre la adulación hacia la inteligencia artificial, mecanismos para reducir riesgos asociados al bioterrorismo asistido por estas tecnologías y la redacción de uno de los primeros casos formales de seguridad en este campo.
OTRAS NOTICIAS:
También participó en iniciativas de transparencia interna y en estudios que examinan cómo los asistentes digitales pueden influir en el comportamiento humano. En ese punto dejó una preocupación abierta: entender si estas herramientas pueden “hacernos menos humanos o distorsionar nuestra humanidad”.
En su carta reconoció que la tensión entre ética y exigencias del mercado no resulta sencilla. “He visto repetidamente lo difícil que es realmente dejar que nuestros valores rijan nuestras acciones”, escribió. Para Sharma, elegir el camino que considera correcto implica asumir costos personales y profesionales.
El contexto de su renuncia se vincula con un debate más amplio dentro de la industria tecnológica. Anthropic, fundada por exintegrantes de OpenAI, construyó su identidad pública alrededor de la seguridad y el uso responsable de la IA. Incluso su CEO, Dario Amodei, planteó en distintas ocasiones la necesidad de un marco ético sólido para evitar consecuencias graves.
Sharma fue más allá y describió el escenario actual como una acumulación de riesgos simultáneos. “Y no solo por la inteligencia artificial o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”, sostuvo en su mensaje. La advertencia no apunta a una catástrofe puntual, sino a la velocidad con la que crece el poder tecnológico sin que la reflexión avance al mismo ritmo.
OTRAS NOTICIAS:
En paralelo, dejó entrever una búsqueda personal. “Quiero aportar de una manera que sienta plenamente alineada con mi integridad y que me permita expresar mis particularidades”, señaló al explicar su decisión de volver al Reino Unido. Allí planea dedicarse a la escritura, al trabajo comunitario y al estudio de poesía.
La inteligencia artificial continúa expandiéndose en áreas como la salud, la educación y la investigación científica. Especialistas del sector destacan su potencial para resolver problemas complejos, siempre que existan regulaciones y controles adecuados. En ese equilibrio entre innovación y prudencia se inscribe la salida de Sharma.
El episodio no modifica el rumbo inmediato de la industria, pero deja expuesta una pregunta de fondo: cómo compatibilizar el poder transformador de la tecnología con la responsabilidad ética de quienes la diseñan. La frase con la que eligió despedirse resume esa inquietud y revela que el debate no se limita a lo técnico, sino que atraviesa decisiones personales y colectivas.














