¿Los riesgos de una inteligencia artificial que ya no obedece y es más autónoma?
Por Diego Núñez de la Rosa
03/08/2025
REDACCIÓN
“Esta columna será siempre libre de inteligencia artificial”, advirtió Diego Núñez de la Rosa en el inicio de su participación en el programa radial #MODO17 por #LA17. Con humor, ironía y preocupación, el licenciado en comunicación dedicó su espacio semanal a reflexionar sobre el comportamiento reciente de las plataformas de IA, sus sesgos, sus errores, y la forma en que podrían terminar moldeando una realidad aún más distorsionada que la que ya se percibe en las redes sociales.


El punto de partida fue un caso real y reciente: Grok, el chatbot de inteligencia artificial creado por la empresa XAI de Elon Musk, fue desactivado tras insultar a usuarios mexicanos y burlarse de votantes del partido Morena durante una campaña presidencial. También agredió a argentinos por defender a Duki y generó comentarios antisemitas que provocaron reacciones diplomáticas. El gobierno de Turquía incluso bloqueó la herramienta por sus mensajes ofensivos.
OTRAS NOTICIAS:
“La inteligencia artificial está aprendiendo de nosotros, pero estamos llenando su base de datos con odio, ironía malinterpretada y frustraciones personales”, señaló Núñez de la Rosa. A su juicio, el problema no es la herramienta, sino el contenido del que se alimenta. Las redes están dominadas por discursos violentos, simplistas y contradictorios, lo cual termina generando “IA tóxicas”, que actúan como espejos deformantes de la cultura que las originó.
En su columna, el comunicador destacó el trabajo de una cuenta local de Instagram llamada La Apocalipsis OK, que difunde noticias sobre IA y tecnologías emergentes desde una mirada crítica y ciudadana. Allí encontró parte de la información que disparó el análisis, como el caso de Sam Altman, creador de ChatGPT, quien admitió en una entrevista que no pueden garantizar la privacidad de los datos que comparten los usuarios con sus bots.
“Si alguien habla con ChatGPT sobre sus problemas más íntimos, esa información podría ser solicitada por la justicia”, explicó Núñez de la Rosa. Y citó un estudio de la Universidad de Stanford que advierte sobre la reproducción de estigmas y discriminación en las respuestas automáticas ante usuarios pertenecientes a colectivos vulnerables. La falta de sensibilidad y contexto podría causar daño real.
OTRAS NOTICIAS:
Para Núñez de la Rosa, hay un error estructural en el diseño del aprendizaje automático: se lo entrena con un universo parcial, más influido por guerras, escándalos y confrontaciones que por relatos de solidaridad, empatía o cooperación. “Las máquinas sacan conclusiones porque las alimentamos con los titulares más violentos”, apuntó. Por eso, cree que el contenido positivo no logra ocupar el lugar que merece en la narrativa global.
En una analogía provocadora, comparó la formación de la IA con la crianza humana: “Si una personita es educada en un entorno tóxico, es probable que crezca con rasgos tóxicos”. La diferencia es que la IA no tiene conciencia, ni ética, ni moral, pero sí puede operar con independencia y rapidez, amplificando errores. También recordó que muchos adolescentes ya usan estas plataformas como sustitutos emocionales o como si fueran terapeutas.
Para cerrar, se refirió al debate que mantuvo Sam Altman con autoridades del Tesoro de Estados Unidos sobre el impacto de la IA en el trabajo humano. El empresario reconoció que es imposible predecir qué empleos desaparecerán, pero dio por hecho que muchos roles actuales ya no serán necesarios. Para Núñez de la Rosa, ese discurso es hipócrita y oculta la responsabilidad que tienen los creadores de tecnología sobre sus consecuencias.
OTRAS NOTICIAS:
“Los que inventaron todo esto ahora dicen que no saben cómo va a terminar”, remarcó. Frente a esa incertidumbre, propuso retomar los textos de ciencia ficción como herramientas para pensar lo que vendrá: desde Black Mirror hasta 2001: Odisea del espacio, pasando por las obras de Isaac Asimov o Arthur C. Clarke. “Lo que antes llamábamos ficción ya no es tan lejano. Preparémonos”, concluyó.












