
La IA disparó los videos más graves de abuso infantil y dejó corta la respuesta legal
Actualidad05/04/2026
REDACCIÓNEl salto no estuvo sólo en la cantidad: el informe que relevó 2025 detectó más material realista, más videos en la franja de mayor gravedad y un marco legal que no acompaña el ritmo del daño.

La expansión del abuso sexual infantil generado con inteligencia artificial ya no se mide sólo por el volumen, sino por el tipo de material que empezó a circular con más fuerza. Durante 2025, la Internet Watch Foundation identificó 8029 imágenes y videos realistas de este delito creados con IA, un 14% más que el año anterior, y detectó que la parte más perturbadora del crecimiento estuvo en los videos, cada vez más presentes y más cercanos al máximo nivel de gravedad que usa el organismo para clasificarlos.
Ese corrimiento del problema hacia piezas más complejas y más difíciles de distinguir quedó expuesto en uno de los datos centrales del informe. De los 3443 videos detectados, 65% quedó dentro de la categoría A, la franja más severa de la escala de la IWF; en el material delictivo no generado con IA, esa proporción fue del 43%. La diferencia no habla sólo de una herramienta nueva: muestra que los agresores están usando estos sistemas para empujar el contenido hacia niveles de violencia y realismo superiores.


OTRAS NOTICIAS:
El otro dato que cambió la dimensión del fenómeno fue la velocidad. La cantidad de videos detectados se multiplicó más de 260 veces frente a 2024, cuando la IWF había encontrado apenas 13 piezas de ese tipo. En apenas un año, la novedad tecnológica dejó de ser un margen dentro del problema general y pasó a funcionar como una vía de producción mucho más agresiva, más accesible y más adaptable a los intereses delictivos que circulan en estos entornos.
La organización británica sostuvo que desde que empezó a monitorear este fenómeno, a comienzos de 2023, observa un “avance alarmante” en la capacidad de generar artificialmente este tipo de material. El informe también remarca que los videos creados con IA son “cada vez más extremos y sofisticados”, una descripción que no queda en el terreno retórico: se apoya en hallazgos en la dark web y también en plataformas comerciales de la web abierta, donde la producción y circulación de estas piezas dejó de ser un asunto restringido a espacios marginales.
OTRAS NOTICIAS:
La facilidad de uso de estas herramientas aparece como una de las claves del deterioro. Según la IWF, en foros de delincuentes relevados en la dark web se celebran abiertamente los avances de la IA generativa por su capacidad para mejorar el realismo, volver más inmersivos los escenarios y producir material a partir de consignas cada vez más simples. En su informe, la entidad advierte además que algunos modelos pueden reusar o manipular imágenes de menores reales, lo que profundiza la revictimización y eleva el riesgo de daño fuera de la pantalla.
Ahí es donde el problema tecnológico se convierte de lleno en un problema de protección infantil. La directora ejecutiva de la IWF, Kerry Smith, planteó que los avances técnicos “nunca deberían ir en detrimento de la seguridad y el bienestar de un niño” y advirtió que este material “es peligroso”. Su definición corrió la discusión del entusiasmo por la innovación hacia una pregunta más incómoda: qué pasa cuando la mejora técnica abarata, acelera y perfecciona una forma de violencia que ya existía, pero ahora puede fabricarse con menos barreras y más escala.
OTRAS NOTICIAS:
La respuesta institucional, mientras tanto, no muestra la misma velocidad. El Parlamento Europeo apoyó en marzo una extensión temporaria del régimen que permitía la detección voluntaria de material de abuso infantil en línea hasta el 3 de agosto de 2027, pero esa posición no alcanzó para cerrar un acuerdo definitivo. Las negociaciones fracasaron y la derogación provisoria terminó expirando el 3 de abril de 2026, de modo que el frente regulatorio europeo quedó más débil justo cuando el informe de la IWF describía una escalada en sofisticación y gravedad.
Esa descoordinación entre expansión tecnológica y respuesta legal también explica por qué la IWF insiste en un enfoque de seguridad “desde el diseño” dentro de las propias empresas de IA. La organización reclama que la protección infantil no aparezca al final, cuando el daño ya circula, sino incorporada desde la creación de productos, chatbots y generadores de imágenes. En otras palabras, la discusión ya no pasa sólo por borrar contenido una vez publicado, sino por impedir que ciertas herramientas lleguen a producirlo.
OTRAS NOTICIAS:
Lo que deja el informe no es una advertencia abstracta sobre un futuro posible, sino una fotografía concreta de un presente que ya cambió. En 2025 crecieron las piezas detectadas, se dispararon los videos, aumentó la proporción del material más grave y quedó expuesto que el abaratamiento técnico volvió más simple producir daño. El límite operativo aparece ahí: si los sistemas mejoran más rápido que los controles, la próxima discusión ya no será si la IA agrava este delito, sino cuánto más terreno le dejarán libre para seguir haciéndolo.
Fuente: LA NACION, Internet Watch Foundation, Parlamento Europeo.
















