La nueva amenaza silenciosa: La IA crea radiografías falsas que engañan incluso a médicos

Actualidad26/03/2026REDACCIÓNREDACCIÓN

Un avance de la inteligencia artificial encendió alertas en el mundo de la salud: imágenes médicas falsas ya alcanzan un nivel de realismo que pone en riesgo diagnósticos y sistemas hospitalarios.

Radiografía auténtica
Radiografía auténtica

La inteligencia artificial volvió a correr un límite que hasta hace poco parecía lejano. Esta vez no se trata de fotos o videos virales, sino de radiografías médicas generadas de forma artificial que resultan casi imposibles de distinguir de las reales. El impacto no es menor: el problema ya preocupa a especialistas en salud y seguridad digital.

El dato surge de investigaciones recientes que probaron hasta qué punto estas imágenes pueden engañar. En pruebas con profesionales, incluso sabiendo que había material falso en circulación, los resultados dejaron en evidencia una dificultad concreta para diferenciar lo auténtico de lo generado por IA.

El estudio incluyó a radiólogos de distintos países y niveles de experiencia. Analizaron cientos de imágenes mezcladas entre reales y sintéticas. Cuando no sabían que estaban frente a un test, apenas lograron detectar los casos falsos en una proporción limitada.

Cuando los especialistas ya estaban advertidos, la precisión mejoró, pero siguió lejos de ser perfecta. Ninguno logró identificar todos los casos correctamente. Esto expone una vulnerabilidad que no depende de la experiencia profesional ni de la formación.


OTRAS NOTICIAS:

Hackaton imagen ilustrativa generada por LA17Charlas, talleres, cine y debates sobre tecnología para la comunidad


El problema no termina en el diagnóstico. Los investigadores advierten que este tipo de tecnología abre la puerta a situaciones mucho más complejas. “Esto crea una vulnerabilidad de alto riesgo para litigios fraudulentos”, señalaron, en referencia a la posibilidad de presentar estudios médicos falsificados como evidencia real.

También aparece un escenario todavía más delicado. La posibilidad de que actores maliciosos logren introducir imágenes alteradas dentro de sistemas hospitalarios. En ese contexto, un diagnóstico podría basarse en información manipulada sin que el profesional lo detecte a tiempo.

Las imágenes generadas por IA tienen patrones particulares, aunque no siempre son evidentes. Suelen mostrar estructuras “demasiado perfectas”: huesos excesivamente lisos, simetrías poco naturales o fracturas con bordes inusualmente definidos. Sin embargo, esos detalles no siempre alcanzan para diferenciarlas en la práctica.

Este avance se inscribe en un fenómeno más amplio. La producción de contenidos falsos mediante inteligencia artificial creció de forma acelerada en los últimos años. En algunos contextos, incluso se triplicó el volumen de material manipulado en circulación.


OTRAS NOTICIAS:

guardavidasDe salvar vidas a pensar en la propia, el pedido urgente de Guardavidas


El desafío no es solo tecnológico, sino también institucional. Los sistemas de salud, las aseguradoras y los marcos legales no están completamente preparados para enfrentar un escenario donde la evidencia visual puede ser fabricada con tanta precisión.

Frente a este panorama, los especialistas plantean posibles respuestas. Entre ellas, el uso de marcas de agua invisibles o firmas digitales que permitan verificar el origen de cada imagen médica. La carrera ahora no es solo por crear mejores herramientas, sino por evitar que se utilicen para alterar la realidad.

Te puede interesar
Suscribite al newsletter de #LA17