
La IA deja al desnudo un escándalo judicial con fallos inventados en Argentina
Actualidad16/10/2025
Sergio Bustos
El uso de inteligencia artificial en el mundo jurídico argentino ya no es una novedad, pero un par de casos recientes expusieron su costado más riesgoso. Dos tribunales detectaron fallos inexistentes en presentaciones legales firmadas por abogados, lo que desató un fuerte debate sobre ética y responsabilidad profesional.


El episodio más resonante ocurrió en General Roca, Río Negro. Allí, la Cámara Civil descubrió 26 citas falsas en escritos presentados por ambas partes en una causa por la compra de un automóvil. Antes de fallar sobre la apelación, los magistrados decidieron verificar cada referencia legal. Lo que hallaron fue un verdadero escándalo.
Ninguno de los fallos citados existía. Los jueces buscaron en la Biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia de la provincia. Revisaron con precisión cada una de las 26 referencias, veinte atribuidas al abogado del damnificado y seis al representante de la empresa automotriz.
OTRAS NOTICIAS
Cuando fueron consultados, los letrados dieron explicaciones endebles. Uno habló de “errores de pluma”, mientras que el otro dijo que no pudo acceder a la revista doctrinaria usada como fuente. Ninguna respuesta convenció a la Cámara. La resolución fue contundente: anulación de la intervención de los abogados y retención de honorarios.
Además, el tribunal envió el caso al órgano de ética del Colegio de Abogados para que se evalúen posibles medidas disciplinarias. En su fallo, los jueces advirtieron que, aunque no lo admitieran expresamente, ambos profesionales probablemente usaron herramientas de IA generativa para redactar sus escritos.
“El uso de chatbots de IA generativa constituye una herramienta más que puede coadyuvar en el trabajo diario, pero los resultados deben ser indefectiblemente cotejados”, remarcaron los magistrados. También alertaron sobre el fenómeno conocido como “alucinaciones”, cuando los sistemas inventan datos y fuentes que parecen reales pero no lo son.
Un segundo caso ocurrió en la sala I de la Cámara Civil de Morón, Buenos Aires. Allí, un abogado presentó un recurso basado en una jurisprudencia que nunca existió. Se trataba de la supuesta causa “Barrios, Rubén Darío c/ Acuña, Gustavo Gabriel s/ Daños y perjuicios”. No había expediente, fecha ni referencias válidas.
OTRAS NOTICIAS
El juez que revisó la apelación explicó en la resolución el trabajo realizado para desarmar el engaño. Descubrió que el letrado había citado mal un precedente real —el “Fallo Barrios” verdadero— y que no verificó ninguna de las fuentes que incluyó. La Cámara declaró desierto el recurso y obligó a la parte damnificada a pagar las costas.
En esa misma presentación aparecían menciones a supuestos fallos “Ortiz” y “Rodríguez”, que tampoco figuraban en ningún registro judicial. Los jueces atribuyeron la situación al “uso inadecuado de sistemas de IA” y recordaron que las herramientas tecnológicas no sustituyen la verificación humana.
Aunque no hubo sanciones disciplinarias formales en ninguno de los casos, las resoluciones funcionaron como un fuerte llamado de atención para todo el ámbito legal. Los colegios de abogados recibieron copias para difundir las advertencias entre los matriculados y promover capacitaciones sobre el uso responsable de IA.
Este tipo de situaciones ya había tenido un antecedente en Rosario, en agosto pasado. La Cámara de Apelaciones en lo Civil y Comercial de esa ciudad dictó el primer fallo argentino sobre el tema. Allí también se destacó que la IA puede optimizar tareas, pero no reemplazar el criterio profesional ni el control humano.
El escándalo dejó al descubierto un problema creciente: abogados que delegan en la tecnología tareas que requieren revisión jurídica exhaustiva. Lo que en un principio parece un atajo puede transformarse en un error grave con consecuencias legales y reputacionales.
















