Polémica en Argentina: juez usó IA para redactar parte de una sentencia

La Cámara de Esquel anuló una condena tras descubrir que un juez usó inteligencia artificial sin declararlo

TECNOLOGÍA

Enrique Mora

10/21/2025

En un hecho sin precedentes para el sistema judicial argentino, la Cámara Penal de Esquel anuló una sentencia condenatoria luego de descubrir que el juez de primera instancia utilizó inteligencia artificial generativa para redactar parte del fallo.

La polémica se desató cuando en el documento oficial apareció una frase que no dejaba lugar a dudas: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Esa simple línea fue suficiente para que los jueces superiores detectaran que el magistrado había usado una herramienta de IA, presumiblemente ChatGPT u otra similar, para fundamentar un tramo decisivo del fallo, sin transparencia ni constancia formal del uso.

La Cámara, integrada por los jueces Hernán Dal Verme, Martín Zacchino y Carina Estefanía, decidió anular la condena y ordenar un nuevo juicio con otro juez. Además, remitió el caso al Superior Tribunal de Justicia del Chubut para investigar las irregularidades.

Los magistrados fueron contundentes: el uso de IA sin control humano y sin dejar constancia vulnera principios esenciales del debido proceso, como la trazabilidad del razonamiento judicial y el derecho a la revisión imparcial. En palabras de la jueza Carina Estefanía, “no dejar constancia del uso de la herramienta impide conocer el grado de asistencia requerida y obstaculiza el control del razonamiento del juez”.

El caso pone sobre la mesa un debate urgente: ¿cómo debe usarse la inteligencia artificial en ámbitos tan sensibles como la justicia? El Superior Tribunal de Justicia del Chubut ya había emitido un acuerdo plenario que regula el uso ético de estas herramientas, estableciendo que solo pueden emplearse como apoyo y nunca para tomar decisiones sin supervisión humana.

Más allá del error individual, este episodio abre una conversación global sobre los límites de la automatización en profesiones donde la empatía, la interpretación y la responsabilidad humana son insustituibles.

Desde mi punto de vista, este caso no solo evidencia los riesgos del uso irresponsable de la IA, sino que también marca el inicio de una nueva era: una en la que los sistemas judiciales deberán adaptarse a convivir con tecnologías que pueden ser poderosas aliadas, pero también peligrosas si se usan sin ética ni transparencia.

TE PODRÍA INTERESAR