¿Es ético utilizar la inteligencia artificial en la toma de
Exposición Inicial
Exposición Inicial del Equipo Afirmativo
Buenas tardes, jurado, colegas, amigos del derecho. Permítanme comenzar con una pregunta: si un juez comete un error por cansancio, prejuicio o estrés, ¿lo excusamos porque es humano? Sí. Pero si una inteligencia artificial comete un error… ¿lo condenamos como si fuera un monstruo creado en un laboratorio? Hoy no venimos a enterrar a la justicia humana. Venimos a ampliarla.
Sostenemos que es ético utilizar la inteligencia artificial en la toma de decisiones judiciales, siempre que sea como una herramienta de apoyo, no de reemplazo. No proponemos robots en togas, ni juicios automatizados sin revisión humana. Proponemos inteligencia aumentada, no artificial pura. Y lo defendemos por tres razones fundamentales.
Primero: la IA reduce los sesgos inconscientes del sistema judicial. Sabemos que los jueces, por muy imparciales que quieran ser, cargan con prejuicios culturales, raciales, de género, incluso de horario. Hay estudios que demuestran que las sentencias son más duras antes del almuerzo que después. ¿En serio vamos a confiar el destino de una persona en el estado digestivo de un magistrado? La IA, entrenada con datos depurados y auditados, puede identificar patrones injustos y alertar cuando una decisión parece influenciada por factores irrelevantes. No elimina el juicio humano, lo protege.
Segundo: la IA promueve la equidad y la accesibilidad. En muchos países, millones de personas no tienen acceso a justicia por falta de recursos o sobrecarga del sistema. Imaginen un sistema donde la IA prioriza casos urgentes, resume expedientes, o ayuda a abogados defensores públicos a preparar recursos en minutos, no en días. Esto no es ciencia ficción: ya ocurre en Canadá, en Estonia, en partes de Brasil. La ética no está solo en la pureza del proceso, sino en su alcance. ¿Es ético negar esta herramienta a quienes más la necesitan?
Tercero: la transparencia de la IA puede fortalecer la rendición de cuentas. A diferencia de un juez que dice “lo decidí así porque lo siento”, la IA deja rastro. Puedes preguntarle: “¿por qué recomendaste esta pena?” y te muestra los datos, los precedentes, los factores ponderados. Eso abre la puerta a auditorías, a impugnaciones más precisas, a una justicia más explicativa. No es perfecta, pero es más transparente que muchas decisiones humanas actuales.
Algunos dirán: “¡Pero la justicia es humana!”. Y tienen razón. Por eso no proponemos eliminar al juez, sino empoderarlo. La IA no decide quién merece una segunda oportunidad; el juez lo hace. La IA solo le dice: “estas 37 personas tuvieron circunstancias similares, y 30 obtuvieron libertad condicional”. Es como un GPS: no elige tu destino, pero evita que te pierdas.
No estamos frente a una elección entre hombre y máquina. Estamos frente a una elección entre repetir errores del pasado o construir una justicia más justa. Y elegimos avanzar.
Exposición Inicial del Equipo Negativo
Gracias. Permítanme empezar con una imagen: un niño roba pan para alimentar a su hermana hambrienta. Un juez lo mira a los ojos, ve el miedo, la desesperación, y decide no condenarlo. Ahora imaginen lo mismo… pero el veredicto lo da un algoritmo. “Delito: hurto menor. Daño económico: 2.3 euros. Recomendación: multa de 150 euros o 10 días de prisión”. ¿Dónde quedó la compasión? ¿Dónde quedó la humanidad?
Nuestra postura es clara: no es ético utilizar la inteligencia artificial en la toma de decisiones judiciales, especialmente cuando afecta derechos fundamentales. No porque temamos la tecnología, sino porque entendemos que la justicia no es un problema matemático. Es un acto moral. Y los actos morales requieren conciencia, empatía y responsabilidad. Tres cosas que un algoritmo no tiene ni podrá tener.
Primero: la IA reproduce y amplifica los sesgos históricos. Dicen que la IA es objetiva, pero olvidan algo crucial: la objetividad depende de los datos. Y los datos del sistema judicial están llenos de discriminación. Si entrenas un algoritmo con miles de sentencias pasadas donde a los pobres se les dio más cárcel y a los ricos más probation, el algoritmo aprende: “pobre = peligroso”. Así, la IA no elimina el sesgo; lo codifica. En Estados Unidos, sistemas como COMPAS ya han sido denunciados por ser racistas. ¿Y ahora queremos exportar ese modelo a tribunales de familia, penales, menores? No podemos automatizar la injusticia y llamarlo progreso.
Segundo: la toma de decisiones judiciales requiere contexto, no solo datos. La ley no se aplica como una fórmula. Un juez debe considerar el arrepentimiento, la situación familiar, el entorno social, la salud mental. La IA no entiende el silencio incómodo, las lágrimas contenidas, el temblor de una voz. Reduce la vida humana a variables cuantificables. ¿Cómo mides en una escala de 1 a 10 el valor de una redención? ¿Cómo explicas en código binario el peso de una mirada de perdón?
Tercero: la responsabilidad ética no puede delegarse. Si un juez se equivoca, puede ser destituido, investigado, exigido a rendir cuentas. Pero si un algoritmo falla, ¿quién responde? ¿El programador? ¿La empresa? ¿El Estado? Nadie. Se crea una niebla de irresponsabilidad. “Fue el sistema” se convierte en la excusa perfecta. Y eso erosiona la legitimidad de la justicia. Cuando la gente no entiende cómo se toman las decisiones, pierde fe en ellas.
Proponer la IA en la justicia es como pedirle a un termómetro que cure la fiebre. Es útil como herramienta auxiliar, sí. Pero no puede ocupar el lugar del médico. Mucho menos del juez.
La ética no vive en los chips. Vive en las conciencias. Y mientras no podamos programar la dignidad humana, la justicia debe seguir siendo humana.
Refutación de la Exposición Inicial
Refutación del Equipo Afirmativo
Gracias. Permítanme decir algo que tal vez duela un poco: el primer orador del equipo negativo nos contó una historia tan conmovedora… que casi olvido que estaba defendiendo el uso de prejuicios codificados como “justicia tradicional”.
Su ejemplo del niño que roba pan para salvar a su hermana es poderoso. Sí. Pero también es una trampa retórica. Porque detrás de esa escena cinematográfica, están asumiendo que todos los jueces son sabios, compasivos y siempre hacen lo correcto. ¿Y los otros mil casos donde el juez tenía hambre, racismo inconsciente, o simplemente un mal día? ¿Dónde está la empatía ahí?
Ellos dicen: “la IA no tiene conciencia ni empatía”. Y tienen razón. Pero tampoco tiene odio, ni prejuicio, ni resentimiento de clase. Un juez puede sentir lástima por un niño pobre… o puede verlo como un delincuente nato. La IA no siente, pero tampoco discrimina por intuiciones falsas. Esa es la paradoja que no quieren ver: a veces, la falta de emoción es lo más humano que podemos ofrecerle a alguien injustamente acusado.
Además, señalan que la IA reproduce sesgos históricos. ¡Claro que sí! Pero aquí va una pregunta incómoda: ¿quién creó esos datos sesgados? ¿La máquina? No. Fuimos nosotros. Los jueces, los policías, el sistema entero. La IA no inventó la discriminación; la refleja como un espejo. Y a diferencia del juez que dice “yo soy imparcial”, la IA te muestra el reflejo. Puedes ver el sesgo, medirlo, corregirlo. Es como un detector de mentiras institucional. Duele, pero es necesario.
Y hablan de responsabilidad: “si falla la IA, ¿quién responde?”. Muy bien. Pero hoy, cuando un juez se equivoca por prejuicio racial, ¿quién rinde cuentas? Casi nadie. En cambio, con la IA, puedes auditar cada decisión, rastrear el error, actualizar el modelo. La responsabilidad no desaparece: se distribuye, se mejora, se hace sistémica. No queremos un chivo expiatorio; queremos un sistema que aprenda de sus errores.
En cuanto al contexto… sí, la vida humana es compleja. Pero ¿saben qué? La IA ya puede analizar registros médicos, informes psicológicos, historiales familiares, incluso tono de voz en declaraciones. No todo se reduce a números. Lo que hacemos es ampliar la capacidad del juez para ver más contexto, no menos. Hoy, muchos jueces toman decisiones con expedientes de 500 páginas que ni siquiera leen completos. ¿Eso es ético? La IA resume, destaca, alerta. No decide. Ayuda a decidir mejor.
Y respecto al ejemplo del termómetro… me encanta. Porque justamente: si tienes fiebre, necesitas más que un termómetro. Pero si no usas el termómetro, ¿cómo sabes si estás enfermo? La IA es ese termómetro. No cura, pero te dice cuándo algo anda mal. Y en un sistema judicial saturado, corrupto o deshumanizado, ese aviso puede salvar vidas.
No pedimos perfección. Pedimos progreso. Y el progreso no es elegir entre hombre o máquina. Es usar ambas para construir una justicia que, por primera vez en la historia, pueda ser realmente justa.
Refutación del Equipo Negativo
Gracias. El equipo afirmativo nos habló de “inteligencia aumentada”, de “IA como herramienta auxiliar”, de “transparencia y equidad”. Suena bonito. Tan bonito que parece un folleto de ventas de Silicon Valley. Pero vamos a abrir el capó y ver qué hay debajo de tanta promesa.
Dicen que la IA reduce sesgos. Pero ¿cómo puede reducirlos si se entrena con datos de un sistema profundamente injusto? Es como darle a un pintor ciego una paleta de colores grises y decirle: “pinta un arcoíris”. No importa cuán sofisticado sea el algoritmo: si la entrada es sesgada, la salida será sesgada. Y peor aún: la matemática le da apariencia de neutralidad a la discriminación. Un fallo algorítmico no dice “soy racista”; dice “es estadísticamente probable”. Y así, el racismo se vuelve invisible, indiscutible, casi científico.
Hablan de transparencia: “la IA deja rastro”. Sí. Pero ¿entiende alguien ese rastro? Los algoritmos de aprendizaje profundo son cajas negras. Ni sus creadores saben exactamente por qué toman ciertas decisiones. ¿Y ahora vamos a basar sentencias en sistemas que ni los expertos pueden explicar? Eso no es transparencia. Es opacidad disfrazada de código.
Y sobre la accesibilidad: sí, hay países que usan IA para gestionar casos. Pero ¿dónde están los estudios independientes sobre sus efectos reales? En Estonia, la IA ayuda a resolver disputas civiles simples. Pero no toca derechos fundamentales. Cuando cruzamos esa línea —cuando hablamos de libertad, de custodia, de vida o muerte— no podemos jugar a ser dioses con interfaces de usuario.
Además, señalan que la IA no elimina al juez, solo lo “empodera”. Pero la historia nos enseña que cuando delegas poder, lo pierdes. Primero es “recomendación”. Luego es “guía fuerte”. Luego es “estándar obligatorio”. Y al final, el juez que se niega a seguir el algoritmo es visto como sospechoso de corrupción o incompetencia. Ya está pasando. En EE.UU., jueces usan herramientas de riesgo de reincidencia no porque las entiendan, sino porque temen ser criticados si van en contra. Eso no es empoderamiento. Es sumisión encubierta.
Y su analogía del GPS… perdón, pero es ridícula. Un GPS no decide si debes perdonar a quien te hizo daño. No decide si una madre merece otra oportunidad. No siente el peso de decir “sí” o “no” a un ser humano roto. La justicia no es una ruta. Es un acto de responsabilidad moral. Y cuando delegas eso a una máquina, no solo evades la responsabilidad: la anulas.
Dicen que la IA puede analizar el tono de voz, los registros médicos… Como si escanear datos fuera lo mismo que entender un alma. La empatía no se entrena con datos. Se vive. Se siente. Y si creen que pueden cuantificar el arrepentimiento o la redención, entonces no han entendido nada de lo que significa ser humano.
Sí, el sistema actual tiene problemas. Pero la solución no es automatizar la injusticia con mejores gráficos. Es reformar el sistema con más jueces, más formación, más recursos, más humanidad. No podemos curar el cáncer de la justicia con un parche digital.
Al final, la pregunta no es “¿puede la IA ayudar?”, sino “¿debería?”. Y nuestra respuesta es clara: cuando está en juego la dignidad humana, la ética no puede ser delegada. Porque si no hay nadie que diga “yo soy responsable”, entonces nadie lo es. Y en ese vacío, no hay justicia. Solo algoritmos y excusas.
Interrogatorio Cruzado
Interrogatorio del Equipo Afirmativo
Tercer orador afirmativo:
Buenas tardes. Tres preguntas breves, por favor.
Primera pregunta – al primer orador negativo:
Usted mencionó el caso del niño que roba pan por hambre, y dijo que solo un juez humano puede mostrar compasión. Muy bien. Pero si mañana ese mismo juez, cansado, prejuicioso o malhumorado, lo condena a seis meses… ¿dónde quedó la compasión? ¿O acaso solo es ético cuando coincide con lo que usted considera justo?
Primer orador negativo:
La compasión no es perfecta, pero existe. La indiferencia algorítmica no siente ni erra por emoción, pero tampoco elige hacer lo correcto. Un error humano puede arrepentirse; uno matemático se justifica con estadísticas.
Segunda pregunta – al segundo orador negativo:
Usted afirma que la IA reproduce sesgos porque se entrena con datos históricos. Correcto. Pero si analizamos esos datos y ajustamos el modelo para corregir esa desigualdad, ¿no estamos haciendo exactamente lo que usted pide: reformar el sistema? ¿O es que solo vale la reforma si está hecha a mano, como si fuera artesanía judicial?
Segundo orador negativo:
Pueden ajustar los datos, sí. Pero quien define qué es “justo” en ese ajuste sigue siendo un grupo humano con sus propios sesgos. Y ahora, además, lo hacen en secreto, sin debate público, bajo el velo técnico de “optimización”. Eso no es reforma. Es ingeniería social disfrazada de neutralidad.
Tercera pregunta – al cuarto orador negativo:
Usted dijo que la responsabilidad no puede delegarse. Perfecto. Entonces, si hoy mil jueces toman decisiones basadas en intuiciones no auditables, sin explicaciones profundas, y muchos cometen errores injustos... ¿no es eso ya una delegación de poder sin rendición de cuentas? ¿Por qué exigir más transparencia a la máquina que al ser humano que la creó?
Cuarto orador negativo:
Porque el juez puede ser llamado a declarar, puede justificar su decisión, puede ser apelado por motivos morales, no solo técnicos. La máquina no da la cara. Y cuando falla, no hay nadie que diga: “fui yo”.
Resumen del interrogatorio del equipo afirmativo:
Gracias. El equipo contrario ha sido claro: defienden al juez humano incluso cuando falla. Pero han evitado responder por qué aceptan una opacidad estructural en los tribunales actuales, mientras rechazan cualquier herramienta que, aunque imperfecta, pueda exponer esos fallos. Admiten que los datos son sesgados, pero no que la IA puede ayudarnos a verlo. Y confiesan, sin querer, que su postura no es contra la tecnología, sino contra la rendición de cuentas sistémica. Prefieren un sistema opaco con alma a uno transparente con algoritmos. Pero la justicia no se sirve con buenas intenciones. Se sirve con resultados justos. Y hasta ahora, el sistema humano ha fallado demasiado. No pedimos perfección. Pedimos mejora. Y la mejora tiene nombre: evaluación, corrección, aprendizaje. Algo que, curiosamente, los humanos también deberíamos practicar.
Interrogatorio del Equipo Negativo
Tercer orador negativo:
Tres preguntas. Vamos al grano.
Primera pregunta – al primer orador afirmativo:
Usted dice que la IA es solo una herramienta, como un GPS. Pero si todos los jueces empiezan a seguir siempre la ruta que indica el GPS, ¿no termina este por definir el destino? ¿No es eso lo que ya ocurre con herramientas como COMPAS, donde ir contra la recomendación algorítmica se interpreta como negligencia?
Primer orador afirmativo:
Una herramienta muy usada no deja de ser una herramienta. El uso indebido no invalida el instrumento. Podría decirse lo mismo de los precedentes: ¿acaso siguen un fallo anterior por miedo, no por convicción?
Segunda pregunta – al segundo orador afirmativo:
Usted sostiene que la IA permite auditar decisiones. Pero si el algoritmo es una caja negra de aprendizaje profundo, ¿cómo audita usted algo que ni sus creadores entienden? ¿Audita con fe ciega?
Segundo orador afirmativo:
No todas las IAs son cajas negras. Existen modelos interpretables, y exigimos regulaciones que prioricen la transparencia técnica. Además, incluso una caja parcialmente oscura ofrece más rastro que una mente completamente opaca.
Tercera pregunta – al cuarto orador afirmativo:
Usted dice que la IA puede analizar tono de voz, historiales médicos, emociones. Muy bien. Si le doy dos videos: uno de un hombre que miente con convicción, y otro de uno que dice la verdad pero tiembla de nervios… ¿su algoritmo sabrá distinguir quién merece credibilidad? ¿O reducirá la verdad a un patrón de frecuencia cardíaca?
Cuarto orador afirmativo:
No prometemos certeza absoluta. Pero podemos identificar anomalías, congruencias, señales que un juez agotado podría pasar por alto. No buscamos reemplazar el juicio, sino evitar que se equivoque por falta de atención.
Resumen del interrogatorio del equipo negativo:
El equipo afirmativo ha sido consistente: creen en la mejora técnica. Pero sus respuestas revelan una fe casi religiosa en la IA. Dicen que no es una caja negra… pero no niegan que muchas sí lo son. Hablan de regulación como si ya existiera, como si bastara con desearla. Y cuando les preguntamos por los límites de la empatía cuantificable, responden con “ayuda a detectar señales”. ¿Señales de qué? ¿De verdad? ¿De arrepentimiento? ¿De dignidad?
Lo que hemos visto es un patrón claro: minimizan los riesgos, sobredimensionan los beneficios, y tratan los problemas éticos como meros “ajustes técnicos”. Quieren usar la IA para corregir el sesgo, pero no ven que están introduciendo un nuevo tipo de sesgo: el sesgo de confianza ciega en la tecnología.
Y respecto al GPS… permítanme una corrección: un GPS no te castiga por tomar una calle equivocada. Pero un algoritmo judicial sí puede condenarte por no seguir su ruta. Esa no es una herramienta. Es un juez invisible. Y si nadie lo ve, nadie lo detiene.
Debate Libre
(El debate libre comienza. Los oradores se levantan rápidamente, interrumpiendo con respeto, marcando el ritmo. El ambiente se calienta.)
Primer orador afirmativo:
¡Gracias! Quiero retomar algo que dijo su segundo orador: “La IA reproduce sesgos porque los datos están sesgados”. ¡Exacto! Pero… ¿y si justo por eso necesitamos la IA? Escuchen: si tu médico te diagnostica cáncer, no dices “no confío en el escáner porque a veces falla”. Lo usas para ver lo invisible. Pues bien: la justicia también tiene un tumor, y ese tumor se llama discriminación estructural. La IA no lo causa; lo revela. Y ustedes, en lugar de operarlo, quieren tirar el bisturí porque brilla demasiado.
Primer orador negativo:
¿Y quién opera, señor? ¿Un cirujano robot que no sabe qué es el dolor? Usted habla de tumores, pero olvida que el diagnóstico no es la cura. Sí, la IA puede detectar patrones. Pero cuando esos patrones dicen “persona de barrio X tiene 70% más riesgo de reincidencia”, ¿quién decide si eso es ciencia o estigma? ¿El algoritmo? No. Es el sistema que lo alimentó. Y ahora nos venden la radiografía como tratamiento.
Segundo orador afirmativo:
¡Justo! Y por eso exigimos regulación, auditorías, transparencia. Pero ustedes proponen… ¿qué? ¿Volver a cerrar los ojos? Hace cien años, algunos decían: “No dejemos que las mujeres voten, que rompen la armonía social”. Hoy dicen: “No dejemos que la tecnología revise nuestros prejuicios, que rompe la tradición”. Perdón, pero la tradición no es un argumento ético. Es una costumbre. Y muchas costumbres han sido injustas.
Segundo orador negativo:
Claro, y por eso cambiamos las costumbres con debate, con conciencia, con responsabilidad humana. No con actualizaciones de software. Ustedes hablan de regulación como si fuera un botón que se pulsa. ¿Dónde están esas leyes hoy? ¿Quién fiscaliza a las empresas que venden estos sistemas? En EE.UU., COMPAS fue usado en miles de sentencias antes de que alguien preguntara: “¿y esto es justo?”. Ahora quieren acelerar el proceso. Pero en justicia, la prisa es cómplice del error.
Tercer orador afirmativo:
Entonces, según ustedes, deberíamos paralizar toda innovación hasta tener un mundo perfecto, sin sesgos, sin corrupción, donde todos los jueces sean Kant con toga. ¡Fantástico! Mientras tanto, mientras debatimos en el paraíso filosófico, hay personas en prisión por errores evitables. Hay madres que pierden la custodia porque un juez no leyó el informe psicosocial completo. La IA no es la solución perfecta. Es la solución posible. Y preferimos una justicia imperfectamente ayudada a una justicia perfectamente solitaria.
Tercer orador negativo:
¡Qué bonito! “Solitario”. Como si el juez estuviera solo en una cueva, meditando. No. Está rodeado de abogados, peritos, familias, víctimas. Está en contacto con la vida real. Ustedes reducen la justicia a eficiencia: más rápido, más barato, más datos. Pero la justicia no es logística. Es relación. Es mirada. Es riesgo moral. Cuando un juez absuelve a alguien que técnicamente cumplió todos los requisitos para ser condenado, pero él siente que no merece castigo… eso no es error. Es humanidad. Y no se programa.
Cuarto orador afirmativo:
Y cuando un juez condena a un inocente por un mal día, ¿eso es humanidad o negligencia? Ustedes romantizan al juez como si fuera un santo infalible. Pero son humanos. Tienen fatiga, prejuicios, días grises. La IA no reemplaza esa humanidad. La protege. Imaginen un sistema donde la IA diga: “Oiga, juez, este caso es idéntico a otros 50 donde se otorgó libertad condicional. ¿Por qué aquí quiere prisión?” Eso no anula su decisión. La desafía a ser coherente. ¿No es eso ético?
Cuarto orador negativo:
Y si la IA dice: “Este caso es idéntico a otros 50”, ¿dónde queda la singularidad del ser humano? ¿Dónde queda que esta madre no es como las otras 50, que ella perdió a su hijo hace dos meses, que hoy llora en silencio, que su arrepentimiento no está en el expediente, sino en los hombros caídos? La IA ve datos. El juez ve una persona. Y si tenemos que elegir entre equivocarnos por falta de datos o por falta de alma, yo elijo el alma. Porque un error con corazón aún puede ser justicia. Un fallo sin corazón, nunca.
Primer orador afirmativo:
Con corazón, pero sin transparencia, sin corrección, sin aprendizaje. Su modelo es noble, pero está congelado en el tiempo. Nosotros proponemos un sistema que aprende de sus errores, que se corrige, que evoluciona. ¿Sabían que en Holanda usan IA para detectar fraudes en subsidios, y luego revisan cada caso con trabajadores sociales? No es todo máquina. Ni todo humano. Es equipo. Y funciona.
Primer orador negativo:
Sí, en fraudes administrativos. No en juicios por homicidio. No en casos de violencia de género. No donde está en juego el sentido mismo de la dignidad. Ustedes quieren llevar el modelo del banco al tribunal. Pero el banco te devuelve el dinero si se equivoca. La justicia no te devuelve los años de cárcel. No podemos tratar la libertad como un dato recuperable.
Segundo orador afirmativo:
Y cómo construimos esa justicia si no la medimos? Si no vemos dónde falla, cómo sabemos que avanzamos? La ética sin métrica es buena voluntad. La ética con datos es acción. Ustedes tienen miedo del poder de la IA. Bien. Pero el verdadero peligro no es la herramienta, es el uso que no supervisamos. Y por eso no la rechazamos: la regulamos, la educamos, la hacemos trabajar para nosotros.
Segundo orador negativo:
Y quién educa a la IA, ¿eh? ¿Los mismos que diseñaron sistemas racistas pensando que eran neutrales? La supervisión no es un interruptor. Es un proceso constante, político, ético. Y si delegamos incluso esa supervisión en algoritmos que monitorean otros algoritmos… llegaremos a un infierno burocrático de espejos infinitos, donde nadie da la cara. Yo prefiero un sistema imperfecto con responsables reales, a uno eficiente con fantasmas digitales.
Tercer orador afirmativo:
Fantasmas… como los prejuicios que nadie ve, pero que condenan a miles. Fantasmas como los expedientes perdidos, las audiencias pospuestas por años, los abogados defensores sobrecargados. Ustedes hablan de responsables, pero hoy muchos no rinden cuentas. La IA no es el dueño de la justicia. Es el testigo imparcial que exige explicaciones. Y si temen al testigo, tal vez es porque tienen algo que ocultar.
Tercer orador negativo:
O tal vez tememos convertir al testigo en juez. Porque una cosa es tener un ayudante que te recuerda las leyes, y otra muy distinta es tener un oráculo que dicta sentencias en nombre de la “eficiencia”. Ustedes dicen que no reemplaza al juez. Pero cuando la recomendación algorítmica se convierte en norma tácita, el juez ya no decide: obedece. Y en ese momento, no hemos avanzado. Hemos retrocedido al tiempo de los déspotas… solo que ahora llevan código binario.
(El tiempo se agota. Ambos equipos respiran. El aire está cargado. No ha habido consenso, pero sí claridad: este no es un debate sobre tecnología. Es sobre qué clase de humanidad queremos en la justicia.)
Conclusión Final
Conclusión del Equipo Afirmativo
Desde el principio, hemos sostenido una idea simple, pero revolucionaria: la ética no reside en la perfección del juez, sino en la justicia del resultado. No venimos a reemplazar la conciencia humana, sino a protegerla de sus propias sombras.
Hemos escuchado con respeto las advertencias del equipo contrario: “la IA no siente”, “no entiende el arrepentimiento”, “no puede mirar a los ojos”. Y tienen razón… hasta cierto punto. Pero permítanme hacerles una pregunta: ¿cuántos jueces hoy miran expedientes sin levantar la vista del papel? ¿Cuántos deciden sin conocer el rostro del acusado? ¿Cuántos basan su intuición en prejuicios que ni siquiera saben que tienen?
No defendemos la máquina por amor a la tecnología. La defendemos por amor a la justicia. Porque cuando un algoritmo señala que, en los últimos diez años, el 80% de las personas con discapacidad mental fueron condenadas a penas más largas sin evaluación psiquiátrica, eso no es frialdad técnica. Es un grito de alerta. Es la primera vez en la historia que podemos ver el sesgo estructural, medirlo, confrontarlo. Y si lo ignoramos porque “no tiene alma”, entonces estamos eligiendo la comodidad del misterio sobre la incomodidad de la verdad.
Sí, los datos están contaminados. Sí, hay riesgos. Pero la solución no es enterrar la cabeza en la arena judicial. Es auditar, regular, exigir transparencia. Es crear IAs interpretables, con supervisión ciudadana, con acceso público a sus lógicas. Países como Estonia ya lo hacen. Brasil lo prueba. Y el derecho evoluciona: antes usábamos burros para llevar documentos; hoy usamos nubes digitales. Nadie pide volver al burro. Porque el progreso no anula la humanidad: la sirve.
Lo que está en juego no es si confiamos en las máquinas, sino si confiamos en nuestra capacidad de mejorar. Porque si rechazamos toda herramienta que nos revele nuestros fallos, entonces no estamos defendiendo la dignidad humana… estamos protegiendo nuestro orgullo.
La justicia no fue nunca perfecta. Pero por primera vez, tenemos la posibilidad de hacerla más justa. No por magia. No por algoritmos infalibles. Sino porque, por fin, podemos ver lo invisible, nombrar lo impune, corregir lo arraigado.
Por eso concluimos: sí, es ético usar la inteligencia artificial en la toma de decisiones judiciales —siempre que sea con humildad, con control y con el juez como último guardián. Porque la verdadera ética no es temer al cambio. Es tener el coraje de usarlo para construir un sistema donde nadie sea condenado por el estado digestivo de un juez… ni por el peso de siglos de injusticia silenciada.
Gracias. Y que la razón, acompañada de conciencia, guíe su veredicto.
Conclusión del Equipo Negativo
Querido jurado: imaginemos un hospital donde todos los diagnósticos los da una IA. Los médicos solo firman. “Es más eficiente”, dicen. “Reduce errores humanos”. Pero un día, una paciente con cáncer terminal pide hablar con alguien. Quiere saber si hay esperanza. Quiere sentir una mano que la sostenga. Y le responden: “el sistema recomienda aceptación”.
¿Qué médico firmaría eso sin decir una palabra? Ninguno. Porque sabe que curar no es solo diagnosticar. Es acompañar. Es decidir con el alma.
Y eso, precisamente, es lo que está en juego aquí. No se trata de si la IA puede procesar datos mejor que un juez. Claro que sí. Se trata de si estamos dispuestos a convertir la justicia en un proceso de recomendaciones automáticas, donde lo humano se reduce a un clic de validación.
Ellos dicen: “la IA expone el sesgo”. Pero olvidan que también lo normaliza. Cuando un algoritmo dice “alto riesgo de reincidencia” basado en el barrio, la raza o el nivel socioeconómico, no lo hace con maldad. Lo hace con certeza estadística. Y esa certidumbre se vuelve ley. Invisible. Inapelable. Y lo peor: indiscutible. Porque ¿cómo le discutes a una ecuación? “Su honor, este hombre merece libertad condicional”. “Imposible, señoría: su índice de riesgo es 7.8”. ¿Acaso no suena esto como distopía? Pues ya es realidad en docenas de tribunales.
Dicen que la transparencia de la IA permite auditar. Pero ¿qué auditor puede entrar en una red neuronal oscura y decir: “aquí es donde decidió castigarlo por ser pobre”? Nada. Solo resultados. Sin explicación. Sin culpa. Sin arrepentimiento. Un sistema que falla sin pedir perdón.
Y cuando hablan de “herramientas auxiliares”, nos venden la escalera mientras ya están subiendo al techo. Porque en el momento en que un juez teme ir contra el algoritmo por miedo a represalias, ya no es auxiliar. Es jefe. Y si nadie asume la responsabilidad moral, entonces no hay justicia. Hay automatización de decisiones… con togas de adorno.
No negamos que el sistema actual tenga fallas. Pero la solución no es trasladar el problema a código. Es invertir en formación judicial, en más jueces, en más tiempo para escuchar, en más recursos para defender. Es recordar que la justicia no se mide en velocidad, sino en profundidad. No en eficiencia, sino en empatía.
Porque al final, no será un algoritmo quien mire a los ojos de una madre que ha perdido a su hijo por un error judicial y diga: “lamento haberme equivocado”. Eso solo puede hacerlo un ser humano. Con voz temblorosa. Con lágrimas. Con responsabilidad.
Por eso decimos: no es ético utilizar la inteligencia artificial en la toma de decisiones judiciales, cuando esas decisiones afectan derechos fundamentales. No porque temamos al futuro. Sino porque queremos proteger lo que nos hace humanos: la capacidad de elegir, de comprender, de perdonar… y de asumir las consecuencias.
La justicia no puede delegarse. Porque si no hay nadie que diga “yo decidí”, entonces nadie decidió. Y en ese vacío, no hay derecho. Solo silencio codificado.
Gracias. Y que su veredicto recuerde: detrás de cada caso, hay un rostro. Y ese rostro merece ser visto por alguien que pueda sentir.