Download on the App Store

¿Debería prohibirse el uso de la inteligencia artificial en

Exposición Inicial

Exposición Inicial del Equipo Afirmativo

Señoras y señores del jurado, compañeros debatientes: hoy no estamos aquí para rechazar la tecnología, sino para defender algo aún más valioso: la humanidad del derecho. Sostenemos que el uso de la inteligencia artificial en la toma de decisiones judiciales debe prohibirse, porque donde hay vida, dolor, esperanza y arrepentimiento, no puede haber algoritmos dictando sentencias.

¿Por qué? Porque la justicia no es una ecuación matemática. No se resuelve con big data ni aprendizaje profundo. Se construye con miradas, silencios, historias y contexto. Y si permitimos que una máquina decida el destino de una persona, estaremos cruzando una línea roja tan grave como permitir que un termómetro elija qué medicina tomar.

Nuestro primer argumento es claro: la IA reproduce y amplifica sesgos sociales. ¿Un algoritmo es neutro? ¡Qué ingenuidad! Si se entrena con datos históricos de un sistema ya desigual —donde minorías pagan penas más largas, donde la pobreza se confunde con peligrosidad—, entonces el “aprendizaje” de la IA será: “pobre = culpable”, “negro = riesgoso”. En Estados Unidos, sistemas como COMPAS ya han demostrado este sesgo racial. ¿Vamos a codificar el racismo en código binario?

Segundo: la opacidad de los algoritmos impide la rendición de cuentas. Imaginen un juez que dice: “Sentencio a 10 años… porque así lo decidió mi software”. ¿A quién demandan? ¿Al programador? ¿Al servidor? ¿Al dios del machine learning? Esto no es justicia, es burocracia divina. La ley exige motivación razonada, transparencia, recurso. Pero cuando el razonamiento está dentro de una “caja negra”, nadie puede revisarlo, cuestionarlo ni corregirlo. Eso no es Estado de Derecho: es tiranía encubierta.

Tercero: la inteligencia artificial carece de empatía, conciencia moral y sentido del perdón. Un juez humano puede ver temblar las manos de un acusado, escuchar un “lo siento” sincero, entender que detrás de un robo hay hambre, no maldad. Una IA ve patrones. Números. Probabilidades. Para ella, un niño de 14 años que robó pan es igual a uno que robó joyas. ¿En serio queremos una justicia que no distingue entre necesidad y avaricia?

Y cuarto, no menor: normalizar la decisión automática erosiona la responsabilidad humana. Si delegamos en máquinas lo más delicado —decidir libertad o cárcel—, pronto dejaremos de pensar críticamente. Como ese juez que firma automáticamente lo que sugiere el sistema, sin leer el caso. Así se colapsa la ética profesional. Así se vacía el alma del derecho.

No estamos en contra de la tecnología. Estamos a favor de su uso responsable: para organizar archivos, predecir congestión procesal, incluso alertar sobre inconsistencias. Pero jamás para decidir lo que solo un ser humano, con toda su imperfección y dignidad, debe decidir: el valor de una vida frente a la ley.

Prohibir no es retroceder. Es proteger. Porque si no cuidamos la humanidad de la justicia, pronto solo tendremos precisión… y mucha injusticia.


Exposición Inicial del Equipo Negativo

Gracias. Y antes de empezar, quiero decir algo importante: nadie propone que una computadora diga “usted está condenado” mientras toca el gong de un videojuego. Nadie quiere eso. Ni nosotros. Lo que defendemos es mucho más sensato: que la inteligencia artificial sea una herramienta de apoyo, supervisada, regulada y transparente, en un sistema judicial que hoy está al borde del colapso.

Sostenemos que no debería prohibirse el uso de la inteligencia artificial en la toma de decisiones judiciales, porque prohibir no protege: paraliza. Y en un mundo donde millones esperan años por una audiencia, donde jueces trabajan 16 horas diarias, cerrar la puerta a la tecnología no es noble: es irresponsable.

Primer punto: la sobrecarga judicial exige soluciones innovadoras. En muchos países, hay miles de casos acumulados. Personas inocentes en prisión preventiva por años. Víctimas que nunca ven justicia. ¿Y nuestra respuesta es decir “no gracias” a herramientas que pueden priorizar casos urgentes, predecir riesgos de fuga o violencia, o ayudar a redactar resoluciones? Sería como negarse a usar antibióticos porque curan “demasiado rápido”.

Segundo: la IA puede ser más objetiva que los humanos. Sí, lo dije. ¿Acaso no sabemos que los jueces también tienen sesgos? Que están más duros antes del almuerzo, más benévolos después. Que un estudio famoso mostró que las condenas varían según el resultado del partido de fútbol local. ¿Y pretendemos que son más “neutrales” que un algoritmo auditado, ajustado y mejorado constantemente? No se trata de perfección, sino de mejora continua. La IA no se cansa, no se enoja, no discrimina por intuición. Tiene datos, no prejuicios.

Tercero: prohibir no elimina el problema; regularlo sí. Si hay riesgo de sesgos, ¿por qué no exigir transparencia algorítmica, auditorías independientes, diversidad en los equipos de diseño? ¿Por qué no crear tribunales especializados en IA judicial? Prohibir es cómodo. Es como quemar todos los coches porque algunos choferes manejan borrachos. Mejor poner límites, licencias, controles. La solución no es volver a la carreta, sino conducir con cinturón de seguridad.

Y cuarto: el futuro no es humano versus máquina, sino humano junto a máquina. Imagine un juez que recibe un informe de IA con: “Este caso es similar al 78% de los que terminaron en absolución por falta de pruebas”. ¿Lo ignora? O ¿lo usa como alerta para revisar bien la evidencia? La IA no decide: asiste. Es como un GPS. No elige el destino, pero evita que te pierdas. ¿Queremos jueces que anden perdidos en montañas de papeles mientras la justicia se oxida?

No, no queremos jueces robots. Queremos jueces mejor equipados. Porque la verdadera injusticia no es la tecnología: es dejar que millones sigan sin acceso a una sentencia justa, oportuna y equitativa, por miedo a probar algo nuevo.

No prohibamos. Evolucionemos. Porque la justicia del futuro no debe elegir entre corazón y código. Debe tener ambos.

Refutación de la Exposición Inicial

Refutación del Equipo Afirmativo

Gracias, presidente. Y gracias al equipo contrario por su apasionada defensa del progreso tecnológico… aunque, si me permiten, su visión suena menos a “futuro de la justicia” y más a “presente de Silicon Valley vendiendo soluciones a problemas que no entienden”.

El primer orador del equipo negativo nos pintó un cuadro desolador: jueces agotados, prisiones llenas de inocentes, archivos que se pudren. Y entonces llega la IA como Superman, capa al viento, lista para salvar el sistema. Pero perdonen mi escepticismo: ¿no será que están confundiendo urgencia con legitimidad?

Sí, el sistema judicial está sobrecargado. Nadie lo niega. Pero resolver una crisis procesal no justifica entregar el alma del derecho a una máquina. Sería como decir que, porque hay escasez de médicos, deberíamos permitir que los robots operen corazones sin supervisión humana. La urgencia no anula la ética.

Su primer argumento —la sobrecarga— es emotivo, pero peligrosamente simplista. ¿Acaso no sabemos que los recortes presupuestarios, la corrupción y la falta de formación son las verdaderas causas del colapso? En vez de invertir en personas, en salarios dignos, en capacitación, ustedes proponen parches digitales. Como si arrojar algoritmos a un pozo sin fondo fuera a llenarlo.

Y hablan de objetividad. ¡Ah, la famosa “objetividad” de la IA! ¿En serio creen que un algoritmo entrenado con datos históricos puede ser neutral? Si la policía ha vigilado más a ciertos barrios durante décadas, la IA aprenderá que esos barrios son “más peligrosos”. No porque lo sean, sino porque han sido sobre-policíados. Eso no es objetividad: es racismo estadístico enmascarado de matemáticas.

Ustedes dicen: “Regulémoslo, no lo prohíbamos”. Suena razonable… hasta que uno recuerda que ninguna regulación puede programar la empatía. Ningún comité de ética puede codificar el perdón. ¿Cómo va a regularse el instinto humano de comprensión frente al arrepentimiento? ¿Van a crear un protocolo para que la IA detecte lágrimas sinceras? ¿Un botón de “misericordia”?

Además, señalan que la IA solo “asiste”. Pero todos sabemos cómo funcionan estas cosas: hoy asiste, mañana influye, pasado mañana decide. Es la normalización del control algorítmico. Como ese juez que empieza consultando el software y termina firmando sin leer. ¿Dónde trazan la línea? Porque en la práctica, esa línea se desdibuja rápido.

Y aquí viene su mayor contradicción: ustedes critican los sesgos humanos… pero ignoran los sesgos técnicos. Dicen que los jueces se equivocan por cansancio o emociones. ¡Correcto! Pero al menos un juez puede ser destituido, puede explicar su error, puede pedir disculpas. Un algoritmo, no. Cuando falla, falla en serie, en silencio, sin rendir cuentas. Es el juicio en modo automático: eficiente, escalable… e inhumano.

No estamos contra la tecnología. Estamos contra la abdicación. Porque si delegamos la decisión última a una máquina, ya no estamos modernizando la justicia: estamos deshumanizándola. Y eso no es evolución. Es renuncia.

Así que sí: prohibir el uso de la IA en decisiones judiciales no es un acto de miedo. Es un acto de defensa ética. Protegemos no solo a los acusados, sino al sentido mismo de la justicia: que quien juzga, también pueda sentir.


Refutación del Equipo Negativo

Respeto profundamente la pasión del equipo afirmativo por la humanidad del derecho. De verdad. Pero si seguimos su lógica, pronto estaremos exigiendo que los jueces escriban las sentencias con pluma de ganso y tinta hecha a mano, porque todo lo digital “deshumaniza”.

Su discurso fue hermoso. Poético, incluso. Pero en este debate, la belleza no sustituye a la realidad. Y la realidad es que millones de personas sufren hoy una injusticia mucho más grave que la posibilidad remota de que un algoritmo se equivoque: sufren la injusticia del silencio, del olvido, del proceso que nunca llega.

El primer orador afirmativo nos habló de empatía, de miradas, de manos temblorosas. Todo muy conmovedor. Pero ¿cuántos acusados creen que han visto un juez con esos rasgos de humanidad? ¿En qué sistema judicial del Tercer Mundo? ¿En qué serie de televisión?

La empatía no es un lujo que todos puedan pagar. Hoy, la empatía es un privilegio de quienes tienen acceso rápido a la justicia. Los demás esperan años. Mientras tanto, la prisión preventiva arruina vidas. ¿Y su solución? Prohibir cualquier herramienta que podría acelerar el proceso. Eso no es defender la humanidad: es condenarla a la lentitud.

Ustedes dicen que la IA reproduce sesgos. ¡Y tienen razón! Pero el problema no es la IA: es el sesgo. Y curiosamente, los jueces humanos también los tienen. ¿O acaso no existen estudios que demuestran que las sentencias varían según el color de piel, el nivel educativo o el acento del acusado?

Entonces, ¿por qué demonizar a la máquina y absolver al humano? ¿Porque el juez tiene alma y la IA no? Pero el alma no garantiza justicia. A veces, el alma tiene prejuicios, traumas, fatiga. La IA, al menos, puede auditarse. Puede corregirse. Puede mejorarse con datos nuevos. Un juez, no siempre.

Y hablan de la “caja negra”… como si los jueces fueran transparencia personificada. ¿Cuántas sentencias hemos leído donde el razonamiento es vago, contradictorio o simplemente copiado y pegado? ¿Eso no es también una caja negra? Al menos con la IA podemos exigir explicabilidad técnica. Con un juez, a veces solo queda rezar.

Además, señalan que la IA no puede perdonar. Correcto. Pero nadie está pidiendo que la IA perdone. Nadie propone que un chatbot decida si alguien merece una segunda oportunidad. Lo que proponemos es que la IA ayude a filtrar casos, a identificar patrones, a alertar sobre inconsistencias. Que el juez siga siendo el último filtro, el árbitro moral. Solo que ahora, equipado con mejores herramientas.

Y aquí está su mayor falacia: confunden el uso con el abuso. Porque hay sistemas mal diseñados, como COMPAS, no podemos tirar toda la tecnología. Sería como prohibir los aviones porque uno se estrelló. Mejor: investiguemos el accidente, actualicemos los protocolos, y sigamos volando.

Prohibir la IA en la toma de decisiones judiciales no protege la justicia. La ahoga en burocracia y desigualdad. Porque mientras ustedes debaten si un algoritmo puede tener alma, afuera, en el mundo real, hay madres que llevan cinco años esperando que alguien escuche su caso.

No queremos jueces robots. Queremos jueces libres, bien informados y apoyados por tecnología responsable. Esa es la justicia del futuro. No la de hace 200 años, iluminada por velas, sino la de hoy: precisa, rápida, equitativa.

Y si de algo no debemos tener miedo, es de mejorar. Porque la verdadera deshumanización no es usar una herramienta. Es dejar que millones sigan sin justicia… por miedo al cambio.

Interrogatorio Cruzado

Interrogatorio del Equipo Afirmativo

Tercer orador afirmativo:
Gracias, presidente. Paso a formular mis preguntas al equipo contrario, defensores del juez digital con wifi y alma de silicona.

Pregunta 1 – Al primer orador negativo:
Usted argumentó que la IA puede ayudar a priorizar casos urgentes y reducir la sobrecarga judicial. Muy noble. Pero dígame: si un algoritmo decide qué víctimas merecen atención inmediata basándose en patrones históricos… ¿no corremos el riesgo de que ignore a quienes nunca han sido escuchados? Es decir, si la historia del sistema penal ha ignorado a las mujeres maltratadas en zonas rurales, ¿no entrenaremos a la IA para que también las ignore? ¿No será entonces un sistema que cura la lentitud… matando a los invisibles?

Respuesta del primer orador negativo:
Entiendo su preocupación, pero es precisamente por eso que hablamos de supervisión humana. La IA no actúa sola; detecta patrones, pero el juez toma la decisión final. Además, podemos ajustar los datos para incluir subpoblaciones históricamente marginadas. No es una excusa para no usarla, sino un llamado a usarla mejor.

Pregunta 2 – Al segundo orador negativo:
Usted dijo que los jueces humanos también tienen sesgos, y que al menos la IA puede auditarse. Muy cierto. Pero aquí va mi pregunta: cuando un juez se equivoca por prejuicio, podemos verlo, criticarlo, destituirlo. Cuando un algoritmo comete el mismo error… miles de veces, en silencio, sin explicación… ¿quién lo lleva a juicio? ¿Al programador? ¿Al servidor que se sobrecalentó? ¿O simplemente decimos: “fue un bug”, y seguimos adelante? ¿Dónde está la rendición de cuentas en ese caso?

Respuesta del segundo orador negativo:
La responsabilidad sigue siendo humana: del diseñador, del supervisor, del juez que acepta la recomendación. Y sí, hay mecanismos emergentes de auditoría algorítmica. No es perfecto, pero avanzar hacia la transparencia técnica es mejor que quedarse con la opacidad emocional de un juez cansado.

Pregunta 3 – Al cuarto orador negativo:
Usted ha defendido que la IA “solo asiste”. Pero todos sabemos cómo funciona la normalización: hoy sugiere, mañana influye, pasado mañana dicta. Dígame: si un juez firma automáticamente el 90% de las recomendaciones de la IA… ¿no es eso, en la práctica, una delegación de poder? ¿Y si ese juez ni siquiera entiende cómo funciona el algoritmo? ¿No estamos creando una casta de funcionarios que firman lo que no comprenden… porque confían más en un código que en su conciencia?

Respuesta del cuarto orador negativo:
Ese riesgo existe, pero no es inherente a la IA, sino a la mala formación judicial. La solución no es prohibir, sino capacitar. Un juez debe entender lo que usa, como un piloto entiende su avión. Prohibir por miedo al mal uso sería como prohibir los libros porque algunos los leen mal.


Resumen del interrogatorio del equipo afirmativo:
Presidente, colegas: hemos escuchado respuestas que suenan bien… pero que no resisten el mundo real.
El equipo negativo admite que la IA puede perpetuar la exclusión, pero nos dice: “confiemos en los humanos para arreglarlo”.
Pero ¡justo eso es lo que falló durante siglos!
Dicen que pueden auditar los algoritmos… pero no nos dicen cómo juzgar a una máquina que falla en cadena.
Y reconocen el peligro de la delegación automática… pero proponen como solución “capacitar más”, como si eso ya no hubiera sido prometido por cada reforma judicial desde el siglo XIX.
En resumen: quieren que confiemos en una tecnología opaca, con sesgos ocultos, supervisada por humanos igual de sesgados… y nos llaman “miedosos” si pedimos frenos éticos.
Lo que nosotros llamamos miedo, ellos lo llaman fe.
Pero la justicia no se construye sobre fe. Se construye sobre responsabilidad. Y eso, señorías, ninguna IA puede jurarlo.


Interrogatorio del Equipo Negativo

Tercer orador negativo:
Gracias. Paso a interrogar al equipo afirmativo, defensores del juez humano con lágrimas sinceras y sentencias a mano alzada.

Pregunta 1 – Al primer orador afirmativo:
Usted sostiene que la IA carece de empatía, y que eso la inhabilita para juzgar. Muy poético. Pero dígame: si un juez humano condena a un niño de 14 años por robo de pan… ¿su empatía se activa si el niño llora, pero no si es estoico? ¿No es esa subjetividad emocional más injusta que un análisis objetivo de contexto socioeconómico? ¿No es acaso la empatía humana… arbitraria?

Respuesta del primer orador afirmativo:
La empatía no es arbitrariedad. Es capacidad de comprensión profunda. Un juez puede ver más allá de las lágrimas: puede escuchar el silencio, leer la historia. La IA solo ve variables. Y si codificamos la pobreza como “factor de riesgo”, convertiremos a los pobres en delincuentes antes de nacer.

Pregunta 2 – Al segundo orador afirmativo:
Usted argumentó que prohibir la IA es un acto de defensa ética. Pero permítame esta pregunta: si tenemos una herramienta que puede predecir con 85% de precisión si un acusado volverá a delinquir… y decidimos no usarla… ¿no estamos siendo igual de irresponsables que si la usáramos mal? ¿No es éticamente dudoso negar información que podría proteger a futuras víctimas?

Respuesta del segundo orador afirmativo:
Precisión estadística no es justicia. Si la predicción se basa en barrios vigilados, no en conducta real, entonces “precisión” es solo otro nombre para discriminación sistémica. Además, ¿qué hacemos con el 15% que falla? ¿Les decimos: “lo sentimos, pero el algoritmo dijo que eras peligroso”? ¿Esa es su idea de protección?

Pregunta 3 – Al cuarto orador afirmativo:
Usted mencionó que la IA no puede perdonar. Correcto. Pero nadie le pide que perdone. Le pide que informe. Entonces, dígame: si un juez recibe un análisis de IA que muestra que el 92% de casos similares terminaron en absolución… ¿debería ignorarlo por miedo a que “contamine” su humanidad? ¿O usarlo como una brújula, no como un destino?

Respuesta del cuarto orador afirmativo:
Una brújula es útil… hasta que te hace caminar en círculos porque todos los anteriores iban perdidos. Si el 92% de esos casos fueron absueltos por sesgo de clase o racismo, entonces el algoritmo no es una brújula: es un eco. Y seguir un eco no te lleva a ninguna parte, salvo al abismo de la repetición.


Resumen del interrogatorio del equipo negativo:
Presidente: hemos escuchado hermosas palabras sobre el alma del derecho… pero pocas respuestas sobre el cuerpo de la justicia.
El equipo afirmativo defiende la empatía… pero no explica cómo garantizarla para todos, no solo para quienes llegan primero al juzgado.
Critican la predicción algorítmica… pero aceptan que los jueces tomen decisiones basadas en intuiciones igual de impredecibles.
Y rechazan el uso de información objetiva… como si la justicia debiera cerrar los ojos para parecer más pura.
Quieren un sistema humano… pero olvidan que los humanos también fallan, a veces con consecuencias irreparables.
Prohibir la IA no salva la ética.
A veces, encubrir la injusticia con romanticismo… es la forma más cruel de negarla.
Porque la verdadera empatía no es mirar con ojos sentimentales.
Es actuar para que nadie, ni el pobre, ni el olvidado, ni el que no llora, quede fuera del alcance de la justicia.
Y para eso, a veces, necesitamos más que un corazón.
Necesitamos herramientas.

Debate Libre

AF1 (Primer orador afirmativo):
Señor presidente, colegas: escucho al equipo contrario hablar de “auditorías”, “supervisión humana”, “mejora continua”… Suena muy bonito. Como si fuéramos a ponerle un casco de seguridad a Frankenstein y decir: “¡Ahora sí es inofensivo!”. Pero el problema no es que la IA se use mal. Es que no debería usarse en decisiones morales, por mucho que la embellezcamos con comités éticos.

Imaginen esto: una mujer rural denuncia violencia doméstica. La IA, entrenada con datos urbanos donde los casos se reportan más, determina que su caso “no sigue el patrón típico” y lo desestima. ¿Error de sistema? No. Error de diseño. Porque una máquina no entiende silencio forzado, miedo cotidiano, economía del terror. Un juez humano quizás tampoco lo entienda… ¡pero al menos puede mirarla a los ojos y preguntar: “¿Qué pasa cuando él cierra la puerta?”!

Y aquí va mi pregunta al equipo contrario: si saben que la IA falla en cadena, ¿por qué confiarle el primer filtro? ¿No es eso como decir: “Sí, algunos inocentes irán a prisión… pero es por el bien común”? Eso no es justicia. Es lotería punitiva.


NE1 (Primer orador negativo):
Gracias. Y qué bueno que mencionan el caso de la mujer rural, porque justo ahí está la paradoja: su solución es dejarla sola con un sistema que ya la ignora. Hoy, miles de mujeres como ella esperan años en procesos burocráticos. Mientras tanto, el agresor sigue libre. Y ustedes proponen: “Mejor nada. Que decida un humano, aunque tarde diez años”.

Pero ¿sabían que en Colombia, un algoritmo ayudó a priorizar 30.000 casos de violencia de género, acelerando audiencias en un 40%? ¿O que en Estonia, jueces usan IA para detectar inconsistencias en pruebas? No eliminaron la empatía. La potenciaron.

Ustedes temen la caja negra. Yo temo la caja gris: esa sentencia escrita a mano, con faltas de ortografía, razonamientos copiados, firmada por un juez cansado que vio 15 casos antes del almuerzo. Al menos con IA podemos exigir explicabilidad. Con el humano, a veces solo queda rezar… o apelar.

Entonces pregunto: ¿prefieren una justicia lenta, sesgada y opaca… o una rápida, auditada y con fallos corregibles? Porque prohibir no salva a nadie. Solo congela la injusticia actual.


AF2 (Segundo orador afirmativo):
Qué interesante. El equipo contrario nos dice: “La justicia humana es imperfecta, así que demos paso a la máquina”. Sí, es imperfecta. Como lo es caminar: a veces tropiezas. Pero no por eso te pones una moto en la cabeza y dices: “Al menos voy más rápido”.

Hablan de eficiencia. Pero la justicia no es logística. No se mide en tiempo por caso, sino en dignidad restituida. ¿Cuánto tarda en perdonar un algoritmo? ¿Cuánto en entender que un robo fue por hambre, no por odio?

Y sobre esos ejemplos de Colombia y Estonia: claro, la tecnología ayuda. Pero ¿dónde están los informes de impacto sobre grupos indígenas, personas con discapacidad, migrantes? ¿O creen que la IA los ve igual que a un abogado de clase media?

Además, su analogía del juez cansado es válida… hasta que uno recuerda que un juez puede arrepentirse, rectificar, pedir perdón. Una IA, no. Cuando falla, falla en serie. Y su “corrección” llega tarde: después de mil vidas arruinadas.

Así que no, no es “mejor que algo”. Es distinto. Y hay decisiones que no pueden externalizarse. Como criar a un hijo no se delega a un manual, juzgar no se delega a un software. ¿O sí?


NE2 (Segundo orador negativo):
Vaya, qué poético. “Juzgar es como criar hijos”. Me encanta la metáfora… pero me pregunto si aplicaría si su hijo estuviera preso por error durante cinco años, esperando que un juez “humano” revise su caso.

Sí, la justicia no es logística. Pero tampoco es poesía pura. Es institución. Y si una institución colapsa por carga, no se soluciona con más heroísmo individual. Se soluciona con herramientas.

Ustedes dicen: “La IA no entiende el contexto”. Correcto. Pero tampoco lo entiende el juez que nunca ha salido de su ciudad. Al menos la IA puede alimentarse de datos globales, de estudios multidisciplinarios, de variables socioeconómicas. Puede aprender. El juez, si no viaja, no.

Y sobre la rendición de cuentas: sí, la IA no se disculpa. Pero sí deja huella digital. Cada decisión, cada peso de probabilidad, cada alerta. Eso se audita. Un juez puede decir: “Lo sentí así”. ¿Cómo auditamos un sentimiento?

Prohibir la IA no protege a los vulnerables. Los abandona. Porque mientras ustedes defienden la “santidad” del juicio humano, afuera, en los barrios, la gente dice: “Prefiero un error algorítmico a ningún juicio”.


AF3 (Tercer orador afirmativo):
Presidente, escucho al equipo contrario diciendo: “Los pobres necesitan justicia rápida”. ¡Totalmente de acuerdo! Pero entonces, ¿por qué no invierten en más jueces, en mejor formación, en acceso universal? En vez de eso, les ofrecen un chatbot como consuelo.

Es como si, ante el hambre, en vez de pan, les dieran una app que simula saciedad. “Mira, este gráfico sube: tu estómago está lleno”. ¡No! El cuerpo sabe cuándo tiene hambre. Y la sociedad sabe cuándo una sentencia es inhumana.

Y hablan de huella digital. Qué moderno. Pero ¿saben qué huella dejó COMPAS en Estados Unidos? Miles de personas negras etiquetadas como “alto riesgo” sin haber cometido delito. Y cuando reclamaron, ¿qué pasó? Nada. Porque el algoritmo “no podía explicarse”.

¿Y saben qué dijo el juez que usó ese sistema? “Confío más en el software que en mi intuición”. ¡Ese es el peligro! No la máquina. La abdicación mental.

Así que no, no es “más herramientas”. Es más responsabilidad. Porque si queremos justicia para todos, no podemos empezar por quitarle el alma.


NE3 (Tercer orador negativo):
Qué curioso. El equipo afirmativo defiende el alma… pero olvida el cuerpo. El cuerpo de quien espera en prisión preventiva. El cuerpo de la víctima que nunca será escuchada.

Sí, hubo errores con COMPAS. Terribles. Pero no quemamos todos los hospitales cuando un médico se equivoca. Investigamos, sancionamos, mejoramos. ¿Por qué con la IA es distinto?

Además, su discurso asume que los jueces son héroes morales. Pero muchos son producto de elites, con sesgos estructurales, formados en facultades que no enseñan psicología social. Al menos la IA puede entrenarse con datos de neurociencia, criminología, incluso ética aplicada.

Y sobre la “abdicación mental”: ¡exacto! Por eso no proponemos IA autónoma, sino asistida. Como un GPS. Si el juez ignora una alerta de alto riesgo de reincidencia, bien. Pero al menos la vio. Hoy, muchas decisiones se toman a ciegas.

¿Prefieren un sistema donde todo depende del estado de ánimo del juez? ¿O uno donde, aunque imperfecto, hay señales, luces, advertencias?

Prohibir no evita el error. Lo oculta. Y eso… es injusticia cómplice.


AF4 (Cuarto orador afirmativo):
Presidente, colegas: escucho mucho “mejorar”, “auditar”, “supervisar”. Pero nadie responde a la pregunta nuclear: ¿quién juzga al juez que obedece al algoritmo?

Hoy, un juez puede ser destituido por corrupción. Mañana, ¿podrá serlo por seguir ciegamente una recomendación sesgada? ¿O dirá: “No fui yo, fue el sistema”?

Y sobre el GPS: qué buena analogía… si no fuera falsa. Un GPS no decide si conduces. La IA judicial sí influye. Y con el tiempo, más. Porque cuanto más se usa, más se normaliza. Hasta que un día, el juez joven ni siquiera cuestiona: firma.

Además, hablan de datos globales, neurociencia… pero ¿quién diseña esos modelos? ¿Empresas privadas? ¿Gobiernos autoritarios? ¿O comunidades afectadas?

La justicia no puede depender de black boxes creadas en Silicon Valley. Ni de parches tecnológicos que ignoran causas reales: pobreza, racismo, desigualdad.

Queremos justicia. No eficiencia. Queremos humanidad. No automatización. Y si eso requiere más tiempo, más recursos, más esfuerzo… ¡bienvenido sea! Porque algunas cosas no deberían acelerarse. Como el perdón. Como la reparación. Como el juicio.


NE4 (Cuarto orador negativo):
Presidente, hemos escuchado bellos discursos sobre el alma, el perdón, la mirada humana. Pero también hemos escuchado el silencio de millones que no tienen voz en este salón.

Sí, la IA no perdona. Pero tampoco condena por prejuicio inconsciente. No da penas más largas porque el acusado tenga el pelo rizado o el acento raro.

Y sobre quién juzga al juez: ¡exacto! Por eso necesitamos transparencia. Por eso exigimos que toda decisión asistida por IA deje registro. Que se pueda revisar. Que se audite.

El equipo afirmativo teme la normalización. Yo temo la naturalización del retraso. Porque decir “esperen, que un humano los atienda” suena noble… hasta que eres tú quien espera.

No proponemos eliminar al humano. Proponemos potenciarlo. Con datos, con alertas, con memoria perfecta.

Y si de algo estamos seguros: la justicia del futuro no será ni puramente humana ni puramente artificial. Será híbrida. Y quien se niegue a entrar en ese futuro, no defiende la humanidad. La entierra bajo el polvo de los archivos muertos.

Así que no. No prohibamos. Aprendamos. Supervisemos. Evolucionemos. Porque la verdadera ética no es temer a la tecnología. Es usarla bien.

Conclusión Final

Conclusión del Equipo Afirmativo

Señor presidente, jurado, amigos del derecho: hemos escuchado hablar mucho de eficiencia, de velocidad, de modernidad. Pero nadie ha respondido a la pregunta más importante: ¿qué precio estamos dispuestos a pagar por ella?

El equipo contrario nos dijo: “No queremos jueces robots”. Y nosotros les decimos: entonces, ¡no creen jueces digitales! Porque cuando un algoritmo sugiere una sentencia basado en datos históricos de opresión, no está ayudando: está automatizando la injusticia. Cuando un juez firma sin leer porque el sistema lo recomienda, no está delegando trabajo: está abdicando de su alma.

Sí, los humanos tenemos sesgos. Sí, nos cansamos, nos equivocamos, a veces hasta lloramos leyendo un caso. Pero ese error… ese temblor en la voz… esa duda antes de firmar… eso no es debilidad. Eso es conciencia. Eso es lo que nos hace capaces de perdonar, de entender, de cambiar de opinión. La IA no cambia de opinión. Solo aprende lo que ya hicimos mal.

Nos dijeron: “Regulemos, no prohibamos”. Pero regulación no cura lo incurable: la falta de empatía. No puedes regular el instinto de protección frente a un menor hambriento. No puedes codificar el perdón. Y si no puedes programar la compasión, no deberías permitir que el programa decida quién merece una segunda oportunidad.

La justicia no es un algoritmo de recomendación. No es Netflix diciéndonos qué película ver. Es el momento más sagrado del derecho: un ser humano mirando a otro y diciendo: “Te escucho. Te veo. Y aquí está mi decisión”. Si quitamos eso, si lo reemplazamos por un “según el modelo, la probabilidad de reincidencia es del 78%”, entonces ya no hay juicio. Hay predicción. Y la predicción no absuelve: condena por adelantado.

Prohibir el uso de la IA en decisiones judiciales no es un acto de miedo. Es un acto de amor. Amor por el derecho. Amor por la dignidad. Amor por la idea de que, incluso en el peor de los casos, alguien nos mirará a los ojos antes de decidir nuestro destino.

Así que no. No debería permitirse. Porque si algún día un niño roba pan para salvar a su madre, quiero que lo juzgue un humano… no una máquina que nunca ha tenido hambre.

Conclusión del Equipo Negativo

Gracias. Y permítanme comenzar con una confesión: también amo la empatía. También creo que la mirada humana vale más que mil líneas de código. Pero permítanme preguntarles: ¿cuántos tienen el lujo de esa mirada?

Mientras debatimos si un algoritmo puede tener alma, hay millones esperando años por un juez que ni siquiera los mire. Mientras nos estremecemos ante la posibilidad de errores algorítmicos, olvidamos que los errores humanos han encarcelado inocentes durante décadas. El racismo no empezó con la IA. Empezó con nosotros.

Decir “prohibamos” suena heroico. Suena puro. Pero es también cómodo. Es fácil decir “no” desde una sala con aire acondicionado, sin haber vivido la desesperación de quien lleva cinco años en prisión preventiva por un delito menor. Prohibir es como poner un candado a la puerta del hospital porque los medicamentos tienen efectos secundarios. Mejor: regulemos, monitoricemos, exijamos transparencia.

Sí, la IA puede fallar. Pero falla de forma visible. Puede auditarse. Puede corregirse. Un juez sesgado, muchas veces, falla en silencio. Y cuando lo hace, nadie revisa su “código interno”. Al menos con la IA, podemos exigir explicaciones técnicas. Con un humano, a veces solo queda rezar… o apelar.

Y no, no estamos proponiendo que una máquina diga “usted está culpable”. Estamos proponiendo que tenga voz en el coro. Que alerte. Que ayude. Que acelere. Que evite que un caso de violencia doméstica se pierda entre mil carpetas. Que un juez pueda tomar mejores decisiones, con más información, con menos carga procesal.

La verdadera pregunta no es si la IA es perfecta. Es si preferimos la imperfección humana, opaca e irresponsable, a la imperfección técnica, visible y mejorable. Nosotros elegimos lo segundo. Porque creemos en una justicia que no sea solo humana… sino humana y justa.

No queremos eliminar al juez. Queremos liberarlo. Liberarlo de montañas de papel, de decisiones automáticas por agotamiento, de sesgos inconscientes. Deseamos un futuro donde el juez tenga tiempo para mirar a los ojos al acusado… precisamente porque la IA ya hizo el trabajo pesado.

Por eso decimos: no prohibamos. Evolucionemos. Porque el mayor peligro no es la máquina que decide. Es el sistema que deja de decidir… por miedo a intentar algo nuevo.