La irrupción de la inteligencia artificial (IA) en la vida pública ya no debe verse como una idea distante, es una realidad que está transformando con gran rápidez y mucha profundidad ámbitos tan sensibles como la administración de justicia. La automatización de tareas procesales, la ayuda en la elaboración de dictámenes y la gestión documental ofrecen oportunidades claras para aliviar la congestión judicial y mejorar la eficiencia.
Sin embargo, la eficiencia por sí sola no basta: sin garantías constitucionales, la modernización puede erosionar las bases mismas del Estado de derecho. Este artículo se apoya en el estudio de mi autoría denominado “Inteligencia Artificial y Justicia: Propuesta para una Integración Armónica en los Órganos Judiciales” presentado en el Décimo Sexto (XVI) Congreso Internacional de Derecho Constitucional celebrado en la ciudad de Bogotá, Colombia, el cual tiene propósito fungircomo guía para formular elementos que permitan una efectivaintegración de la IA en los tribunales y demás órganos de justicia, sin sacrificar derechos fundamentales.
La pregunta central que debemos plantearnos es sencilla y contundente: ¿cómo lograr que la tecnología mejore la justicia sin sustituirla? El uso de herramientas como Prometea en la Fiscalía de Buenos Aires —que aceleró la elaboración de dictámenes— o asistentes judiciales que procesan grandes volúmenes de jurisprudencia exhiben el potencial práctico de la IA. Pero también muestran riesgos: opacidad en las decisiones, sesgos replicados desde datos históricos y amenazas a la privacidad y al debido proceso. Frente a esto, las respuestas técnicas (mejor código, más datos) son necesarias pero insuficientes; hacen falta límites legales, institucionales y culturales.
Desde la óptica constitucional, tres vectores deben guiar cualquier política pública sobre IA en la justicia. Primero, el principio de igualdad: los algoritmos deben diseñarse y supervisarse para evitar que perpetúen o amplifiquen discriminaciones previas. Segundo, el derecho a la privacidad: el big data y los modelos predictivos exigen controles estrictos sobre la recolección, tratamiento y conservación de datos personales. Tercero, la autonomía y la libertad individual: las personas deben comprender y poder impugnar decisiones que afecten derechos esenciales. Estos ejes no son meras notas al pie; son condiciones de legitimidad democrática.
Una propuesta clave que emerge del análisis y que merece consideración seria es reconocer, desde el ámbito constitucional y legislativo, el derecho al control humano, ya que lejos de representar una tecnofobia, es decir un miedo irracional a la tecnología, se trata de afirmar que la responsabilidad última por decisiones que afectan derechos humanos debe permanecer en manos humanas. Esto implica que toda decisión automatizada relevante sea interpretable, esté sometida a revisión humana efectiva y que exista un cauce claro para su impugnación. El control humano no supone vetar la IA: significa integrarla como herramienta subordinada al juicio jurídico, no como sustituto del mismo.
Para que esa visión sea realista y operativa, propongo cuatro medidas complementarias y concretas:
1. Marco normativo constitucional y orgánico. No basta una norma administrativa: hacen falta principios constitucionales (igualdad, transparencia, protección de datos, derecho a la defensa) y leyes orgánicas que regulen el uso de IA en órganos jurisdiccionales, establezcan responsabilidades y definan límites y salvaguardas procesales.
2. Auditorías algorítmicas y registros públicos. Todo sistema de IA usado en el proceso judicial debe someterse a auditorías independientes de sesgos, seguridad y funcionalidad, y existir un registro público (metadatos, objetivos, versiones) para asegurar trazabilidad y rendición de cuentas.
3. Formación y cultura tecnológica entre operadores judiciales. Jueces, fiscales y defensores necesitan capacitación continua en capacidades y límites de la IA; sin esa cultura crítica, el control humano es meramente formal.
4. Participación ciudadana y transparencia. La legitimidad del uso de IA en justicia depende de la confianza pública. Mecanismos de participación, informes públicos y la obligación de motivar cómo y por qué se ha usado una herramienta automatizada en un expediente son esenciales.
Adoptar estas medidas con sentido práctico exige coordinación entre poderes: el legislador debe fijar el marco; los tribunales, con independencia, desarrollar protocolos de implementación; y los reguladores de datos y de innovación, supervisar cumplimiento y seguridad. Además, los desarrolladores tecnológicos deben integrarse en mesas técnicas con juristas y expertos en derechos humanos para diseñar sistemas conformes a principios democráticos.
Finalmente, conviene recordar que la tecnología no es neutra: refleja las prioridades y valores de quien la diseña. Si queremos una justicia más accesible, consistente y rápida, la IA puede contribuir; si la dejamos sin controles, convertiremos una promesa en amenaza. La elección está ante nosotros: construir instituciones y leyes que pongan la técnica al servicio de la dignidad humana o delegar decisiones que no estamos dispuestos a ver dictadas por cajas negras.
La propuesta de integrar un derecho al control humano y de anclar la IA judicial en principios constitucionales ofrece una hoja de ruta prudente y ambiciosa: modernizar la justicia sin perder aquello que la hace legítima, esa debe ser, en última instancia, la brújula de cualquier reforma que busque la integración de la justicia y la IA.

Licenciado en Derecho, mención magna cum laude, por la Pontificia Católica Madre y Maestra (PUCMM).
Servidor del Poder Judicial.
Autor del Trabajo de Grado: “La Responsabilidad Civil derivada de los daños causados por el incorrecto uso y las fallas de los sistemas de Inteligencia artificial”.
Experto en temas de Inteligencia Artificial, Ciberseguridad y Responsabilidad Penal y Civil.
Curso de Inteligencia Artificial y Justicia – Escuela Nacional de la Judicatura.
Curso de Ciberseguridad y su connotación jurídica en Centroamérica y el Caribe – CONOSE.
Pruebas digitales y ciberseguridad: Nuevos desafíos. Desde la certificación hasta la judicialización – ADOPI.
Responsabilidad Penal y Civil de la Inteligencia Artificial – ADOPI.








