El 3 de abril de 2024, una decisión del Tribunal Superior de Pereira dio de qué hablar en el mundo jurídico: usaron ChatGPT para tratar de aclarar si una víctima de un accidente de tránsito estaba o no bajo los efectos del alcohol.
El tema era clave en ese proceso judicial, porque si se demostraba que la víctima estaba bajo los efectos del alcohol, se podía concluir que no tenía un buen control de sus capacidades motoras, sensoriales y cognitivas. En otras palabras, su propio estado habría sido determinante en el accidente que terminó con su muerte, al punto de considerarse una acción bajo su propio riesgo y, por eso, liberar de responsabilidad al acusado.
Con ayuda de ChatGPT, el Tribunal Superior de Pereira concluyó que no estaba probada la embriaguez de la víctima. Para llegar ahí, ingresaron en la herramienta el valor de etanol hallado en la sangre de la fallecida (20 miligramos por cada 100 mililitros). El resultado arrojó que, como mucho, habría tomado una copa de vino, una de aguardiente o ron, o una cerveza. En consecuencia, el Tribunal consideró que esa cantidad no era suficiente para que estuviera en estado de embriaguez al momento del accidente y, por eso, declaró responsable al acusado por homicidio culposo.
La Corte Constitucional y los derechos de un menor con TEA
El 2 de agosto de 2024, la Corte Constitucional estudió una tutela presentada por la mamá de un niño con diagnóstico de trastorno del espectro autista (TEA). La EPS le había negado la exoneración de copagos y cuotas moderadoras, además del cubrimiento de los gastos de transporte para asistir a sus terapias de rehabilitación. En el análisis, la Corte se detuvo en el uso de inteligencia artificial que hizo uno de los jueces del caso, quien le preguntó a la herramienta cosas como:
- ¿Un menor con autismo está exento de pagar cuotas moderadoras en sus terapias?
- ¿En estos casos debe concederse la tutela?
- ¿Cobrar la cuota moderadora representa una barrera de acceso al servicio de salud?
- ¿La jurisprudencia de la Corte Constitucional ha tomado decisiones favorables en situaciones similares?
La Corte Constitucional concluyó que, en este caso, no se vulneró el debido proceso por el uso de inteligencia artificial como apoyo en la tutela. Según la Corte, no hubo un reemplazo de la función judicial por parte de ChatGPT, ya que el sistema se utilizó únicamente después de que el juez hubiera fundamentado y tomado su decisión. Esto quedó claro en la metodología que él mismo siguió: primero definió la tesis que iba a sostener, luego identificó las normas constitucionales aplicables y la jurisprudencia relevante, resolvió el caso explicando que cobrar copagos y cuotas moderadoras era una barrera de acceso al servicio de salud del niño y, solo después de todo esto, hizo consultas en la IA y transcribió las respuestas en su decisión.
Consejo Superior de la Judicatura: lineamientos para el uso de IA
El 16 de diciembre de 2024, el Consejo Superior de la Judicatura expidió el acuerdo PCSJA24-12243, en el que autorizó el uso de inteligencia artificial (IA) en la actividad judicial y definió los lineamientos para su aplicación. Eso sí, siempre bajo principios claros como:
- Primacía de los derechos fundamentales.
- Adecuación a buenas prácticas y estándares colectivos.
- Seguimiento, mejoramiento y adaptación continua.
- Gobernanza colaborativa y multiactor.
- No sustitución de la racionalidad humana ni de la atribución de las decisiones.
- Responsabilidad y uso informado.
- Supervisión, control y verificación humana.
- Prevención de riesgos.
- Igualdad y equidad.
- Protección de datos personales y privacidad.
- Seguridad de la información.
- Explicabilidad.
- Transparencia.
La Corte Suprema y la justificación médica de una procesada
El 8 de julio de 2025, la Corte Suprema de Justicia, a través de su Sala Especial de Instrucción, volvió a usar inteligencia artificial. Esta vez, para indagar sobre los efectos de una patología ginecológica que una procesada había puesto como justificación para no asistir a las diligencias penales a las que estaba citada.
Las preguntas que se le hicieron a la IA fueron:
- ¿En qué consiste un legrado uterino?
- ¿En qué consiste una histerectomía total de abdomen?
- ¿Se debe guardar reposo luego de una histerectomía total de abdomen?
- ¿Cuál es el tiempo normal de incapacidad después de esa cirugía?
- ¿Qué complicaciones pueden presentarse tras una histerectomía?
- ¿Se pueden generar dolencias después de esa intervención?
Con las respuestas que dio la herramienta, la Corte concluyó que la condición de salud de la procesada sí era una justificación válida para no asistir a las diligencias judiciales a las que había sido citada.
Retos y riesgos de la inteligencia artificial en procesos judiciales
Como ves, la IA ya ha empezado a abrirse espacio en la administración de justicia en Colombia. Eso sí, queda claro que no puede reemplazar la labor del juez en todo lo que implique racionalidad humana: analizar pruebas, decidir sobre derechos y obligaciones, y garantizar el debido proceso en cada actuación.
Sin embargo, lo visto muestra que en algunos casos la IA se ha usado para introducir a los procesos conceptos técnicos de disciplinas diferentes al derecho, que resultan claves para resolver los problemas jurídicos. Y ahí aparece un riesgo: este tipo de intervenciones podría desdibujar el papel de la prueba pericial, que por norma tiene un escenario específico para su construcción, confrontación y contradicción.
Por eso, dado lo novedoso y lo rápido que avanza esta tecnología, es fundamental que la reglamentación sobre el uso de la IA en la justicia no se quede estática, sino que se actualice de manera continua a la luz de la experiencia judicial. Solo así se podrá responder al reto de implementarla con respeto por los derechos de los ciudadanos que acuden a los procesos judiciales.
También te puede interesar: Impacto de la Reforma Laboral en el Servicio Social Obligatorio