Opinión

La justicia ante el espejo de la tecnología

Por: Glenys Hernandez Banquet- Abogada, especialista y Magister en Derecho Procesal.

Publicidad

¿Qué pasa cuando confiamos más en la herramienta que en el criterio humano?

Un caso que toco el corazón jurídico del hermano Departamento de Sucre, pero que nos puede pasar a todos indistintamente de donde seamos y es la reciente decisión STC17832-2025 de la Corte Suprema de justicia, la cual no solo corrigió un error jurídico. Encendió una alarma que ya venía sonando en distintos despachos judiciales del país, pero que muchos preferían ignorar: El uso irreflexivo de tecnologías incluida la inteligencia artificial, en la elaboración de decisiones judiciales. El Tribunal de Sincelejo basó su determinación en citas jurisprudenciales que nunca existieron. La Corte lo detectó, lo corrigió y lo explicó. Hasta allí, el caso parece un desliz aislado.

¡Pero no lo es!.

Publicidad

Este episodio revela una tendencia preocupante: delegar en herramientas tecnológicas incluida la inteligencia artificial a tareas que exigen rigor humano. Y aunque esta vez el error ocurrió en un despacho judicial, el impacto se sintió más allá de la profesión: la confianza de los usuarios en la administración de justicia se vio vulnerada.

La problemática, sin embargo, no es exclusiva del derecho. Se replica en todos los campos donde la IA se usa sin filtros, sin criterio y sin ética. Es, en esencia, un espejo que nos obliga a observar los riesgos de la dependencia irreflexiva en sistemas que escriben rápido, pero no siempre escriben verdad. La tecnología ayuda sí, pero no piensa, asiste pero no razona, acompaña pero no decide, ese rol sigue y seguirá siendo humanamente insustituible.

Lo estamos viendo en informes académicos con bibliografías inventadas, diagnósticos basados en resúmenes automáticos, decisiones administrativas soportadas en datos no verificados, periodistas que reproducen información generada por IA sin confirmar su autenticidad y empresas que diseñan estrategias a partir de análisis generados por sistemas que “hallan patrones” que no siempre existen.

Mis queridos lectores les cuento que las causas de esta crisis silenciosa son: confianza ciega en lo automático, ausencia de verificación, falta de formación ética y técnica. Pero como toda enfermedad también tiene cura, nos surge la gran pregunta: ¿Cómo evitar que la tecnología termine tomando decisiones humanas?

Publicidad

La respuesta empieza por entender que la IA es una herramienta, no una conciencia. Y continúa con acciones concretas: Formación obligatoria sobre el uso ético de la IA, protocolos estrictos de verificación profesional, responsabilidad institucional en cada etapa del proceso decisorio y sobre todo, recuperar el valor del juicio humano.

La justicia, la academia, la medicina, el periodismo y cualquier profesión que toque la vida humana deben recordar un principio elemental:

La inteligencia artificial puede asistir, pero jamás reemplazar el deber de pensar.

 

Publicidad
5/5 - (2 votos) ¿Le resultó útil este artículo?
Lee también:
Publicidad