La justicia penal en tiempos de inteligencia artificial ¿Puede una máquina decidir lo que es justo?

Total
0
Shares

Hoy quiero que nos concentremos en un asunto que vive entre nosotros y que constituye nuestra nueva realidad: la inteligencia artificial y cómo ella incidirá en la práctica jurídica. A partir de lo que ocurre por estos días, es necesario ir un par de pasos adelante para prepararnos para el sacudón que supondrá su inevitable ingreso en la administración de justicia penal.

Sobre los hombros del derecho penal de las sociedades actuales se ha impuesto una carga absolutamente trascendental: ser la guía de la conducta de los individuos que la conforman. Ante la incapacidad de contener los comportamientos irregulares que hay en nuestras sociedades, se han generado unas expectativas tales sobre el ordenamiento punitivo que la formación que otrora le correspondía a la familia, la religión o la educación escolar, ahora se le ha endilgado al poder punitivo, como si se tratara del responsable de solucionar todas las falencias sociales habidas y por haber.

El profesor Silva Sánchez es esclarecedor cuando señala que “el derecho penal adquiere el papel de código del bien y el mal ético-social. En este contexto, desaparece el sentido de la antigua doctrina del derecho penal como expresión de un mínimo ético. En efecto, no se reconoce la existencia de una ética pública más allá del Derecho, de modo que este —en sus sectores penal y administrativo— aparece como un sucedáneo de aquella. Expresado de otro modo, se ha producido una juridificación de lo ético”.

No siendo suficiente lo anterior, el derecho penal enfrenta sociedades plagadas de modos distintos de vida y, con ello, de múltiples frentes que propagan conductas (regulares e irregulares) en el diario transcurrir de la existencia. De manera que, al tratarse de un régimen normativo con un carácter eminentemente reactivo (y no preventivo), siempre está inmerso en una constante actualización. Si los distintos modos de vivir y las diversas formas de delincuencia no dan tregua, y la capacidad de anticipación del legislador es tan limitada, la creación normativa empieza a tomar un papel preponderante.

Es justo allí donde advertimos que la capacidad de regulación del hombre es mucho más lenta que el vertiginoso avance social que pretende anticipar y regular. Aquí tiene su génesis la intersección entre el régimen normativo penal y el cada vez más creciente fenómeno de la inteligencia artificial. Este último, un mecanismo vanguardista y paradigmático de una sociedad tecnológica que el humano ha perseguido por décadas y que ahora parece más latente que nunca.

La inteligencia artificial presenta grandísimos retos para el derecho en general y para el poder punitivo del Estado en particular, porque seguramente nuestra sociedad no es lo que era, pero mucho menos será lo que es hoy. Los cambios son tan abruptos y rápidos que los modos de vivir o trabajar cambiarán radicalmente y, con ello, también variarán las formas de delincuencia respecto de las cuales debe ponerse a tono nuestro orden legal.

No podemos ser indiferentes a esos cambios y mucho menos resistirnos, pues ello lo único que garantizaría sería un inmenso atraso económico y social frente a quienes sí entiendan las nuevas realidades y actúen con prontitud, no solo con ánimo vanguardista, sino con la necesidad de satisfacer las exigencias propias de la comunidad que se pretende gobernar.

Entonces preguntémonos: ¿cómo puede incidir la inteligencia artificial en la administración de justicia penal?, ¿cuáles son los riesgos que pueden generarse allí para el sistema judicial y legal en Colombia y el mundo?

Lo primero que se nos viene a la cabeza son las nuevas formas de delincuencia. Desde ya se observa cómo esta herramienta tan útil y poderosa (para los fines loables), también puede convertirse en un peligroso artefacto para generar resultados indeseables para la sociedad. Por ejemplo, pareciera hacerse común entre nosotros que fuera posible producir comunicaciones con audio o video que simulen haber sido realizadas por una persona, cuando en realidad han sido creadas con inteligencia artificial.

No es menos común escuchar cómo ahora se captan datos, por ejemplo, de voz, con los cuales se generan comunicaciones para suplantar a una persona. Las imágenes pueden ser no solo fácilmente alteradas, sino también creadas, añadiendo detalles que pudieran desviar investigaciones o incluso inventarlas. Qué decir de las noticias falsas que pueden hacerse lucir con plena naturalidad y realidad, y el impacto que esta tecnología puede significar de cara a los derechos de autor.

Entonces, obsérvese que uno de los primeros grandes escenarios en donde la inteligencia artificial tiene incidencia es la posibilidad de que se presenten nuevas modalidades delictivas. Y es esto lo que debemos empezar a debatir. No para crear políticas populistas que legislen con los ánimos caldeados, sino porque se trata de realidades que afectan y afectarán a nuestras comunidades y que, en virtud del principio de legalidad, se hace indispensable empezar a pensar y a regular.

Italia se ha convertido en una de las naciones pioneras en regular éstas tecnologías de cara a las nuevas formas de delincuencia. En el pasado mes de septiembre de 2025 emitieron una novedosa ley que procura atajar los riesgos de la IA en materia delictiva sin que ello implique cortar las alas de tan valiosas herramientas, procurando alinearse con el Reglamento 2024/1689 sobre Inteligencia artificial de la Unión Europea. Por su parte, Colombia ha dado sus primeros pasos mediante la reciente Ley 2502 del 28 de julio de 2025, que incorporó como modalidad de suplantación el uso de Inteligencia Artificial como agravante del delito de Falsedad Personal.

Esto necesariamente nos lleva a otra consideración: la incidencia que la inteligencia artificial puede tener en la valoración probatoria. Aquí entramos a abordar dos temáticas: una relativa a los aspectos que se deben tener en cuenta al momento de valorar una prueba, y otra respecto de la actividad jurisdiccional, que evaluaremos como un tercer escenario.

En lo que atañe a la valoración probatoria, esta herramienta tecnológica puede incidir en la manipulación de pruebas. Piénsese en fotografías editadas, audios que imiten a la perfección la voz de una persona, mensajes simulados que se pretendan atribuir a alguien. A partir de allí es indispensable aumentar el estándar al momento de valorar un elemento de prueba. La seriedad debe ser total, porque la capacidad de verificar si una prueba es fidedigna y da cuenta de una situación real o no, está enfrentada a un grandísimo reto.

¡Cuidado! No quiere decirse que este tipo de medios de prueba no sean permitidos, pero sí que todos los sujetos procesales deben estar vigilantes para incorporarlos y contar con herramientas que permitan determinar si existió algún tipo de manipulación. Ciencia y derecho, nuevamente, deberán caminar juntos en este frente.

Uno de los retos más interesantes es el uso de la inteligencia artificial en la actividad jurisdiccional. Ya hemos empezado a ver cómo algunos jueces la han utilizado para sustentar posturas y criterios al interior de sentencias, hasta el punto que la Corte Constitucional, mediante la sentencia T-323 de 2024, consideró que “es factible emplear inteligencia artificial en labores propias de la justicia, siempre que el uso de dichas herramientas no reemplace labores jurisdiccionales indelegables e irremplazables, como lo son aquellas que requieren del razonamiento lógico y humano a efectos de interpretar los hechos, las pruebas, motivar la decisión o adoptarla”.

Entonces, no es algo irreal que estas nuevas tecnologías puedan llegar a incidir en la decisión de un juez. Pero aquí es donde más cuidado debemos tener. Tal vez la sociedad pudiera pensar que someter un proceso al estudio de una máquina podría darnos una mayor precisión respecto del sentido de justicia, pero no podemos olvidar que ésta se construye a partir de escenarios concretos y particulares. Dar a cada quien lo suyo supone analizar criterios humanos que las máquinas no necesariamente pueden comprender. Finalmente, las máquinas están gobernadas por instrucciones concretadas en algoritmos que serían los que resolverían qué es lo justo, pero ello no necesariamente se corresponde con el razonamiento humano y la realidad que nos rodea.

Haciendo eco a las sabias palabras del profesor Ferrajoli, no podemos caer en el escenario en el que pensar que perseguimos la “verdad real” en el proceso penal nos haga olvidar la singularidad del caso, ni que lo que se juzga es el comportamiento de seres humanos inmersos en contextos que necesariamente influyen al momento de actuar.

Por eso no podemos perseguir una justicia predictiva alejada de la realidad, pues entonces dejaríamos de juzgar personas para empezar a calcular probabilidades; dejaríamos de hacer justicia para simplemente procesar datos.

Y esto apenas empieza. Nos seguiremos leyendo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *