miércoles, febrero 18, 2026
Publicidad

Publicidad

La Toga contra el Algoritmo: El Fin de los Jueces de Silicio

Angel Bahamontes
Angel Bahamonteshttps://antpji.org/
Presidente de la Asociación Nacional de Tasadores y Peritos Judiciales Informáticos
Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

Imagine que entra en una sala de vistas. Su futuro, su patrimonio o su libertad están en juego. El juez, impasible tras el estrado, dicta una resolución que suena técnica, impecable y definitiva. Sin embargo, hay un detalle: esa sentencia ha sido redactada por una inteligencia artificial que, en un momento de «alucinación», ha inventado una jurisprudencia que no existe para justificar su condena. No es un guion de ciencia ficción distópica. Es la realidad que ha golpeado a los juzgados de Ceuta, Canarias y Navarra en enero de 2026, donde ya se han documentado casos de abogados y tribunales utilizando citas falsas generadas por modelos de lenguaje.

Ante este abismo digital, el Consejo General del Poder Judicial (CGPJ) ha dado un golpe sobre la mesa. Con la publicación de la Instrucción 2/2026, España se convierte en el primer país de la Unión Europea en blindar el corazón de su democracia contra la opacidad de los algoritmos. Los jueces y magistrados tienen ahora una orden clara: prohibido utilizar chats de IA comerciales y prohibido delegar la justicia en máquinas que no pueden rendir cuentas.

Vivimos en lo que algunos ya llaman la «Semana Fantástica» de la justicia digital en España. En apenas 72 horas, tres documentos han cambiado las reglas del juego: el Libro Blanco de la Abogacía, la Guía de Buenas Prácticas del Colegio de la Abogacía de Madrid y, el más rotundo de todos, la Instrucción del CGPJ. Este triple impacto busca encauzar una tecnología que avanzaba sin frenos, amenazando con convertir la administración de justicia en una «caja negra» inescrutable.

La justicia no es un proceso de optimización de datos. Es un ejercicio de humanidad. El CGPJ ha definido el sistema de IA siguiendo el Reglamento Europeo de Inteligencia Artificial de 2024, reconociendo su capacidad de inferir resultados y tomar decisiones con autonomía. Pero ha puesto una línea roja infranqueable: el principio de no sustitución. Un algoritmo puede predecir el tiempo, pero no puede valorar si un testimonio es veraz o si una prueba digital ha sido manipulada.

Publicidad

¿Por qué no un Juez GPT?

La tentación de la IA generativa en el sector legal es inmensa. En un sistema judicial saturado, la idea de una máquina capaz de resumir miles de folios o redactar borradores de sentencias en segundos resulta seductora. Sin embargo, la accesibilidad de estas herramientas esconde una «opacidad técnica» peligrosa. El CGPJ advierte que el uso de sistemas no facilitados por la Administración —como ChatGPT o herramientas comerciales similares— pone en riesgo la independencia judicial y los derechos fundamentales de los ciudadanos.

La instrucción es tajante: se prohíbe el uso de IA para la valoración de hechos o pruebas. Aquí es donde la tecnología choca con la realidad del peritaje informático. Un juez no puede pedirle a una IA que decida si un pantallazo de WhatsApp es auténtico. La jurisprudencia española, como la STS 300/2015, ya estableció que la prueba digital es frágil y que, ante una impugnación, es indispensable una prueba pericial realizada por un experto técnico que garantice la cadena de custodia. Si un juez permitiera que una IA validara una prueba, estaríamos dejando que una máquina juzgara la integridad de otra, eliminando el factor de responsabilidad humana que exige nuestro Estado de Derecho.

El Escudo: Los principios que nos protegen del código

La Instrucción 2/2026 no es solo una norma administrativa; es un manifiesto ético. Establece principios que deberían ser el estándar para cualquier innovación tecnológica que afecte a las personas:

  1. Control Humano Efectivo: La IA no puede operar sola. El juez debe realizar una revisión «real, consciente y crítica» de cualquier borrador generado por máquina.
  2. Responsabilidad Exclusiva: Si la IA se equivoca, la responsabilidad es del juez. El algoritmo no tiene toga, ni nombre, ni puede ser sancionado por prevaricación.
  3. Prevención de Sesgos: Los algoritmos se entrenan con datos del pasado que pueden contener prejuicios. La justicia debe mirar al futuro con imparcialidad, algo que una máquina programada para detectar patrones estadísticos a menudo no puede hacer.
  4. Veto al Perfilado: Se prohíbe taxativamente usar IA para predecir si una persona va a reincidir o para evaluar riesgos de forma automatizada. La presunción de inocencia no es una variable matemática.

El debate sobre la IA en los tribunales se conecta directamente con una preocupación creciente en el sector: la simplificación del peritaje y la preservación de evidencias. En un mundo donde HaciendaSec asegura haber robado los datos de 47 millones de españoles y la ciberseguridad del Estado está en jaque, la integridad de la información es más sagrada que nunca.

- Advertisement -

No podemos permitir que la justicia caiga en la «ligereza» de lo digital. Así como el CGPJ prohíbe a los jueces usar herramientas no auditadas, los profesionales del derecho y los peritos deben rechazar la idea de que una simple «checklist» o una guía generada por IA puede sustituir a un protocolo de cadena de custodia profesional basado en normas como la ISO/IEC 27037. La evidencia digital no se preserva con buenas intenciones; se preserva con técnica, herramientas validadas y trazabilidad inexpugnable.

El riesgo es real. Ya en 2025, el coste de los ciberataques en España se estimó en 20.000 millones de euros anuales. En este contexto, un error en la valoración de una prueba digital por culpa de un sesgo algorítmico o de una herramienta de IA «low cost» no es solo un fallo técnico: es un riesgo procesal que debilita el sistema entero.

¿Significa esto que debemos renunciar a la innovación? En absoluto. El CGPJ permite el uso de IA para tareas auxiliares: búsqueda de información jurídica, análisis de estructuras documentales o elaboración de resúmenes de trabajo interno. Pero siempre bajo el paraguas de sistemas facilitados por las administraciones competentes y sometidos a auditorías de calidad.

España está marcando el camino. Mientras el Tribunal Constitucional alemán ha llegado a prohibir directamente el uso de sistemas de autoaprendizaje en ámbitos policiales y penales, el modelo español apuesta por una «integración garantista». Es una apuesta por la transparencia. El ciudadano tiene derecho a saber si una decisión que le afecta ha tenido el apoyo de una máquina y, sobre todo, tiene derecho a que esa máquina sea explicable.

La entrada en vigor de esta instrucción el 30 de enero de 2026 marca un antes y un después. Es un recordatorio de que, en un mundo inundado de datos, algoritmos y deepfakes, la verdad sigue necesitando de un juicio humano. La tecnología debe estar al servicio de la justicia, y no al revés.

Como sociedad interesada en la innovación, debemos celebrar que el Poder Judicial no se haya dejado deslumbrar por los fuegos artificiales de la IA generativa. La justicia es, en esencia, un acto de responsabilidad. Y la responsabilidad, por definición, es una cualidad humana. El día que permitamos que un algoritmo dicte una sentencia sin control, habremos perdido no solo la justicia, sino también nuestra libertad.

La Toga ha ganado este asalto al Algoritmo. Pero la vigilancia debe ser constante. Porque en el tablero de la innovación digital, las reglas cambian cada segundo, y el precio de nuestra seguridad jurídica es la eterna vigilancia sobre el código que pretende gobernarnos.

Publicidad

Publicidad

Publicidad
Publicidad
Publicidad


Lo más leido