La innovación no es inocente. Cuando se cruza con la justicia, puede iluminar el sistema… o dinamitar su credibilidad.
El Tribunal Superior de Justicia de Canarias (TSJC) ha abierto un expediente para investigar a un abogado que citó al menos siete sentencias inexistentes del Tribunal Supremo y un supuesto informe del Consejo General del Poder Judicial sobre la credibilidad del testimonio infantil que tampoco existe. Todo apunta a lo mismo: se confió en una herramienta de inteligencia artificial generativa que “inventó” jurisprudencia con total aplomo, y el letrado la copió sin verificar.
El caso nace de un recurso de apelación contra la absolución de un vecino de Tenerife, juzgado por presunta agresión sexual en julio de 2025. La Sala penal, al revisar el escrito, detecta algo inquietante: resoluciones del Supremo que no aparecen en ninguna base de datos oficial, frases demasiado “perfectas” y citas supuestamente extraídas de un informe del CGPJ sobre testimonio infantil del que no hay rastro.
El TSJ lo dice sin rodeos: se trata de una “palmaria negligencia” de quien, siendo profesional del Derecho, “fió su trabajo sin mayor revisión a lo que el algoritmo le propuso”, confiando en que la abundancia de citas falsas pasaría inadvertida y daría “autoridad” a su argumentación. No habla de despiste puntual. Habla de patrón: creatividad jurídica “libérrima” y “desparpajo” en la invención de doctrina.
La respuesta del Tribunal va más allá del tirón de orejas. La Sala ha ordenado abrir una pieza separada para depurar la posible responsabilidad del letrado por vulnerar las reglas de la buena fe procesal, al amparo del artículo 247.3 y 4 de la Ley de Enjuiciamiento Civil, en relación con la Ley Orgánica del Poder Judicial.
Ese precepto permite imponer multas de 180 hasta 6.000 euros a la parte que actúe con mala fe, abuso de derecho o fraude procesal, siempre mediante resolución motivada y respetando la proporcionalidad. Además, el tribunal puede dar traslado al colegio profesional para valorar sanciones disciplinarias, que van desde la amonestación hasta la suspensión en el ejercicio.
La clave es demoledora: la Sala deja claro que el problema no es la IA, sino el uso que hace el abogado. La tecnología no elimina el deber básico de verificar la autenticidad de las fuentes, especialmente cuando se citan resoluciones judiciales o informes oficiales. La buena fe procesal deja de ser una cláusula ética genérica para convertirse en el cortafuegos frente a un riesgo cada vez más real: la industrialización de la mentira jurídica a golpe de prompt.
Si el caso te suena, no es casualidad. En 2023, el mundo jurídico miró con estupor el caso Mata v. Avianca, en Nueva York: los abogados del demandante presentaron un escrito plagado de sentencias inexistentes, generadas por un chatbot de IA. La herramienta inventó nombres de asuntos, números de caso y razonamientos, y el equipo legal lo presentó como si fueran precedentes reales.
Cuando la jueza verificó, descubrió que al menos seis decisiones citadas no existían. El abogado acabó admitiendo por escrito que había usado ChatGPT creyendo que era “un buscador fiable” y no una IA generativa capaz de “alucinar” respuestas. El tribunal impuso sanciones, y el caso se convirtió en advertencia global: la IA no investiga, genera texto plausible. Y lo plausible, en Derecho, puede ser letal.
Lo que hace distinto el episodio de Canarias es que ya no hablamos de un caso exótico en Estados Unidos. Hablamos de un TSJ español que pone negro sobre blanco algo decisivo: usar IA sin contrastar puede ser sancionable, porque rompe la confianza estructural del proceso judicial.
La inteligencia artificial está entrando en los juzgados por todas las puertas: redacción de escritos, apoyo a la búsqueda de jurisprudencia, asistentes de despacho, análisis de grandes volúmenes de documentos. No es ciencia ficción; es rutina en muchos bufetes.
El problema es que los modelos generativos actuales no buscan verdad, sino patrones estadísticos de lenguaje. Pueden redactar un razonamiento jurídico impecable… basado en sentencias que nunca existieron. Pueden citar “STS 14/2019 Sala Segunda” con naturalidad, aunque ese fallo no esté en CENDOJ. Su objetivo no es acertar, sino sonar coherente.
Si un abogado copia-pega sin revisar, el riesgo se multiplica:
- Para el cliente, que ve su defensa basada en humo.
- Para la víctima o el acusado, cuya causa se discute con doctrina fantasma.
- Para el tribunal, que debe gastar recursos en verificar y corregir.
- Para el sistema, que se expone a una erosión de confianza difícil de medir.
La innovación, sin responsabilidad, puede convertir los tribunales en un campo de pruebas de algoritmos opacos. Y la justicia no puede ser beta.
Lo que está en juego: la confianza en la palabra del abogado
El Derecho se sostiene en algo extremadamente frágil: la confianza en la palabra. Los jueces parten del presupuesto de que, cuando una parte cita una sentencia, un artículo o un informe oficial, esa fuente existe y ha sido consultada. Esa presunción no es un privilegio corporativo; es un lubricante del sistema. Sin ella, cada escrito se convierte en una carrera armamentística de verificación que lo ralentiza todo.
El TSJ de Canarias, al hablar de “libérrima creatividad jurídica” y de un uso de la IA sin “diligencia mínima”, señala una línea roja: no todo vale en nombre de la eficiencia o de la moda tecnológica. El mensaje a la abogacía es claro:
- La IA puede ayudar, pero no puede sustituir el criterio profesional.
- La automatización no exime del deber de contrastar cada cita.
- La abundancia de referencias no es sinónimo de solidez, sino potencialmente de humo.
En términos de innovación, este caso marca un precedente: la regulación blanda se ha acabado. La IA entra en el radar de la disciplina procesal.
Manual de supervivencia para abogados en la era IA
¿Qué hacer, entonces, para aprovechar la innovación sin acabar en una pieza separada disciplinaria?
Algunas reglas mínimas, tan básicas como urgentes:
- Nunca uses IA generativa como única fuente jurídica. Si una herramienta te da una sentencia, búscala después en bases oficiales (CENDOJ, Westlaw, vLex…). Si no la encuentras, no existe a efectos procesales.
- Desconfía de citas demasiado perfectas. Nombres de asuntos genéricos, referencias a informes del CGPJ poco conocidos o numeraciones que no cuadran son señales de alarma.
- Incluye siempre la referencia completa y verificable. No basta con “STS 2019”. Número de recurso, fecha, Sala: los mismos datos que usarías si el texto fuera tuyo.
- Informa a tu cliente. Si utilizas IA como apoyo en tu despacho, el cliente tiene derecho a saberlo y a confiar en que hay supervisión humana estricta.
- Forma equipos híbridos. La solución no es prohibir IA, sino formar a abogados, peritos informáticos y técnicos en uso responsable, detección de “alucinaciones” y verificación cruzada.
La conclusión es incómoda pero liberadora: la IA no es el problema; el problema es usarla como si fuera un oráculo infalible.
El papel olvidado del perito informático en la justicia digital
Detrás de esta historia hay una figura clave de la que casi nadie habla: el perito informático forense. Mientras algunos letrados confían ciegamente en lo que les sugiere un chatbot, los peritos llevan años recordando que toda evidencia digital exige trazabilidad, verificación y método.
En un escenario donde textos, sentencias y hasta informes oficiales pueden ser imitados por IA, el perito no solo sirve para analizar un disco duro o un chat de WhatsApp. También puede:
- Auditar herramientas de IA usadas en despachos y organismos.
- Verificar la autenticidad de documentos electrónicos que se presentan como prueba.
- Diseñar protocolos internos para evitar que material generado automáticamente acabe disfrazado de jurisprudencia.
La justicia digital que viene necesita menos fascinación tecnológica y más higiene forense aplicada al propio trabajo jurídico.
Lo que está ocurriendo en Canarias y lo que vimos en Nueva York no es una anécdota. Es un síntoma de un cambio de época: el atajo tecnológico siempre es tentador, especialmente en profesiones sometidas a presión de plazos, volumen de trabajo y expectativas de productividad.
Pero la innovación verdadera en la justicia no es meter IA “porque toca”. Es integrarla con responsabilidad, diseñando:
- Códigos éticos específicos sobre uso de IA en la abogacía y la judicatura.
- Protocolos internos en despachos, colegios y tribunales.
- Formación obligatoria en alfabetización digital jurídica.
El caso del TSJ de Canarias apunta en esa dirección: si la tecnología se usa sin criterio, habrá sanción. Y eso, aunque duela a corto plazo, es una buena noticia para cualquiera que crea que el Derecho aún debe apoyarse en algo tan sencillo –y tan difícil de preservar– como la verdad de los hechos y la autenticidad de los documentos.
El propio Tribunal reconoce haber detectado “otras muchas” citas de similar factura en el mismo recurso, lo que sugiere que este no es un fallo aislado, sino quizá el primer caso que se investiga a fondo.
La duda inevitable es:
- ¿Cuántos escritos en España incluyen ya párrafos generados por IA sin que se haya verificado ni una sola fuente?
- ¿Cuántas referencias doctrinales o estadísticas “de relleno” se han colado en demandas, recursos o informes periciales porque “sonaban bien”?
La buena noticia es que el sistema empieza a reaccionar. La mala, que lo hace a golpe de escándalo. En ese equilibrio incómodo se juega mucho más que la reputación de un abogado: se juega la legitimidad de la justicia en la era algorítmica.
En TecFuturo, esta historia no se lee como un chisme jurídico, sino como lo que es: una advertencia seria. La IA no sustituirá a los profesionales que piensan; sustituirá a quienes dejen de hacerlo.
