Un abogado presenta un recurso de apelación ante el Tribunal Superior de Justicia de Canarias. Cita con autoridad 48 sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial. El texto parece sólido, riguroso, armado con jurisprudencia contundente. Pero hay un problema: nada de eso existe. Las resoluciones son ficticias. Las ha “inventado” una herramienta de Inteligencia Artificial generalista. El resultado: multa de 420 euros, posible responsabilidad disciplinaria y un aviso muy claro al futuro de las profesiones jurídicas.
Lo que podría parecer una anécdota tecnológica es, en realidad, un punto de inflexión. La IA ya no es un juguete de laboratorio, ni un experimento inocente de despacho: está en el centro de decisiones que afectan a derechos fundamentales, reputaciones y carreras profesionales. Y este caso se convierte en espejo incómodo para abogados, periodistas, médicos, docentes, directivos… para cualquiera que esté usando IA sin comprender realmente qué hace, qué no hace y, sobre todo, qué nunca debería hacer por nosotros.
Este artículo quiere ir más allá del escándalo fácil. Quiere ayudarte a entender qué ha pasado, por qué es tan grave y qué lecciones prácticas puedes aplicar en tu día a día, aunque no tengas nada que ver con el Derecho. Porque el verdadero mensaje del TSJ de Canarias no va solo para un abogado despistado: va para todos nosotros.
El caso: 48 sentencias fantasma y una multa muy simbólica
La Sala de lo Penal del TSJ de Canarias sanciona a un abogado con 420 euros por introducir en un recurso de apelación 48 citas de jurisprudencia y un informe del CGPJ que nunca existieron. La fuente: una herramienta de IA “generalista”, no especializada en Derecho, que generó referencias plausibles, pero falsas.
El Tribunal subraya varios puntos clave:
- El letrado no verificó ni una sola de las citas.
- No comprobó números de sentencia, fechas ni identificadores.
- No contrastó los datos con bases oficiales gratuitas, como Cendoj.
- Esa falta de comprobación vulnera el deber de veracidad, la buena fe procesal y el estándar mínimo de diligencia que exige el Código Deontológico.
La sanción es tan llamativa como pedagógica: 420 euros, aproximadamente la mitad de la suscripción anual a una herramienta de IA jurídica especializada. El mensaje es casi pedagógico: si hubieras invertido en una herramienta profesional —o, al menos, en contrastar la información—, probablemente no estaríamos aquí.
Además, el TSJ da traslado del caso al Colegio de Abogados para que valore posibles responsabilidades disciplinarias, aunque tiene en cuenta el reconocimiento de los hechos y el aparente arrepentimiento del profesional.
Pero la frase más importante de la resolución es otra: la Sala recuerda que la supervisión humana es “indeclinable” cuando se emplean herramientas de IA en el ejercicio profesional. La IA debe ser asistencial, no decisoria. Y depender ciegamente de ella es, sencillamente, incompatible con el deber de diligencia.
Para entender por qué ha ocurrido esto, hay que derribar un mito: la IA generativa no “sabe” cosas; Predice texto plausible. Su objetivo no es la verdad, sino la coherencia. Por eso es capaz de inventarse sentencias, autores, libros, artículos o estudios que suenan perfectos y no existen.
Este fenómeno tiene un nombre inquietante: alucinación. El sistema genera contenido que parece real, pero es pura ficción. No miente con intención (no tiene intención), pero produce resultados que pueden ser gravemente engañosos si el humano al otro lado no los filtra.
En contextos de baja responsabilidad —un texto creativo, una idea de guion, un borrador de correo electrónico—, esto es manejable: revisas, corriges, adaptas. En contextos de alta responsabilidad —derecho, medicina, finanzas, seguridad, educación—, confiar en la IA sin verificación puede convertirse en un acto de negligencia.
La pregunta no es “¿la IA se equivoca?”, porque siempre lo hará. La pregunta es: ¿Cómo estoy integrando sus errores dentro de mi trabajo?
El abogado sancionado cae en una trampa muy humana: confunde automatización con delegación de responsabilidad . Utiliza una IA generalista para hacer el trabajo pesado de buscar jurisprudencia y, en lugar de tomar esos resultados como un borrador a validar, los suponen como verdad cerrada.
Este patrón se repite en muchos otros ámbitos:
- Periodistas que copian párrafos generados por IA sin comprobar datos.
- Estudiantes que entregan trabajos generados casi por completo sin revisar fuentes.
- Profesionales que preparan informes, propuestas o presentaciones basadas en texto generado “tal cual”.
El problema no es solo ético o legal. Es también de innovación mal entendida. La verdadera innovación no consiste en delegar nuestro juicio en sistemas automáticos, sino en potenciarlo con ellos. Usar IA para ir más rápido, sí, pero nunca para pensar menos.
El TSJ de Canarias lo fórmula en clave jurídica: la supervisión humana es el “eje vertebrador” del uso de IA en abogacía. En otras palabras: tú no puedes desaparecer de la ecuación.
Lección 1: La IA es una calculadora, no un notario
Una calculadora puede ayudarle a sumar millones de cifras en segundos, pero nadie aceptaría que su resultado fuera suficiente prueba en un juicio sin respaldo documental. Con la IA pasa lo mismo: puede ayudarte a:
- Resumir textos largos.
- Proponer argumentos.
- Estructurar escritos.
- Generar borradores de cláusulas, informes o documentos.
Pero nunca debe convertirse en fuente final de la verdad. El abogado sancionado trató las respuestas de la IA como si fuera un notario digital: “si lo pone aquí, será así”. Y ahí reside el núcleo del problema.
Si trabajas con IA en cualquier disciplina, grábate esto:
La IA no sustituye la prueba, ni la jurisprudencia, ni la norma, ni el dato; solo te ayuda a llegar antes a ellos.
Lección 2: Verificar no es opcional, es parte del trabajo
La Sala señala algo demoledor: el abogado tenía a su disposición bases de datos oficiales, gratuitos y fácilmente accesibles. No contrastar ni una sola referencia no es un olvido, es una renuncia voluntaria a verificar.
Traducido a tu día a día, en cualquier sector:
- Si la IA te sugiere cifras, búscalas en fuentes confiables.
- Si estudios citan, verifica que existen y que dicen lo que se afirma.
- Si menciona leyes, normas o resoluciones, consulta el BOE, el DOUE, la base oficial de tu país o sector.
Verificar puede parecer tedioso, pero en realidad es el acto que diferencia a un profesional que usa IA como herramienta de quien se escuda en ella para cubrir su propia falta de rigor.
Lección 3: Generalista vs especializado: elige la herramienta adecuada
El TSJ introduce otra idea clave: el abogado utiliza una IA generalista, no un servicio jurídico especializado. Y la multa se calcula tomando como referencia el coste de una suscripción a una herramienta profesional del sector.
Moraleja:
- No es lo mismo usar un modelo de propósito general que una plataforma diseñada, entrenada y validada para un ámbito concreto.
- En entornos críticos, tiene sentido invertir en herramientas específicas y, aun así, seguir verificando.
- Ahorrar dinero usando una IA gratuita puede salir muy caro si lo que está en juego es tu reputación, tu licencia profesional o un caso importante.
La innovación responsable pasa por hacerse preguntas incómodas:
¿Estoy usando esta tecnología porque es la adecuada, o simplemente porque es la más rápida y barata?
Lección 4: La dimensión ética: confianza, credibilidad y efecto contagio
Cada vez que un profesional “se quema” por usar IA de forma irresponsable, no solo daña su propia imagen: erosiona la confianza en todo un sector. En el caso de la abogacía, esto afecta directamente a la percepción pública de la Justicia, de los abogados y de la seriedad de los procedimientos.
En otros campos ocurrirá lo mismo:
- Un médico que apoye decisiones clínicas en IA sin supervisión.
- Un periodista que publica noticias basadas en “hechos” inventados por un modelo.
- Un docente que evalúa trabajos sin distinguir esfuerzo humano de texto generado.
Cuanto más se integre la IA en nuestra vida, más frágil será el equilibrio entre eficiencia y credibilidad. El caso del TSJ de Canarias nos recuerda que la verdadera innovación ética exige dos cosas: transparencia y responsabilidad.
10 principios prácticos para usar IA sin destruir tu carrera
Más allá del caso concreto, aquí tienes una guía que puedes aplicar como abogado, ingeniero, creativo, docente o directivo:
- Usa la IA como borrador, nunca como versión final: Lo que sale de la herramienta es el punto de partida, no de llegada.
- Verifica siempre los datos sensibles: Fechas, cifras, nombres de sentencias, artículos de leyes, estadísticas, citas… todo debe contrastarse.
- No cita nunca una fuente que no hayas visto con tus propios ojos: Si la IA menciona una sentencia, un estudio o un informe, búscalo tú mismo.
- Elige bien el tipo de IA: Generalista para ideas, redacción, estructura; especializado para jurisprudencia, diagnóstico, análisis financiero, etc.
- Conoce las limitaciones del sistema que usas: ¿Puedes alucinar? ¿Hasta qué fecha está actualizada? ¿En qué idioma funciona mejor? ¿Qué sesgos tiene?
- Mantén la supervisión humana como norma innegociable: Ningún modelo debe tomar decisiones por ti; solo proponer opciones.
- No utilices IA para cubrir carencias básicas de conocimiento: Si no entiendes el área en la que trabajas, la IA no te hará competente: solo amplificará tus errores.
- Sé honesto con tus clientes, alumnos, lectores o usuarios: Si usas IA en tu trabajo, integra esa realidad con transparencia cuando sea relevante para la confianza.
- Protege los datos que introduzcas: No subas a herramientas generalistas información confidencial, secretos profesionales o datos personales sin valorar el riesgo.
- Forma parte de la conversación ética de tu profesión: Colegios, asociaciones y empresas están redefiniendo reglas. Si no participas, otros decidirán por ti.
De la multa al aprendizaje colectivo: por qué este caso nos importa a todos
La cifra de la sanción —420 euros— es casi anecdótica. Podría parecer una simple llamada de atención. Pero su valor real es simbólico: el tribunal está enviando un mensaje a toda una generación de profesionales que han incorporado la IA a sus rutinas sin actualizar su ética y su metodología.
Lo relevante no es el número de sentencias falsas, sino lo que revelan:
- Ausencia total de supervisión.
- Confianza ciega en una tecnología incomprendida.
- Desconexión entre la promesa de la IA y la responsabilidad real del profesional.
La buena noticia es que estamos a tiempo de corregir el rumbo. Este tipo de casos, si los leemos con humildad y espíritu crítico, pueden convertirse en manuales de buenas prácticas en lugar de simples anécdotas de “mira lo que le pasó a este”.
El TSJ de Canarias deja claro que no “desdeña” el potencial de la Inteligencia Artificial en el ámbito jurídico. Al contrario: reconoce que puede ser una aliada poderosa. Pero coloca un pilar en el centro: el principio de supervisión humana.
Esa es, quizás, la gran idea con la que deberíamos quedarnos:
La verdadera innovación no consiste en que la máquina decida por ti, sino en que tú decidas mejor gracias a la máquina.
Si eres abogado, este caso te interpela de forma directa. Pero si no lo eres, también. Porque mañana el error puede estar en un informe médico, en un diagnóstico de ciberseguridad, en un plan financiero o en un artículo de tecnología.
La pregunta no es si vas a usar IA, sino cómo. Como un atajo que te ahorra pensar, o como una herramienta que multiplica tu criterio. El abogado canario ya ha pagado su lección. Tú, de momento, puedes aprenderla gratis.
Y quizás ese sea el verdadero valor de esta historia: recordarnos que, en un mundo cada vez más automatizado, el recurso más escaso y valioso sigue siendo el de siempre: un humano dispuesto a hacerse responsable de lo que firma.



