La reciente resolución del Tribunal Superior de Justicia (TSJ) de Navarra marca un precedente importante en el uso de la inteligencia artificial generativa por parte de profesionales del Derecho. Aunque en esta ocasión no se ha impuesto sanción alguna, el Auto deja claro que el uso descuidado de herramientas como ChatGPT en procedimientos judiciales puede tener implicaciones legales, éticas y deontológicas. Este caso representa un llamado de atención sobre la necesidad de revisar y validar la información generada por tecnologías emergentes en tareas legales.
El caso: un error material involuntario causado por ChatGPT
Los hechos ocurrieron en junio de 2024, cuando un abogado presentó una querella que contenía una cita legal errónea. En concreto, la referencia incluía un artículo del Código Penal de Colombia, en lugar del Código Penal español, atribuyéndolo de forma incorrecta a la Sala Segunda del Tribunal Supremo. El profesional reconoció que el error había sido facilitado por un uso inapropiado de la herramienta de inteligencia artificial ChatGPT 3 en su despacho.
Al advertir la equivocación, el abogado solicitó formalmente la subsanación del error, calificándolo como “material grosero e involuntario” y presentó disculpas al tribunal. No obstante, la Sala decidió abrir pieza separada para determinar si se había incurrido en mala fe procesal o abuso de derecho, lo que podría implicar la imposición de una sanción económica en virtud del artículo 247 de la Ley de Enjuiciamiento Civil (LEC).
Los retos de la inteligencia artificial en el ejercicio legal
El Tribunal Superior de Justicia de Navarra aprovechó esta resolución para destacar los retos que plantea la inteligencia artificial generativa en el ámbito jurídico. Las herramientas como ChatGPT son útiles para agilizar tareas como la redacción de documentos, la búsqueda de jurisprudencia o el análisis de grandes volúmenes de información. Sin embargo, estas tecnologías no están exentas de errores, lo que puede generar consecuencias negativas si se emplean de manera irresponsable.
Según el Auto, el uso de IA en los procedimientos judiciales plantea importantes implicaciones éticas y legales. Los abogados tienen la obligación de revisar cuidadosamente el contenido generado y garantizar su exactitud, tal como señala la Law Society en sus recomendaciones de noviembre de 2023.
La resolución recalca que, aunque las tecnologías emergentes puedan automatizar tareas, la revisión humana sigue siendo imprescindible para garantizar el cumplimiento normativo y la precisión de los documentos legales.
El artículo 247 de la Ley de Enjuiciamiento Civil establece que las partes involucradas en un proceso judicial deben actuar respetando las reglas de buena fe procesal. En caso de incumplimiento, los tribunales pueden imponer multas que oscilan entre 180 y 6.000 euros, dependiendo de las circunstancias del caso y los perjuicios causados.
La resolución del TSJ de Navarra ha sido moderada debido a la novedad del asunto y la rápida reacción del abogado, quien se apresuró a admitir su error y solicitar su subsanación. No obstante, el tribunal deja claro que este tipo de errores no son excusables de forma permanente y deben servir como advertencia para los profesionales del Derecho.
La Sala advierte que incluir referencias legales incorrectas constituye un riesgo procesal, especialmente cuando la información procede de herramientas de inteligencia artificial que no han sido supervisadas adecuadamente. Este fallo puede ser considerado un acto de mala fe o abuso del proceso, con las correspondientes sanciones.
El papel de los abogados ante la inteligencia artificial
La resolución del TSJ enfatiza que los abogados son responsables del uso adecuado de la tecnología en sus tareas. La inteligencia artificial puede ser un aliado valioso, pero no exime al profesional de su responsabilidad ética y del deber de actuar con diligencia.
Este caso subraya varias lecciones importantes:
- La revisión humana es indispensable: aunque las herramientas de IA pueden generar textos de manera rápida, su contenido debe ser revisado y validado cuidadosamente.
- Formación tecnológica: los despachos deben capacitarse en el uso de herramientas de inteligencia artificial para evitar errores que puedan perjudicar sus casos.
- Responsabilidad profesional: los abogados deben comprender los límites de las tecnologías emergentes y asegurarse de cumplir con las normas deontológicas de la profesión.
Tecnologías emergentes y herramientas de control
Para evitar errores como el del caso analizado, los despachos de abogados pueden implementar herramientas tecnológicas avanzadas que mejoren la eficiencia y reduzcan el riesgo de equivocaciones. Algunas soluciones incluyen:
- Herramientas de verificación jurídica: plataformas como Westlaw, LexisNexis o VLex permiten contrastar citas legales y verificar la normativa aplicable en cada jurisdicción.
- Inteligencia artificial supervisada: soluciones como ROSS Intelligence o Harvey AI ofrecen asistencia legal basada en IA, pero requieren validación humana para garantizar su fiabilidad.
- Software de gestión documental: herramientas como Kira Systems o Clio permiten organizar, revisar y auditar documentos legales, minimizando errores humanos.
La adopción de estas tecnologías debe ir acompañada de formación continua para que los profesionales comprendan su funcionamiento y sus limitaciones.
El Auto del Tribunal Superior de Justicia de Navarra sienta un precedente relevante sobre el uso de la inteligencia artificial en el ámbito legal. Aunque en esta ocasión no se impuso sanción alguna, el tribunal ha dejado claro que los abogados son responsables del uso adecuado de estas herramientas y deben garantizar la precisión de los documentos que presentan.
Este caso refuerza la necesidad de adoptar un enfoque ético, profesional y responsable en la utilización de tecnologías emergentes, así como la importancia de la validación humana en el ejercicio legal. La inteligencia artificial puede ser una herramienta poderosa, pero su implementación debe ir acompañada de diligencia y formación para evitar errores que puedan afectar a la justicia y la reputación profesional.