En España, los delitos relacionados con la inteligencia artificial (IA) aún no están específicamente definidos en el Código Penal. Se aplican disposiciones generales, como aquellas referentes a delitos informáticos o contra la intimidad, a situaciones que involucran IA. Frente a incidentes causados por robots o sistemas autónomos, se hace necesario el asesoramiento de peritos informáticos y abogados especializados en tecnología, profesionales aún escasos.
El Reto es la incorporación de la IA en la investigación criminal, en las periciales Informaticas y en la propia Administracion de Justicia
La integración de la IA en la investigación criminal, las periciales informáticas y la administración de justicia representa un desafío significativo. A nivel de la Unión Europea, se avanza con la Ley de Inteligencia Artificial, pionera en su tipo, que clasifica los sistemas de IA según su nivel de riesgo, desde «riesgo inaceptable» —prohibiendo aquellos que amenacen la seguridad de las personas— hasta «alto riesgo», con obligaciones específicas para sus proveedores y usuarios. Además, se destaca la IA generativa, como ChatGPT, que debe cumplir con criterios de transparencia y prevención de contenidos ilegales.
Este marco legal europeo es un paso hacia la regulación detallada de la IA, esencial para navegar por los complejos escenarios que la tecnología presenta.
La sociedad y sus dirigentes aún no han comprendido plenamente que uno de los mayores riesgos que presenta la inteligencia artificial (IA) para el Derecho penal radica en la desconfianza hacia los sistemas empleados y la opacidad de los algoritmos, lo cual podría vulnerar el derecho de defensa de los ciudadanos y socavar los fundamentos de nuestro Estado de Derecho. Esto se debe a que se delega el control de derechos fundamentales a sistemas algorítmicos cuyas decisiones pueden ser determinantes.
La emergencia de delitos cometidos mediante IA exige una pronta reforma del Código Penal. La evolución de la innovación tecnológica y los delitos informáticos transcurren a un ritmo más lento que el propio avance del derecho. La creación de la primera asociación profesional de peritos informáticos, la ANTPJI, en 2009, marcó un punto de inflexión en la redefinición de algunos delitos relacionados con datos personales, intimidad y privacidad en el contexto digital. Fenómenos como el phishing están en auge, exponiendo a todos los usuarios de internet a estafas constantes a través de enlaces maliciosos, a menudo con la complicidad de empresas de telecomunicaciones. La dificultad para que los consumidores demuestren su inocencia ante entidades financieras, que tienden a atribuirles negligencia, destaca la importancia de los informes periciales para la recuperación de activos robados, donde los tribunales suelen fallar a favor de los usuarios.
Asimismo, el aumento del tráfico de pornografía infantil y prácticas de grooming en redes sociales evidencia un notable crecimiento de conductas delictivas que aún van a la zaga de nuestra realidad cotidiana. Con la llegada de la IA, se vislumbra un nuevo horizonte de desafíos delictivos a enfrentar en el futuro.
La legislación española propone la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), un ente de control similar a la AEPD, respaldado por el Real Decreto-ley 6/2023, que permite a jueces y tribunales elaborar borradores de resoluciones utilizando algoritmos. Este avance suscita preocupaciones sobre la posibilidad de que la IA reemplace la toma de decisiones humanas en el sistema judicial, planteando riesgos de deshumanización y una dependencia creciente en la tecnología, que podría afectar la imparcialidad y la esencia misma de la justicia.
La iniciativa también destaca el uso controvertido de la IA para predecir conductas delictivas, basándose en perfiles individuales y antecedentes, lo que podría llevar a juicios preventivos y sesgados. Este enfoque en la justicia predictiva y la automatización del sistema judicial invita a una reflexión crítica sobre el impacto de la IA en la justicia, la ética y la protección de los derechos fundamentales, enfatizando la necesidad de mantener un equilibrio entre innovación y los principios básicos del Estado de Derecho.
Las fuerzas del orden y los servicios de inteligencia recurren a Clearview, una vasta base de datos con más de 3.000 millones de imágenes extraídas de redes sociales y otros sitios de internet, incluyendo fotos de ciudadanos de la Unión Europea. Sin embargo, el uso de esta tecnología se mantiene en reserva por parte de los Estados miembros, dado que su aplicación podría entrar en conflicto con las normativas de protección de datos establecidas por la Unión.
Por otro lado, el proyecto iBorderCtrl,, financiado bajo el programa Horizonte 2020 de la UE, implementa IA en las fronteras exteriores como un «sistema inteligente de detección de mentiras». Este sistema crea perfiles de los viajeros mediante una entrevista automatizada que se realiza a través de la webcam del usuario antes de su viaje, complementada por un análisis de 38 microgestos mediante inteligencia artificial.
Actualmente, no existe una regulación específica para los delitos cometidos directamente por IA sin intervención humana, como sería el caso de una IA que opera de manera autónoma y termina cometiendo un delito. Esto plantea un dilema legal significativo: ¿A quién se le atribuye la responsabilidad en tales situaciones?
El principal riesgo de la inteligencia artificial (IA) desde la perspectiva de las pericias informáticas reside en la seguridad y privacidad de los datos, así como en el potencial mal uso de la tecnología. Los retos clave son:
Seguridad de datos: La necesidad de grandes volúmenes de datos para entrenar modelos de IA incrementa el riesgo de ataques cibernéticos y la posible filtración de información sensible.
Sesgo y discriminación: La IA puede intensificar sesgos preexistentes, llevando a decisiones injustas en áreas críticas como el empleo y la justicia penal.
Falta de transparencia: Los modelos complejos de IA actúan como «cajas negras», dificultando la comprensión y explicación de sus decisiones, lo cual es vital en contextos legales y regulatorios.
Manipulación y abuso: La capacidad de generar contenido realista o tomar decisiones autónomas puede ser explotada maliciosamente, afectando la integridad de la sociedad y la democracia.
Dependencia y errores tecnológicos: La creciente dependencia de la IA en operaciones críticas plantea el riesgo de fallos que pueden tener impactos severos en sectores esenciales.
Para mitigar estos riesgos, es esencial adoptar medidas de seguridad de la información, realizar auditorías de algoritmos para identificar y corregir sesgos, y establecer marcos de gobernanza ética que aseguren un desarrollo y uso responsables de la IA.