jueves, junio 19, 2025
Publicidad
Publicidad

La Amenaza Invisible: Cómo Defendernos de los Delitos Informáticos Potenciados por la Inteligencia Artificial

Macarena Sánchez Pérez
Macarena Sánchez Pérez
Perito especializado en Investigaciones Digitales
Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

En la era digital, la Inteligencia Artificial (IA) ha revolucionado innumerables aspectos de nuestra vida cotidiana. Sin embargo, esta misma tecnología que impulsa avances significativos también ha sido cooptada por ciberdelincuentes para perpetrar delitos con una sofisticación sin precedentes. La capacidad de la IA para generar contenido falso, desde imágenes y voces hasta textos convincentes, ha abierto la puerta a nuevas formas de fraude, suplantación de identidad y violaciones de la privacidad. Frente a esta realidad, surge una pregunta crucial: ¿Cómo podemos protegernos eficazmente en un entorno donde la línea entre lo real y lo artificial se desdibuja cada vez más?

La Nueva Cara del Cibercrimen: Delitos Potenciados por IA

La irrupción de la IA en el ámbito delictivo ha dado lugar a modalidades de fraude y manipulación que antes parecían propias de la ciencia ficción. 

Entre las más destacadas se encuentran:

Deepfakes y Suplantación de Identidad: Los deepfakes son contenidos audiovisuales generados o alterados mediante IA que simulan de manera realista la apariencia o voz de una persona. Esta tecnología ha sido utilizada para crear videos o audios falsos con fines malintencionados, como fraudes financieros, extorsión o difamación. Por ejemplo, en España, se ha reportado el uso de deepfakes para suplantar la voz de directivos y autorizar transferencias fraudulentas. ​ 

Publicidad

Phishing Avanzado: La IA permite a los ciberdelincuentes personalizar ataques de phishing con una precisión alarmante. Analizando grandes volúmenes de datos, pueden crear mensajes que imitan de manera casi perfecta la comunicación de entidades legítimas, aumentando la probabilidad de engañar a las víctimas para que revelen información confidencial o descarguen software malicioso. ​ 

Creación de Contenido Falso y Desinformación: Más allá de los deepfakes, la IA se utiliza para generar textos, imágenes y videos falsos destinados a manipular la opinión pública, desacreditar a individuos o influir en procesos electorales. La facilidad con la que se puede producir y difundir este contenido representa un desafío significativo para la veracidad de la información en la era digital. ​

Marco Legal y Regulador en España

Aunque la legislación española aún no cuenta con normativas específicas que aborden los delitos informáticos cometidos mediante IA, existen disposiciones en el Código Penal que pueden aplicarse a estas conductas:​

  • Fraude Informático (Art. 248 y 249): Incluye estafas realizadas mediante manipulación informática o artificios semejantes, aplicable en casos donde la IA se utiliza para engañar y obtener beneficios económicos ilícitos.​
  • Acceso Ilícito a Sistemas Informáticos (Art. 197 bis): Penaliza la intrusión en sistemas informáticos vulnerando medidas de seguridad, relevante cuando se emplean algoritmos de IA para forzar accesos no autorizados.​
  • Violación de la Intimidad y Datos Personales (Art. 197): Sanciona el acceso, modificación o difusión de datos personales sin consentimiento, aplicable en situaciones donde la IA se utiliza para extraer o manipular información privada.​
  • Suplantación de Identidad (Art. 401): Castiga la usurpación del estado civil de otra persona, pertinente en casos de deepfakes utilizados para hacerse pasar por terceros.​

Además, la Ley Orgánica 1/1982, de 5 de mayo, protege el derecho al honor, a la intimidad personal y familiar y a la propia imagen, estableciendo que estos derechos son irrenunciables e inalienables, y cualquier uso de la imagen de una persona requiere su consentimiento expreso.​

- Advertisement -

La rápida evolución de la IA plantea desafíos significativos para su regulación. El Reglamento Europeo de Inteligencia Artificial, aún en fase de desarrollo, busca establecer un marco común para el uso ético y seguro de la IA en la Unión Europea. Sin embargo, en España, el anteproyecto de ley correspondiente ha generado controversia al excluir la imposición de multas administrativas a las administraciones públicas que infrinjan la normativa, limitándose a apercibimientos y medidas correctoras. Esta exclusión ha sido criticada por representar un agravio comparativo respecto al sector privado y por la falta de ejemplaridad pública. ​ 

La Importancia de la Prueba Pericial en Delitos con IA

La complejidad técnica de los delitos cometidos mediante IA hace esencial la intervención de peritos informáticos especializados. Estos profesionales desempeñan un papel crucial en:​

  • Análisis Forense Digital: Examinan dispositivos y sistemas para identificar rastros de actividad delictiva, determinando el uso de herramientas de IA en la comisión del delito.​
  • Autenticación de Contenidos: Evalúan la veracidad de imágenes, audios y videos, identificando posibles manipulaciones realizadas con IA.​
  • Asesoramiento Legal-Técnico: Proporcionan informes y testimonios expertos que ayudan a los tribunales a comprender la naturaleza técnica del delito y la evidencia presentada.​ 

La Asociación Nacional de Peritos Judiciales Informáticos (ANTPJI) ha destacado la necesidad de formación continua en IA para sus miembros, dada la creciente incidencia de estos delitos y la falta de legislación específica al respecto.​

Medidas de Protección para la Ciudadanía

Ante la sofisticación de las amenazas potenciadas por la IA, es fundamental que los ciudadanos adopten medidas proactivas para protegerse:

    1. Verificación de Información: Ante contenidos sospechosos, especialmente aquellos que parecen sensacionalistas o provienen de fuentes no verificadas, es crucial contrastar la información con medios oficiales o confiables.​
  • Protección de Datos Personales: 
  • Evita compartir información sensible (número de DNI, dirección, datos bancarios, fotografías privadas) en redes sociales, correos electrónicos o sitios web no verificados. Ajusta las configuraciones de privacidad en tus cuentas y limita el acceso a terceros.
  • Precaución con correos, llamadas y mensajes sospechosos:
    Desconfía de cualquier mensaje que genere urgencia, ofrezca premios inesperados o te pida realizar transferencias. Aunque parezca venir de un familiar o entidad oficial, verifica siempre por otros medios. La IA puede imitar perfectamente una voz o una forma de escribir.
  • Uso de contraseñas robustas y autenticación en dos pasos:
    Una contraseña fuerte (larga, combinando letras, números y símbolos) y la activación del segundo factor de autenticación pueden marcar la diferencia entre estar protegido o ser víctima de acceso no autorizado, incluso si tus datos circulan en la red.
  • Denuncia y asesoramiento inmediato en caso de duda:
    Ante cualquier sospecha, guarda la evidencia (pantallazos, audios, correos) y contacta con instituciones como la Policía Nacional, Guardia Civil, INCIBE (línea gratuita 017), y si procede, busca apoyo pericial especializado para preservar la prueba adecuadamente.

Casos Reales: Cuando la IA ataca al ciudadano común

No solo los políticos, celebridades o grandes empresas son objetivo. La mayoría de las víctimas de estos delitos no sale en los titulares. La ANTPJI ha documentado varios casos recientes en los que la IA fue utilizada para:

  • Crear audios falsos de hijos o nietos pidiendo ayuda urgente para obtener transferencias económicas.
  • Imitar a responsables de empresa y enviar instrucciones falsas al departamento financiero.
  • Generar perfiles “clonados” en redes sociales, con fotos y nombre, para pedir dinero o acceso a datos de amigos y familiares.
  • Modificar imágenes íntimas y utilizarlas como herramienta de extorsión emocional o económica.

Como explicó Olga Yabar, abogada tecnológica y responsable del área legal en ANTPJI, la Ley Orgánica 1/1982 protege el derecho a la imagen como intransferible e irrenunciable, pero aún no contamos con una ley específica que castigue directamente los delitos cometidos con herramientas de inteligencia artificial.

Esta carencia deja vacíos que, en la práctica, ponen en riesgo la protección efectiva de los ciudadanos, ya que muchos casos terminan sin sanción clara o con dificultades probatorias por la sofisticación técnica de las herramientas utilizadas.

Peor aún, la nueva ley española sobre inteligencia artificial establece sanciones para el sector privado, pero exime de multas administrativas a las administraciones públicas, aunque sean responsables de prácticas de alto riesgo o usos indebidos. Esto supone un agravio comparativo grave y desincentiva la ejemplaridad institucional, clave para construir una cultura de seguridad digital.

Para protegernos eficazmente de la IA maliciosa y sus usos delictivos, no basta con medidas individuales. 

Es necesario un compromiso firme del Estado y las instituciones para:

  • Aprobar una legislación específica y clara que contemple los delitos cometidos mediante IA, con agravantes si afectan derechos fundamentales como la imagen, la voz o la identidad digital.
  • Fortalecer la figura del perito judicial informático especializado en IA, dotándolo de herramientas legales, reconocimiento procesal y formación continua.
  • Impulsar campañas de concienciación ciudadana adaptadas a todos los públicos, especialmente a los más vulnerables (mayores, adolescentes, personas con discapacidad).
  • Establecer mecanismos de respuesta rápida y apoyo legal gratuito para las víctimas de delitos digitales cometidos mediante IA, sin importar su impacto mediático o económico.
  • Revisar el papel y la responsabilidad de las plataformas tecnológicas, que permiten la circulación de contenido generado o manipulado con IA sin sistemas de verificación efectivos.

La inteligencia artificial ha llegado para quedarse. Su capacidad para transformar nuestras vidas es enorme, pero su poder para generar daño, si se utiliza sin control, también lo es. En esta nueva frontera digital, los derechos fundamentales no pueden quedar obsoletos ni subordinados a la velocidad del desarrollo tecnológico.

Como sociedad, debemos exigir transparencia, responsabilidad y un marco legal que no solo persiga los delitos cometidos con IA, sino que también prevenga sus efectos, ampare a las víctimas y fortalezca a los expertos que luchan contra estas amenazas invisibles.

Porque si no regulamos a tiempo, no sabremos quién está realmente detrás de la voz que escuchamos, la cara que vemos o la orden que recibimos.

Y en el mundo de la IA, lo que no puedes probar… tampoco lo puedes proteger.

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad

Suscríbete a nuestro Boletín

Regístrate para recibir contenido interesante en tu bandeja de entrada, cada semana.

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Lo más leido