En esta entrevista, Gabriel Araújo analiza los grandes desafíos del siglo XXI en materia de evidencia digital, ciberseguridad e inteligencia artificial. Desde la fragilidad probatoria de un simple archivo hasta la amenaza estructural de los deepfakes en los tribunales, su visión conecta justicia, tecnología y Estado de Derecho. Un recorrido por la disciplina forense moderna, la formación institucional de jueces y militares, y el futuro inmediato de la prueba digital en la era de la inteligencia artificial.
En un tiempo donde una evidencia digital puede fabricarse en minutos, donde los tribunales deben decidir sobre archivos invisibles y donde la inteligencia artificial ha inaugurado una era de falsificación masiva, existe una figura profesional decisiva para el Estado de Derecho: el perito informático forense.
Gabriel Araújo representa uno de los perfiles más completos y exigentes del panorama contemporáneo. Auditor certificado CISA, hacker ético CEH v7, perito judicial especializado en evidencia digital, formador de jueces, fiscales, fuerzas policiales y militares, y actualmente director de un máster internacional en ciberseguridad en Malta, su trayectoria se sitúa en el punto exacto donde la tecnología se convierte en prueba, y la prueba en justicia.
En sus recientes reflexiones públicas en redes sociales, Araújo ha alertado sobre cómo determinadas noticias actuales revelan una preocupante falta de cultura institucional ante los riesgos digitales, especialmente en el terreno de la inteligencia artificial y la exposición indebida de información sensible. Sus publicaciones, ampliamente difundidas en sus redes con decenas de miles de seguidores, muestran que la ciberseguridad ya no es un asunto técnico: es una cuestión de responsabilidad pública.
Hoy conversamos con él sobre la verdad digital, los límites de la inteligencia artificial y el futuro judicial de la prueba electrónica.
Su trayectoria combina informática forense, auditoría y ciberseguridad. ¿Cómo definiría el núcleo de su especialización?
El núcleo de mi especialización es la intersección entre la tecnología, la seguridad y el valor probatorio de lo digital. La informática forense no es simplemente “analizar ordenadores”, sino un campo altamente estructurado que se ocupa de identificar, preservar, adquirir, examinar e interpretar evidencias electrónicas con garantías de integridad y trazabilidad.
Es decir: transformar un elemento técnico —un archivo, un registro, un vídeo, un mensaje— en un objeto verificable, reproducible y defendible desde el punto de vista metodológico.
Mi perfil se ha desarrollado precisamente en ese cruce: por un lado, la dimensión pericial y judicial, donde lo esencial es la autenticidad, la cadena de custodia y la fiabilidad técnica de la evidencia; por otro, la auditoría de sistemas y la gobernanza, que aportan una visión de control, cumplimiento y gestión de riesgos; y finalmente, la ciberseguridad operativa, que permite comprender cómo se producen los ataques, cómo se explotan vulnerabilidades y cómo se generan incidentes que luego deben investigarse.
Y luego es plantarse ante un tribunal y explicar todo esto tan complejo, de forma entendible y creíble, muchas veces en careos con otros peritos que aumenta la dificultad de esa misión.
Usted ha formado a jueces, fiscales, policías y también a personal militar. ¿Qué aporta la formación en ciberseguridad a instituciones del Estado?
Aporta soberanía operativa y resiliencia institucional. La ciberseguridad ya no es un asunto puramente técnico: es un elemento estructural de la seguridad nacional.
Cuando se forma a operadores jurídicos, se les dota de criterio para comprender qué es una evidencia digital y cómo se evalúa su autenticidad.
En cuerpos policiales o fuerzas armadas, la formación adquiere dimensión estratégica: amenazas híbridas, ataques a infraestructuras críticas, operaciones psicológicas digitales y protección de comunicaciones, donde se comprende perfectamente que la tecnología es hoy un teatro de operaciones.
Como auditor CISA y hacker ético CEH, ¿cómo se integran esas dos perspectivas?
Son dos caras complementarias. La auditoría aporta gobernanza, control y cumplimiento. El hacking ético aporta la perspectiva adversarial: cómo piensa un atacante.
Integrar ambas dimensiones permite entender la seguridad no como un producto, sino como un proceso continuo: prevención, detección, respuesta y aprendizaje.
¿Cuáles son los principales retos actuales en la investigación forense digital?
El principal reto es la complejidad del ecosistema digital. Hoy investigamos móviles cifrados, cloud, mensajería efímera, IA generativa, deepfakes y arquitecturas transnacionales. La evidencia digital ya no se encuentra: se reconstruye capa por capa.
Otro reto enorme es la autenticidad audiovisual: se están utilizando masivamente contenidos manipulados en estafas, acoso y desinformación.
Usted dirigió un programa pionero de televisión dedicado a la ciberseguridad. ¿Qué papel juega la divulgación?
La divulgación es una extensión natural de la responsabilidad profesional. La ciberseguridad afecta a ciudadanos, instituciones y menores.
“Distrito Ciber” fue pionero mundial como programa íntegramente dedicado a este ámbito. Aunque ya no lo realizo por falta de tiempo, reafirmó algo fundamental: la brecha entre conocimiento técnico y percepción social sigue siendo enorme.
¿Cuál es el mensaje principal para los jóvenes que quieren dedicarse a este ámbito?
Que la ciberseguridad no es solo técnica: es responsabilidad. Implica proteger sistemas, pero también derechos e instituciones.
Los principios permanecen: integridad, trazabilidad, verificación y ética profesional.
¿Cómo ve la actuación del Gobierno de España en materia de ciberseguridad y protección de datos?
La veo insuficiente y deficiente en algunos casos. Por ejemplo, en el reciente anuncio del presidente Pedro Sánchez prohibiendo el acceso a redes sociales a menores de 16 años, se mezclan medidas contra la desinformación y determinadas amenazas implícitas contra Elon Musk, que desluce la intencionalidad de alejar a los menores de contenidos inconvenientes para su edad. La experiencia nos dice que cuando se utiliza como excusa la seguridad con fines políticos o como arma arrojadiza, el resultado nunca es bueno. Además, al lanzar consignas ideológicas sin aportar soluciones como sería por ejemplo la tokenización anónima del acceso a las redes sociales, se está instrumentalizando el debate y desviando la atención de lo profesional a lo político, cuando debería ser al revés.
Esto en lo insuficiente. En lo deficiente pondría como ejemplo la publicación hecha el pasado 7 de enero por el ministerio de Defensa en su cuenta en X, de diversas fotos con la ministra Margarita Robles de pantallas de ordenadores revelando mapas bajo investigación en el cuartel general del Centro de Inteligencia de las Fuerzas Armadas (CIFAS), que al ser zona ZAR clase 1, según las Normas de la Autoridad Nacional para la Protección de la Información Clasificada aprobadas por el Secretario de Estado Director del Centro Nacional de Inteligencia, no debería entrar allí ninguna cámara y mucho menos publicarse una foto y que sea el propio Ministerio de Defensa quien lo haya hecho. En términos de inteligencia militar, es un error gravísimo que he señalado en mi cuenta de X , con un tuit que se hizo viral con más de 2 millones de visualizaciones (https://x.com/GabrielAraujoES/status/2009559316114673975)Y la publicación del Ministerio de Defensa sigue allí sin borrarse, revelando los mapas e identidades de los miliares de inteligencia que allí trabajan, y que pueden ser identificados, captados o extorsionados por cualquier potencia extranjera. Como se dice habitualmente en estos casos, no pasan más cosas porque Dios no lo quiere… La ciberinteligencia militar de un Estado de la OTAN, no puede depender de encomendarse con devoción a la Virgen.
¿Cómo afecta la expansión de la inteligencia artificial al campo de la ciberseguridad y la investigación forense?
La inteligencia artificial está redefiniendo las reglas del juego. Puede mejorar la detección de amenazas y el análisis masivo de datos, pero también está siendo utilizada para atacar: phishing hiperpersonalizado, malware adaptativo y generación de eventos falsos.
Esto complica enormemente la labor forense. Ya no basta con analizar un archivo: hay que preguntarse si ese contenido fue generado, alterado o simulado por sistemas automáticos.
En mis recientes publicaciones he insistido en que muchas noticias actuales muestran que la sociedad todavía no ha asumido la magnitud de este cambio: la IA no es un accesorio, es un nuevo escenario probatorio.
Los deepfakes son ya una realidad. ¿Qué riesgos representan para la credibilidad de la prueba digital?
Representan una transformación radical, lo dije en 2019 en una conferencia en el Consejo General de la Abogacía Española. Imagínense las caras de los abogados y jueces hace 7 años cuando alguien como yo les hablaba de la IA, de la necesidad de darle un marco ético por los peligros de los deepfakes, y todo ello 4 años antes de que saliera ChatGPT.
El caso es que, durante décadas, el audiovisual tenía una presunción inicial de fidelidad. Hoy esa certidumbre se ha erosionado.
Un deepfake no es una falsificación burda: puede engañar a observadores humanos y a sistemas automáticos. Esto crea una crisis probatoria: ya no se puede asumir que un vídeo o un audio es auténtico sin análisis forense profundo, contextual y metodológicamente robusto. Además puede utilizarse con fines de acoso o chantaje, es muy grave.
¿Está preparado el sistema judicial para afrontar la prueba digital en la era de la IA?
No completamente. Existe una brecha entre la velocidad tecnológica y la capacidad institucional de asimilarla.
Los jueces y fiscales necesitan alfabetización técnica sólida: cadena de custodia electrónica, estándares internacionales y comprensión real de los límites de la IA.
Además, las reglas procesales no están plenamente adaptadas a fenómenos como deepfakes o evidencias sintéticas.
La respuesta pasa por más formación especializada, más cooperación interdisciplinar y actualización estructural del sistema probatorio. Sin cultura forense digital, la justicia siempre irá un paso detrás de la tecnología
La conversación con Gabriel Araújo deja una conclusión clara: la ciberseguridad ya no es un nicho técnico, sino un pilar institucional del siglo XXI. En un mundo donde la inteligencia artificial puede fabricar realidades, la universidad, la justicia y el Estado necesitan expertos capaces de garantizar que la verdad digital siga siendo verificable.



