martes, diciembre 23, 2025
Publicidad
Publicidad

La frase de Ábalos: “no es mi voz” ya no suena igual en 2025.

Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

Ahora, cada vez que alguien la pronuncia ante un juez, en la sala entra un invitado incómodo: la inteligencia artificial. Y con él, una pregunta que ya no es ciencia ficción, sino dilema cotidiano: ¿ha llegado la era de la IA como coartada judicial?​

Cuando José Luis Ábalos dice que no se reconoce en los audios que le incriminan y abre la puerta a la hipótesis de una voz generada con IA, no solo está defendiendo su posición procesal. Está estrenando, a la vista de todo el país, un tipo de argumento que cada vez aparece más en los juzgados: si la IA puede imitar mi voz, siempre puedo insinuar que no soy yo.​

Esta idea tiene fuerza emocional. Quien no ha visto ya vídeos donde una persona parece hablar un idioma que no conoce, o escuchado “canciones” cantadas por artistas que jamás entraron en ese estudio. Los deepfakes y los clónicos de voz han saltado de los laboratorios a TikTok, y el ciudadano medio sabe que su oído ya no es una garantía absoluta. Pero lo que sirve para sembrar dudas en redes no es lo mismo que lo que soporta una prueba pericial en un procedimiento penal.​

El dictamen del Pedrito Informático es contundente y no dejan dudas al juzgador

Los expertos en informática forense consultados en casos como el de Ábalos coinciden en un punto clave: todavía no estamos en la era en la que una IA sofisticada pueda dejar cero rastros técnicos.​

Publicidad

Los peritos apuntan a varias capas de análisis:

  • Metadatos y “DNI” del archivo Cada fichero digital contiene información oculta sobre su origen: fecha de creación, dispositivo, software utilizado, modificaciones intermedias. Una manipulación profesional intentará limpiar estos metadatos, pero muchos sistemas dejan marcas, banderas o estructuras internas difíciles de borrar sin romper el archivo.​
  • Estructura técnica del audio: Codec, tasa de bits, patrones de compresión, cortes y reencoders dejan un “perfil” que se puede contrastar con grabaciones naturales. Incoherencias aquí son indicios de edición o generación.​
  • Análisis espectral y de frecuencias: El examen de las ondas sonoras permite buscar discontinuidades o artefactos que no se producen en un flujo real de voz humana, especialmente cuando se “pegan” fragmentos o se alteran palabras concretas.​
  • Ruido de fondo y contexto: Hoy, uno de los talones de Aquiles de los generadores de audio es el entorno: la continuidad del ruido de fondo, los pequeños cambios de posición, la interacción con el espacio. La IA puede clonar la voz, pero le cuesta mucho más simular, de forma perfecta, el contexto sonoro en grabaciones largas o complejas.​

Lo que subrayan referentes como Ángel Bahamontes (ANTPJI) y otros peritos es que el análisis no se detiene en “se parece a su voz”, sino que entra en las tripas digitales del archivo. Por eso hablan de fiabilidades del orden del 95% cuando se combina análisis técnico, biometría de voz y contexto probatorio.​

IA contra IA: las nuevas herramientas del laboratorio forense

Mientras los modelos generativos se vuelven más realistas, el laboratorio forense también se arma con inteligencia artificial. La misma tecnología que puede ayudar a crear un deepfake sirve para detectar sus costuras.

En el terreno de la voz, soluciones como Phonexia Voice Inspector permiten comparar locutores, segmentar quién habla en cada momento (diarización), detectar patrones fonéticos y generar informes estructurados para tribunales, basados en biometría de voz de alta precisión. No sustituyen al perito, pero refuerzan sus conclusiones con un análisis automático reproducible.​

- Advertisement -

En vídeo e imagen, herramientas como Amped FIVE se han convertido en estándar de facto en cuerpos policiales y laboratorios forenses: permiten convertir formatos propietarios, mejorar calidad, analizar fotograma a fotograma, extraer metadatos y, sobre todo, generar informes periciales donde cada filtro y cada operación quedan documentados, algo fundamental para la admisibilidad judicial.​​

El equilibrio actual es paradójico pero esperanzador:

  • Sí, la IA facilita falsificaciones más realistas.
  • Pero también ofrece a los peritos una lupa mucho más potente para detectar esas falsificaciones.

La tentación de “echarle la culpa a la IA”

Lo que sí está creciendo —y aquí los expertos son unánimes— es el uso de la IA como argumento defensivo.​

  • “No me reconozco.”
  • “Eso podría haberlo generado una IA.”
  • “Hoy se puede hacer cualquier cosa con una app.”

Funciona bien a nivel mediático porque se apoya en un miedo real: el de no saber distinguir qué es auténtico y qué no en el océano digital. Pero, como señalan los peritos, trasladar ese miedo al proceso penal sin prueba técnica detrás es otra cosa.​

Hay dos riesgos claros:

  1. Dilatar procedimientos: Alegar posible manipulación obliga muchas veces a nuevas periciales, contrainformes, más pruebas… aunque no haya indicios técnicos iniciales de manipulación.​
  2. Explotar el desconocimiento: Si jueces, fiscales o abogados no están suficientemente formados en evidencia digital, es más fácil que los argumentos tecnológicos se usen como “caja negra” para generar dudas donde no las hay.​

No es nuevo que se intente desacreditar grabaciones; lo nuevo es el salto cualitativo en el relato: antes se hablaba de cortes, montajes, ediciones; ahora se invoca directamente a la IA, incluso cuando el archivo presenta todos los rasgos de una grabación humana.​

¿Puede la IA engañar al oído… pero no al laboratorio?

La situación actual podría resumirse así:

  • Al oído humano, una voz clonada buena puede resultar verosímil, sobre todo si la escuchamos sin contexto y con predisposición a creer.
  • Al análisis forense, a día de hoy, las manipulaciones de cierto calado siguen dejando rastros detectables, especialmente cuando se dispone de los originales, se analizan múltiples parámetros y se cuenta con herramientas avanzadas.​

Peritos con experiencia reconocen que los algoritmos generativos “pueden llegar a ofuscar” una investigación, pero insisten en que aún no se ha encontrado un caso real en el que haya sido imposible determinar si un archivo estaba manipulado. Eso no significa que el problema esté resuelto para siempre, sino que la carrera entre falsificación y detección está, de momento, relativamente equilibrada.​

La verdadera pregunta de fondo es si esta ventaja forense será duradera o si llegará un punto en el que la alteración sea tan sutil que ni siquiera las herramientas más avanzadas puedan diferenciar con seguridad entre lo auténtico y lo sintético.​

 

Más allá del caso Ábalos, la irrupción de la IA como potencial coartado obliga a repensar la cultura probatoria en el entorno digital.

Para jueces y fiscales

  • Entender conceptos básicos de análisis forense de audio, vídeo y ficheros digitales.
  • Saber qué se puede exigir razonablemente a una pericial y qué significa una conclusión con “alto grado de probabilidad” en biometría de voz.
  • No dejarse arrastrar por el efecto “tecnofobia” ni por el “tecnofetichismo”: ni todo es falsificable, ni todo es infalible.

Para abogados

  • Integrar en la estrategia procesal una comprensión realista de lo que la IA puede y no puede hacer hoy.
  • Evitar alegaciones vagas (“podría ser IA”) sin apoyo pericial, que pueden erosionar credibilidad.
  • Saber cuestionar, cuando proceda, la cadena de custodia, la calidad de la grabación o la metodología del laboratorio.

Para peritos

  • Formarse continuamente en nuevas técnicas de generación y detección de deepfakes.
  • Emplear herramientas reconocidas (como Phonexia o Amped) que permitan informes replicables y comprensibles.​
  • Explicar sus conclusiones en un lenguaje que un tribunal pueda entender sin ser especialista.

La respuesta, hoy, es matizada:

  • Como argumento: sí, ha llegado. Se está usando cada vez más para sembrar dudas, ganar tiempo o intentar tumbar pruebas incómodas.​
  • Como coartada eficaz basada en imposibilidad técnica de detección: aún no. Los laboratorios forenses serios siguen teniendo margen para desenmascarar la gran mayoría de manipulaciones.​

Lo que está en juego no es solo si un audio concreto será admitido o no. Es algo más profundo: la confianza social en que, incluso en un mundo de algoritmos capaces de imitarlo casi todo, todavía hay formas de anclar la verdad en rastros verificables.

La IA ya es capaz de engañar a los oídos humanos. De momento, no ha logrado engañar sistemáticamente a quienes saben mirar dentro de los archivos. La responsabilidad colectiva —de juristas, peritos, medios, instituciones— es no convertir esa frontera técnica en un truco retórico.

Porque si todo pudiera ser falso por defecto, ninguna grabación serviría ya como prueba… y ese sería el mejor deepfake posible: el de una justicia incapaz de distinguir entre realidad y coartada.

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad

Suscríbete a nuestro Boletín

Regístrate para recibir contenido interesante en tu bandeja de entrada, cada semana.

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Lo más leido