martes, diciembre 23, 2025
Publicidad
Publicidad

Del “momento Oppenheimer” a la Biblia de la IA

David.arcos
David.arcos
Perito Informático Judicial
Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

España acaba de hacer algo que muy pocos países se atreven a hacer con la inteligencia artificial: mirar de frente al “momento Oppenheimer” tecnológico y poner negro sobre blanco cómo se debe construir, desplegar y vigilar la IA que va a convivir con nuestros derechos, nuestra economía y nuestras instituciones.​

El 11 de diciembre de 2025, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) publicó 16 guías prácticas –761 páginas– para ayudar a empresas y administraciones a cumplir el Reglamento Europeo de IA (Reglamento (UE) 2024/1689). No son un folleto divulgativo ni un libro de autoayuda; son, literalmente, el manual de instrucciones para no estrellarse en la nueva era de la IA regulada.​

Para quien innova, para quien asesora, para quien juzga, para quien emprende o simplemente trabaja en una organización que empieza a usar IA, estas guías son algo así como la “Sagrada Biblia” de la IA confiable. No porque sean infalibles, sino porque, por primera vez, ordenan el caos en un lenguaje que se puede trabajar, implementar y auditar.

El Reglamento Europeo de IA es ambicioso, denso y técnico. Define niveles de riesgo, obligaciones, sanciones, estructuras de supervisión. Pero, como toda gran norma, dejaba una pregunta práctica:

Publicidad

“Vale, ¿y ahora cómo hago esto en mi empresa, con mis sistemas, con mis recursos?”

Ahí entran las guías de la AESIA. La propia agencia lo dice sin rodeos: su objetivo es “servir de apoyo para la implementación y cumplimiento de la normativa europea”.​

Se organizan en tres bloques:

  • Guías introductorias (1–2)
    • Explican el alcance del Reglamento, los niveles de riesgo y quién es quién: proveedores, responsables del despliegue, importadores, distribuidores.
    • Aterrizan conceptos que, en el texto legal, pueden sonar abstractos: qué es realmente un sistema de alto riesgo, qué actividades quedan fuera, qué significa “IA” a efectos jurídicos.​
  • Guías técnicas (3–15)
    Son el corazón operativo del conjunto. Abordan, entre otros:

    • Evaluación de conformidad (marcado CE) para sistemas de alto riesgo.
    • Sistemas de gestión de calidad específicos para IA.
    • Gestión de riesgos a lo largo de todo el ciclo de vida del sistema.
    • Vigilancia humana significativa (que no sea un adorno).
    • Gobernanza de datos: calidad, sesgos, trazabilidad.
    • Transparencia y obligaciones de información al usuario.
    • Precisión, robustez y ciberseguridad.
    • Conservación de registros y logs.
    • Vigilancia poscomercialización y gestión de incidentes.​
  • Guía 16: Manual de uso de las checklists
    • Explica cómo utilizar las 13 listas de comprobación que la AESIA ha publicado en paralelo.
    • Es, en la práctica, un diagnóstico de madurez: te permite saber dónde estás frente a los requisitos del Reglamento y cómo diseñar un plan de adaptación realista.​

Para una pyme que empieza a integrar modelos de IA en un producto, para un banco que entrena sistemas de scoring, para una administración que despliega algoritmos en servicios públicos, estas guías son mucho más que doctrina: son un manual de supervivencia.

- Advertisement -

AESIA: del BOE al campo de juego

La AESIA no nació de la nada. La crea el Real Decreto 729/2023 como primera agencia específica de supervisión de IA en la UE, con la misión de proteger derechos fundamentales y garantizar el cumplimiento del futuro marco europeo.​

En 2025, su papel se refuerza con el anteproyecto de ley español sobre buen uso y gobernanza de la IA, que:

  • La designa como autoridad supervisora y sancionadora de referencia.
  • Le da capacidad de coordinar a otras entidades a través de una Comisión mixta de autoridades de vigilancia del mercado.​

Lo relevante es que AESIA no se ha quedado en un rol puramente punitivo. Ha hecho algo mucho más inteligente: construir regulación practicándola.

  • Ha trabajado mano a mano con la Agencia Española de Protección de Datos y otras autoridades.
  • Ha escuchado a empresas reales en sectores críticos.
  • Ha utilizado el sandbox regulatorio de IA como laboratorio de ensayo para el Reglamento europeo.​

El resultado son guías que no suenan a “copiar-pegar” del texto legal, sino a respuestas a problemas que ya han surgido al intentar aplicar el Reglamento en proyectos reales.

El Real Decreto 817/2023 crea el primer sandbox regulatorio de IA ligado al AI Act en toda la UE. Es, literalmente, un entorno controlado donde empresas pueden probar sistemas de IA bajo supervisión directa de la AESIA antes de sacarlos al mercado.​

Claves de este modelo:

  • Se centra en sistemas de alto riesgo (salud, finanzas, empleo, servicios públicos, etc.).
  • AESIA aplica un protocolo de tres niveles de supervisión:
    • Evaluación inicial de riesgos.
    • Monitorización continua durante las pruebas.
    • Validación final antes de la salida al mercado.​

En la práctica, esto significa:

  • Que muchas de las dudas, contradicciones y lagunas del Reglamento se han encontrado antes de que explotaran en producción.
  • Que las guías recogen soluciones que ya han sido testeadas con bancos, aseguradoras, empresas industriales, tecnológicas, administraciones.​

España se adelanta así al mandato del artículo 57 del propio Reglamento, que obliga a todos los Estados miembros a crear al menos un sandbox regulatorio de IA antes de agosto de 2026. España llegó 16 meses antes.​

Todo esto podría sonar a cultura ética, a reputación, a “hacer las cosas bien”. Lo es. Pero también es algo mucho más tangible: dinero. Mucho dinero.

El Reglamento (UE) 2024/1689 incluye un régimen sancionador que compite, en contundencia, con el del GDPR. El artículo 99 fija tres grandes niveles de multas:​

  • Prácticas de IA prohibidas (art. 5)
    • Hasta 35 millones de euros o el 7% del volumen de negocios anual global de la empresa, lo que sea mayor.
  • Incumplimiento de otros requisitos clave (por ejemplo, requisitos de sistemas de alto riesgo)
    • Hasta 15 millones de euros o el 3% del volumen de negocios anual global.
  • Proporcionar información inexacta, incompleta o engañosa a las autoridades
    • Hasta 7,5 millones de euros o el 1% del volumen de negocios anual global.

En el caso de pymes y startups, el Reglamento prevé adaptar estas cifras aplicando el menor de los importes y porcentajes, pero incluso entonces el impacto puede ser devastador.​

La moraleja es sencilla:

  • La IA sin gobernanza ya no es solo un riesgo tecnológico o reputacional; es un riesgo financiero existencial.
  • Las guías de la AESIA son una herramienta estratégica para reducir ese riesgo: orientan cómo diseñar sistemas que soporten una inspección, una auditoría o un incidente serio sin que todo se venga abajo.​

¿Qué significan estas guías para ti, aunque no te dediques a IA?

Si eres empresario o directivo

  • Ya no basta con “tener IA en el roadmap”; hay que demostrar que es segura, trazable y conforme al RIA.
  • Tus decisiones de inversión cambian: no se trata solo de elegir modelo, sino de:
    • ¿Tenemos un sistema de gestión de calidad adaptado a IA?
    • ¿Sabemos hacer un análisis de riesgo tecnológico y de derechos fundamentales?
    • ¿Podríamos pasar mañana una evaluación de conformidad?

Las empresas que usen estas guías como base para sus proyectos no solo reducirán riesgos; también podrán presumir, con argumentos, de estar por delante en “AI Governance”.

Más que papel: un cambio cultural en cómo pensamos la IA

Lo más transformador de estas guías no es su volumen, sino el cambio de enfoque que representan.

  1. De la fascinación a la responsabilidad
    • Pasamos de “qué modelo usamos” a “qué consecuencias tiene usarlo así”.
    • De “podemos hacerlo” a “debemos hacerlo y cómo”.
  2. De la caja negra al sistema auditable
    • Exigen documentación técnica, registros, explicaciones comprensibles para humanos.
    • No matan la innovación, pero sí la obligan a dejar rastro.
  3. De la IA como producto estrella a la IA como infraestructura regulada
    • En sectores críticos, la IA se acerca a la lógica de otros productos regulados (farmacia, automoción, energía).
    • Esto asusta, pero también da seguridad jurídica y confianza.

España se está situando, por méritos propios, como “campo de pruebas” de la gobernanza de IA en Europa:

  • Primera agencia específica de supervisión de IA.​
  • Primer sandbox regulatorio vinculado al AI Act.​
  • Primer gran paquete de guías prácticas para aterrizar el Reglamento.​

Eso tiene dos consecuencias claras:

  • Para el país
    • Atrae proyectos piloto, inversiones, talento.
    • Posiciona a España como interlocutor clave en la conversación global sobre IA confiable.
  • Para las empresas y profesionales que están aquí
    • Nos coloca un espejo exigente: ya no podemos decir “no hay referencias”; las hay, y muy buenas.
    • Nos ofrece una ventaja competitiva si nos movemos pronto: quien aprenda a jugar con estas reglas desde el principio podrá exportar modelos, servicios y conocimiento a otros países cuando ellos estén todavía empezando su adaptación.

Llamar “Sagrada Biblia de la IA Confiable” a estas 16 guías es, por supuesto, una licencia metafórica. Pero tiene algo de verdad incómoda:

si las tratas como un texto sagrado intocable que se lee una vez y se deja en la estantería, no sirven de nada.

Si las tratas como un manual de trabajo vivo, que se subraya, se discute, se actualiza, puede marcar la diferencia entre:

  • Una IA que genera negocio, confianza y estabilidad.
  • Una IA que genera sanciones, litigios y desconfianza.

La inteligencia artificial no va a desaparecer. El Reglamento europeo tampoco. AESIA, sandbox y guías han llegado para quedarse.

La verdadera pregunta es qué papel quieres jugar en este nuevo escenario:

  • ¿El de quien espera a que le llegue una sanción para aprender?
  • ¿O el de quien ve estas 761 páginas no como un muro, sino como el mapa que necesitaba para navegar en un mar que, hasta ayer, era pura niebla?

La carrera ya ha empezado. Y, por primera vez, tenemos algo parecido a un libro de ruta. Lo escriben desde A Coruña, se llama AESIA, y si trabajas con IA –aunque aún no lo sepas– te conviene leerlo.

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad

Suscríbete a nuestro Boletín

Regístrate para recibir contenido interesante en tu bandeja de entrada, cada semana.

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Lo más leido