La robótica avanzada está conquistando ferias, eventos y titulares en España, y pocos ejemplos tan llamativos como los robots humanoides y cuadrúpedos de Unitree. Su despliegue mediático y comercial, con demostraciones espectaculares y promesas de revolución tecnológica, está alimentando el entusiasmo de empresas, centros educativos y público general. Sin embargo, bajo la superficie de la innovación, surgen dudas razonables sobre la seguridad, la responsabilidad y la idoneidad del marco en el que estos robots están llegando al mercado español. ¿Estamos preparados para convivir con máquinas de gran potencia física y autonomía, sin una regulación específica ni garantías técnicas y legales claras?
España vive un momento de transformación industrial sin precedentes, impulsado por la digitalización, la automatización y la inteligencia artificial. La reciente Ley de Industria 2025 y el Reglamento Europeo de Inteligencia Artificial (IA) buscan adaptar el marco legal a los retos de la industria 4.0, promoviendo la innovación pero también estableciendo límites y sanciones para usos inadecuados o peligrosos de la tecnología. Sin embargo, la realidad del mercado va más rápido que la normativa, y la llegada de robots avanzados como los de Unitree pone a prueba la capacidad de las instituciones y de los propios usuarios para gestionar los riesgos asociados.
Peligros técnicos: cuando la potencia se convierte en amenaza
Los robots humanoides Unitree H1, por ejemplo, miden 1,80 metros, pesan 47 kg y pueden ejercer fuerzas de hasta 75 N·m de par de torsión, levantando objetos de hasta 30 kg. Estas cifras no son solo impresionantes: implican que un fallo de software, un error de programación o un simple bug puede traducirse en movimientos violentos, golpes accidentales o situaciones de riesgo real para personas y bienes. No son casos hipotéticos: se han documentado incidentes en los que estos robots han perdido el control, golpeando personas, equipos o poniendo en peligro la integridad de quienes los rodean. Los problemas de equilibrio, la codificación deficiente o la falta de redundancia en los sistemas de seguridad pueden convertir a estas máquinas en potencialmente peligrosas.
Una brecha en la responsabilidad civil: ¿quién responde ante un accidente?
Uno de los aspectos más preocupantes es la imposibilidad de contratar un seguro de responsabilidad civil que cubra los posibles daños causados por estos robots. El motivo es simple y alarmante: no existe legislación específica que regule la responsabilidad en caso de accidente con robots de este tipo, ni protocolos estandarizados de seguridad. Las aseguradoras, ante este vacío legal y técnico, se niegan a cubrir riesgos que no pueden evaluar ni acotar. Esto deja a los compradores —empresas, instituciones, particulares— en una situación de indefensión jurídica, asumiendo personalmente cualquier daño que pueda producirse.
Falta de I+D+i y de formación técnica en la comercialización
La empresa que comercializa los robots Unitree en España no cuenta con un departamento propio de I+D+i, ni con personal técnico especializado en robótica, programación o ciberseguridad. El responsable de la empresa proviene del sector inmobiliario y su enfoque es puramente comercial. Esto implica que la adaptación, el mantenimiento, la actualización de firmware y la gestión de incidencias técnicas quedan fuera del alcance de la empresa distribuidora, trasladando toda la carga y el riesgo al usuario final. En un sector tan crítico como la robótica avanzada, esta carencia es especialmente grave: la experiencia internacional demuestra que los equipos multidisciplinares y la formación técnica son esenciales para anticipar, prevenir y mitigar riesgos.
Vulnerabilidades de ciberseguridad: una puerta abierta a ataques y espionaje
Los robots Unitree, como los modelos A1 y Go1, han mostrado vulnerabilidades graves de ciberseguridad. Investigadores han demostrado la posibilidad de eludir autenticaciones, acceder al flujo de vídeo de las cámaras o incluso tomar el control remoto del robot a través de la red. Esto abre la puerta a ataques de tipo “man-in-the-middle”, espionaje, denegación de servicio o manipulación maliciosa del comportamiento del robot. En un entorno doméstico o industrial, las consecuencias pueden ser tan graves como la invasión de la privacidad, el sabotaje o el uso indebido del robot como herramienta de ataque.
El vacío normativo: la ley va por detrás
Aunque la Ley de Industria 2025 y el Reglamento Europeo de IA han comenzado a sentar las bases para un uso seguro y ético de la inteligencia artificial y la robótica, la realidad es que no existe aún una normativa específica para la comercialización y uso de robots avanzados fuera del entorno industrial. Las normas ISO y UNE aplican sobre todo a robots industriales y cobots, pero no cubren la nueva generación de robots autónomos, humanoides o cuadrúpedos, que pueden operar en espacios públicos, educativos o privados. El régimen sancionador previsto en la legislación europea solo será plenamente operativo a partir de agosto de 2025 y, en muchos casos, la supervisión efectiva dependerá de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), aún en proceso de consolidación.
La accesibilidad de estos robots, que pueden ser adquiridos por empresas o particulares sin formación técnica avanzada, multiplica el riesgo de usos indebidos o inseguros. Sin protocolos de validación, sin formación obligatoria y sin controles previos, nada impide que un robot potencialmente peligroso acabe en manos inadecuadas o en entornos no preparados para su integración. La ausencia de un marco de certificación y la falta de auditorías técnicas independientes agravan este riesgo.
¿Quién protege al usuario? El reto de la alfabetización tecnológica
La nueva legislación europea pone el acento en la alfabetización digital y tecnológica como eje estratégico para la protección de los derechos y la seguridad de los ciudadanos. Sin embargo, la realidad es que la mayoría de los compradores y usuarios potenciales de robots Unitree desconocen los riesgos asociados, las limitaciones legales y las obligaciones que asumen al adquirir estos dispositivos. La falta de transparencia y de información técnica clara por parte de los distribuidores contribuye a esta situación de desamparo.
La llegada de los robots avanzados de Unitree a España es una muestra del potencial transformador de la robótica, pero también una advertencia sobre los peligros de la innovación sin control. La ausencia de regulación específica, la imposibilidad de asegurar los riesgos, la falta de soporte técnico cualificado y las vulnerabilidades de ciberseguridad hacen que la compra e integración de estos robots suponga, hoy por hoy, una apuesta arriesgada para cualquier usuario.
Es imprescindible que las autoridades aceleren la creación de un marco legal claro, que exija protocolos de seguridad, certificación técnica y responsabilidad civil. Del mismo modo, los distribuidores deben asumir su papel no solo como vendedores, sino como garantes de la seguridad y la formación de sus clientes. Hasta que esto ocurra, la recomendación para empresas, instituciones y particulares es clara: informarse, exigir garantías y no dejarse llevar por el brillo superficial de la tecnología sin preguntar primero por la letra pequeña.
La robótica avanzada cambiará el mundo, pero solo si lo hace bajo el principio de “innovación responsable”. España tiene la oportunidad —y la obligación— de liderar este proceso, protegiendo a sus ciudadanos y asegurando que el futuro digital sea, ante todo, seguro y confiable.
En España, la regulación y supervisión del uso y comercialización de robots avanzados impulsados por inteligencia artificial está en transición hacia un marco mucho más estricto y específico, alineado con la nueva legislación europea sobre IA. TecFuturo, se ha puesto en contacto con el Organismo regulador:
- Agencia Española de Supervisión de la Inteligencia Artificial (AESIA):
Es el organismo encargado de supervisar, inspeccionar y, en su caso, sancionar el cumplimiento de la normativa nacional y europea sobre sistemas de IA, incluidos los robots avanzados comercializados en España. AESIA tiene la competencia para garantizar que los sistemas de IA, como los robots humanoides y cuadrúpedos, cumplen con los requisitos de seguridad, transparencia y gestión de riesgos establecidos por el Reglamento Europeo de Inteligencia Artificial (RIA) y la legislación nacional.
Licencias y requisitos necesarios
- Obligaciones para sistemas de alto riesgo:
Los robots avanzados, especialmente aquellos que pueden interactuar físicamente con personas o formar parte de procesos industriales, educativos, sanitarios o de servicios esenciales, suelen considerarse “sistemas de IA de alto riesgo” según el Reglamento Europeo de IA.
Para su comercialización y uso, deben cumplir con los siguientes requisitos:
-
- Gestión de riesgos y supervisión humana: Implementar mecanismos que permitan la supervisión y control humano sobre el robot en todo momento.
- Documentación técnica y gobernanza de datos: Mantener registros detallados sobre el funcionamiento, decisiones y datos procesados por el robot.
- Sistema de calidad y conservación de registros: Garantizar la trazabilidad y la transparencia de todas las operaciones y actualizaciones del sistema.
- Transparencia y comunicación: Informar claramente a los usuarios sobre las capacidades, limitaciones y riesgos del robot.
- Evaluación de conformidad: En muchos casos, será necesario superar auditorías técnicas y obtener certificados de conformidad emitidos por organismos autorizados antes de su puesta en el mercado.
- Licencias específicas: Aunque no existe una “licencia” única para operar robots en todos los contextos, sí es obligatorio:
-
- Cumplir con la marcación CE (Conformidad Europea) para productos robóticos, que acredita que el producto cumple con los requisitos de seguridad y salud de la UE.
- En el caso de los robots de UNITREE, que incluyen sistemas de IA de alto riesgo, han de superar la evaluación de conformidad bajo el nuevo Reglamento Europeo de IA, que es plenamente exigible a partir de agosto de 2025 para todos sus robots.
- Si el robot va a ser utilizado en sectores regulados (sanidad, educación, transporte, infraestructuras críticas), son necesarias autorizaciones sectoriales adicionales.
La AESIA es el principal organismo supervisor en España para sistemas de IA y robótica avanzada y nos ha confirmado que:
- Los robots de Unitree, por sus características, deben cumplir con los requisitos de sistemas de alto riesgo: gestión de riesgos, documentación técnica, supervisión humana, transparencia y evaluación de conformidad.
- La comercialización y uso de estos robots requiere, como mínimo, la marcación CE y, el cumplimiento estricto del Reglamento Europeo de IA, además de cualquier autorización sectorial aplicable.
Esto implica que, en la práctica, ningún robot avanzado debería ser comercializado ni operado en entornos públicos o industriales en España sin haber superado estos controles y certificaciones, y la responsabilidad última de su cumplimiento recae tanto en el fabricante como en el distribuidor y el usuario final.