martes, diciembre 16, 2025
Publicidad
Publicidad

Los robots también se contagian: la advertencia (muy real) que Unitree acaba de mandar al futuro

David.arcos
David.arcos
Perito Informático Judicial
Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

Si nos lo hubieran contado hace veinte años, habríamos pensado en una película:
robots humanoides que se “infectan” entre sí como si fueran portadores de un virus, sin que nadie los toque, sin que nadie presione ningún botón.

Hoy no es un guion de ciencia ficción. Es un informe técnico.

Investigadores en ciberseguridad han descubierto una vulnerabilidad crítica, bautizada como UniPwn , en varios robots de Unitree Robotics , incluidos los humanoides G1 y otros modelos. El fallo permite hackearlos a través de Bluetooth con métodos relativamente sencillos y, lo más inquietante, usar un robot comprometido para contagiar a otros cercanos.

Un “virus” que salta de máquina a máquina. En un mundo donde la IA empieza a moverse en nuestro espacio físico.

Publicidad

Este artículo no va solo de Unitree. Va de nosotros: abogados, peritos, estudiantes, policías, empresarios, ciudadanos que aplaudimos la innovación… ya veces olvidamos preguntarnos qué pasa cuando la innovación se despliega sin seguridad.

De vendedor inmobiliario a distribuidor global de robots: ¿qué puede salir mal?

La historia de Unitree tiene un punto casi romántico… y otro profundamente inquietante. Su fundador no viene de una larga tradición de ingeniería robótica. Es un antiguo vendedor inmobiliario que entró, casi por error, en el negocio de los robots cuadrúpedos y humanoides. Con audacia, visión comercial y olfato para el mercado, Unitree se ha convertido en uno de los nombres más visibles de la robótica de bajo coste.

El problema es que, según apuntan varias fuentes, no cuenta con una plantilla tecnológica sólida en seguridad. El foco ha estado en:

  • producir robots llamativos,
  • a un coste muy competitivo,
  • y ponerlos en manos de investigadores, empresas, cuerpos policiales, aficionados avanzados.

Innovación rápida. Escalado agresivo.¿La seguridad? Ya lo veremos.

- Advertisement -

UniPwn es la consecuencia directa de esa ecuación.

UniPwn: cuando el problema no está en la ciencia, sino en el diseño

La vulnerabilidad se centra de la manera en que estos robots gestionan la conexión Bluetooth Low Energy (BLE) , que se usa para configurar la red Wi-Fi del robot.

Lo que han encontrado los investigadores es casi un manual de lo que no hay que hacer en seguridad:

  • Las claves de cifrado están fijas (codificadas) en el firmware.
  • Esas claves son iguales para todos los dispositivos de una misma serie.
  • El proceso de conexión BLE confía demasiado en que “nadie malicioso” estará cerca.

¿Resultado?

Un atacante capaz de escuchar y hablar por BLE puede:

  • Tomar el control total del robot.
  • Inyectar código con privilegios de administrador.
  • Cambie su comportamiento, sus movimientos, sus conexiones.

Y, más allá del caso Unitree, hay una lección clave para ingenieros, peritos, juristas y empresas:

No es un fallo “muy técnico”. Es un fallo de diseño cultural:
alguien decidió que la seguridad podía esperar.

De robot hackeado a botnet física: el paso que nunca quisimos ver

Los investigadores han demostrado un escenario que debería hacernos pensar muy en serio:

  1. Un atacante compromete un robot Unitree.
  2. Ese robot “infectado” utiliza su módulo BLE para escanear el entorno.
  3. Cuando detecta otros robots vulnerables en rango, intenta comprometerlos automáticamente, reutilizando las mismas claves y protocolos.
  4. Poco a poco se forma una botnet robótica: un conjunto de robots controlados por un tercero.

Hasta ahora, las botnets eran cosas de ordenadores zombies, enrutadores comprometidos, cámaras IP mal protegidas. Ahora empezamos a imaginar botnets compuestas por máquinas que se mueven, cargan cosas, abren puertas, colaboran entre sí .

La ciencia ficción llevaba años advirtiéndonos de escenarios así.
La realidad acaba de enseñarnos el primer prototipo.

Robots que hablan con la nube: privacidad y GDPR en juego

Hay otro ángulo inquietante: la conexión permanente a servicios externos.

Según apuntan los expertos, estos humanoides pueden estar enviando datos de forma periódica a servidores remotos:

  • telemetría,
  • registros de actividad,
  • datos de entorno,
  • incluso información relacionada con el uso que les da la organización que los ha comprado.

Si esos datos incluyen:

  • imágenes,
  • voces,
  • identificadores de personas,
  • información de ubicaciones o procesos internos,

entra en juego de lleno el GDPR (Reglamento General de Protección de Datos) y todo el marco jurídico de privacidad.

Aquí hay preguntas que abogados, delegados de protección de datos, responsables de cumplimiento y empresas deben hacerse:

  • ¿Sabemos exactamente qué datos envía el robot ya dónde?
  • ¿Hay base jurídica y transparencia suficiente con las personas afectadas?
  • ¿Quién es el responsable del tratamiento: el fabricante, el integrador, el cliente final?
  • ¿Qué pasa si un robot comprometido empieza a enviar datos a un servidor controlado por un atacante?

La robótica con IA deja de ser “solo hardware” para convertirse en infraestructura de tratamiento de datos personales. Y, por tanto, entra de lleno en el radar legal.

No es “un bug”: es una señal de cómo será el próximo cibercrimen

UniPwn no es solo un agujero concreto en un producto concreto.
Es un anticipo de cómo van a evolucionar los vectores de ataque en sistemas autónomos complejos.

Algunas claves:

  • Los robots combinan tres superficies de ataque: software, red y mundo físico.
  • Comprometer uno ya no significa solo “tener acceso a datos”, sino influir en acciones físicas.
  • Cuando varios robots colaboran en un mismo entorno, aparece el riesgo de propagación lateral, como pasa en redes corporativas… pero con piernas, ruedas y brazos.

Para cuerpos policiales y unidades de cibercrimen esto implica:

  • Nuevos escenarios de incidente: no solo servidores caídos, sino robots que se comportan de forma anómala.
  • Necesidad de peritos que entiendan tanto de firmware y redes como de cinemática y sensores.
  • Manuales de actuación y protocolos de cadena de custodia en los que un robot es a la vez evidencia digital y objeto físico.

Para estudiantes de informática, ingeniería, criminología, derecho o ciberseguridad:

Bienvenidos a la próxima frontera: investigue delitos donde la “escena del crimen” incluye código, logs, Bluetooth y articulaciones mecánicas.

Seguridad “by design”: lo que no se hizo (y ahora sale caro)

En teoría, Europa y muchos marcos regulatorios llevan años repitiendo el mantra:

  • Privacidad por diseño.
  • Seguridad por diseño.
  • Ética por diseño.

En la práctica, muchos proyectos siguen otra receta:

  • “Primero que funcione y molar, luego ya veremos la seguridad”.
  • “Si es barato y se vende, ya habrá tiempo de arreglar los fallos”.
  • “Total, ¿quién va a querer hackear esto…?”

UniPwn muestra qué pasa cuando:

  • se prioriza el time-to-market sobre la robustez,
  • se ahorra en equipo de seguridad y auditoría,
  • se utiliza firmware con claves fijas porque es “más sencillo de gestionar”,
  • se despliegan robots sin un análisis serio de amenazas, riesgos y mitigaciones.

Para empresarios y directivos, hay una lección clara:

No se trata solo de “cumplir normativa”, sino de proteger tu modelo de negocio.
Un producto espectacular, pero inseguro, puede ser el principio del fin de tu reputación.

¿Y el derecho? Responsabilidad, diligencia y culpa en la era de los robots vulnerables

Para el mundo jurídico, UniPwn abre varias líneas de reflexión que no podemos esquivar:

  • Responsabilidad del fabricante
    • ¿Hasta dónde llega la responsabilidad por un diseño inseguro?
    • ¿Puede considerarse negligencia grave mantener claves codificadas en productos que operan en entornos críticos?
  • Responsabilidad del integrador o distribuidor
    • ¿Qué pasa si una empresa despliega estos robots en un hospital, una fábrica o un entorno público sin revisar su seguridad?
  • Responsabilidad del usuario final
    • ¿Podrá argumentar un fabricante que el cliente no aplicó parches ni siguió las recomendaciones mínimas?
  • Responsabilidad penal
    • En un ataque que utiliza robots como vector, ¿quién responde por los daños físicos o económicos?
    • ¿Cómo se atribuye la autoridad cuando el ataque se ha propagado “en cadena” entre máquinas?

En todo esto, la figura del perito judicial en informática y ciberseguridad será clave:

  • para reconstruir lo ocurrido,
  • para explicar a jueces y fiscales qué era previsible y qué no,
  • para valorar si se han incumplido estándares razonables de seguridad,
  • para distinguir entre un fallo inevitable y una cadena de decisiones negligentes.

Políticas públicas y cuerpos policiales: del “virus en el ordenador” al “virus en el robot”

Las fuerzas y cuerpos de seguridad ya llevan años adaptándose al delito digital.
Pero los robots añaden capas nuevas:

  • Necesidad de protocolos para aislar y analizar robots comprometidos sin poner en peligro a agentes ni terceros.
  • Colaboración estrecha con agencias de certificación, organismos reguladores y centros de investigación.
  • Capacidad de actuar rápido cuando se detectan vulnerabilidades críticas que afectan a robots desplegados en:
    • espacios públicos,
    • infraestructuras críticas,
    • servicios sanitarios,
    • entornos educativos o industriales.

Los legisladores, por su parte, tienen el reto de no legislar “a golpe de titular”, pero tampoco llegar tarde:

  • La futura regulación europea de IA y la normativa de productos conectados tendrán que contemplar específicamente robots físicos con capacidades autónomas.
  • Las sanciones por negligencia en seguridad no pueden ser un simple “coste asumible”.
  • Las compras públicas de robots deberán exigir requisitos de seguridad demostrables, no solo fichas de marketing.

Para ciudadanos y estudiantes: perder el miedo ingenuo y ganar miedo inteligente

Puedes pensar:

«Yo no tengo un robot humanoide en casa. Esto no va conmigo».

Pero sí tienes:

  • móviles,
  • coches cada vez más conectados,
  • dispositivos IoT,
  • asistentes de voz,
  • cámaras,
  • electrodomésticos inteligentes.

La historia de UniPwn no va solo de un fabricante chino de robots.
Va de todo un ecosistema de objetos físicos que ya viven conectados en nuestra vida .

Algunas ideas prácticas:

  • Desconfía de dispositivos “demasiado baratos para lo que prometen”.
  • Pregunta (en serio) por actualizaciones de seguridad y políticas de soporte antes de comprar tecnología crítica.
  • Si trabajas con menores, mayores, personas vulnerables, integra la cultura de la ciberseguridad física en la educación: no solo “no es tu contraseña”, sino “no confíes ciegamente en máquinas conectadas sin entender qué hacen con tus datos”.

Y, si eres estudiante:

  • Empieza a ver la seguridad no como un freno, sino como un espacio brutal de oportunidades profesionales:
    • analisis de sistemas robóticos,
    • forense digital de robots,
    • diseño de arquitectura segura,
    • elaboración de marcos ético-legales para IA física.

Innovar no es correr: es llegar bien

El caso Unitree es, sobre todo, una llamada de atención.

Nos enseña que:

  • La IA ya no está encerrada en pantallas: se mueve, ve, escucha y actúa.
  • Un fallo en el diseño de seguridad puede convertir un robot colaborativo en un eslabón de una cadena criminal.
  • No podemos seguir celebrando vídeos virales de robots haciendo piruetas sin preguntarnos:
    ¿cómo están protegidos? ¿Qué pasa si alguien los manipula?

Y nos obliga a cambiar el relato:

  • De “la tecnología es neutral, depende de cómo se usa” a
  • “la tecnología incorpora valores desde su diseño; si ignoras la seguridad, has tomado una decisión ética y jurídica, te guste o no”.

La innovación que importa no es la que llega primero, sino la quellega bien:
robusta, segura, auditable, explicable.

Cuando dentro de unos años vemos robots humanoides patrullando, ayudando en hospitales, trabajando en almacenes o asistiendo en aulas, recordaremos casos como UniPwn como los primeros avisos serios.

La pregunta no es si vamos a convivir con robots. Eso ya está decidido.
La pregunta es si queremos convivir con robots robustos y seguros o con robots baratos y vulnerables.

Y esa respuesta no depende solo de Unitree.
Depende de lo que exijan los abogados y reguladores, de lo que investiguen los peritos, de lo que prioricen las empresas, de lo que vigilen los cuerpos policiales y, sobre todo, de lo que toleraremos (o no) como ciudadanos.

Porque sí, los robots empiezan a contagiarse como si fueran virus.
La buena noticia es que todavía estamos a tiempo de vacunar el futuro.

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad

Suscríbete a nuestro Boletín

Regístrate para recibir contenido interesante en tu bandeja de entrada, cada semana.

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Lo más leido