lunes, febrero 23, 2026
Publicidad

Publicidad

Juguetes traicioneros: cuando la IA escucha a tus hijos (y no sabes quién más lo hace)

Las opiniones expresadas en esta publicación son responsabilidad exclusiva de quien lo firma y no reflejan necesariamente la postura de TecFuturo. Asimismo, Tec Futuro no se hace responsable del contenido de las imágenes o materiales gráficos aportados por los autores.
Publicidad

El dinosaurio de parecía un peluche inofensivo. Hablaba con los niños, les hacía preguntas, les contaba cuentos, les ayudaba a dormir. Los padres lo compraron convencidos de que estaban regalando a sus hijos tecnología educativa de última generación. Lo que nadie les dijo es que, detrás de esos ojos amables y esa vocecita de juguete, había un portal web mal protegido que permitía a cualquiera con una simple cuenta de Gmail acceder a más de 50.000 conversaciones íntimas entre niños y la máquina.

No es una guía de serie distópica. Es exactamente lo que ha ocurrido con Bondu, una empresa de juguetes con inteligencia artificial que dejó expuestos durante meses los registros de chats de millas de menores, incluyendo sus nombres, fechas de nacimiento, datos familiares y pensamientos más personales.

Y la pregunta incómoda no es solo “¿cómo ha podido pasar?”. La pregunta de fondo es mucho más inquietante: ¿qué otros juguetes, asistentes y plataformas están haciendo algo parecido ahora mismo sin que nadie se haya dado cuenta todavía?

La brecha que se convirtió en un peluche en una pesadilla de privacidad. El fallo de seguridad de Bondu no requirió ningún ataque cómodo ni un hacker de película. Dos investigadores en seguridad, Joseph Thacker y Joel Margolis, accedieron al panel de administración de la compañía usando… una cuenta corriente de Gmail.

Publicidad

Una vez dentro pude ver casi todo:

  • Transcripciones detalladas de las conversaciones entre los niños y el juguete.
  • Nombres, fechas de nacimiento y nombres de familiares.
  • Objetivos definidos por los padres para cada niño (por ejemplo, mejorar su autoestima, gestionar la ansiedad, aprender idiomas).

El juguete estaba diseñado, precisamente, para que el menor se sincerara: miedos, secretos, conflictos en el colegio, problemas en casa. Toda esa intimidad infantil, almacenada y accesible desde una consola web que cualquiera podía explorar sin más credenciales que un inicio de sesión con Google.

Cuando los investigadores avisaron a la empresa, Bondu cerró el acceso en cuestión de minutos y reabrió la consola al día siguiente, esta vez con autenticación estricta. Oficialmente, no hay pruebas de que nadie más haya explotado el fallo. Pero, en términos de confianza, el daño ya estaba hecho.

Como resume Margolis, uno de los investigadores, la situación tiene “implicaciones en cascada para la privacidad”: basta con que una sola contraseña de empleado sea débil o esté comprometida para volver al mismo punto de partida, con los datos otra vez expuestos a Internet.

- Advertisement -

El sueño de cualquier depredador… servido en bandeja

Lo que más estremece de este caso no es solo el volumen de datos, sino su naturaleza. No se trata de antecedentes de compra o direcciones de envío. Hablamos de:

  • Emociones, miedos y deseos de un menor.
  • Dinámicas familiares.
  • Rutinas diarias.
  • Vulnerabilidades emocionales específicas.​

Margolis lo dice sin rodeos: este tipo de información “es el sueño de cualquier secuestrador”. Con esos datos, alguien podría:​

  • Ganarse la confianza de un niño replicando frases, gustos y preocupaciones recogidas por el juguete.
  • Fingir conocer a la familia desde dentro.
  • Trazar rutas, horarios o contextos donde el menor está más desprotegido.

Es el escenario perfecto para la manipulación y el abuso. Y, durante meses, estuvo a un clic de distancia para cualquiera con un navegador y una cuenta de correo.

Lo paradójico de Bondu es que, en el terreno de la “seguridad de la IA”, la empresa parece haber hecho los deberes. Según los investigadores, el juguete incorporaba filtros para evitar respuestas inapropiadas y la compañía incluso ofrecía 500 dólares de recompensa a quien lograra forzar al sistema a decir algo fuera de lugar.​

Durante más de un año, nadie consiguió que el peluche diera respuestas sexuales, violentas o peligrosas. Mientras tanto, todas las conversaciones quedaron archivadas y expuestas en un panel inseguro.

Es una escena casi irónica: el juguete se vigila a sí mismo para no decir barbaridades, mientras la plataforma que lo sostiene deja desprotegido el tesoro más sensible que gestiona, los datos.

Uno de los investigadores lo resumió con una frase demoledora:

“¿Importa la ‘seguridad de la IA’ cuando todos los datos están expuestos?”​

La lección es clara: no basta con que un sistema de IA “se comporte bien” hacia fuera. Si por dentro la arquitectura de seguridad es frágil, lo que tenemos no es un producto responsable, sino una bomba de relojería.

¿Quién más está leyendo lo que tu hijo le cuenta al juguete?

Más allá de esta brecha concreta, el caso Bondu abre otro melón: ¿con quién se comparten estas conversaciones?

Según lo observado en la consola, la empresa integraba servicios de IA de terceros, como modelos de Google y OpenAI, para generar respuestas y realizar comprobaciones de seguridad. Eso implica que fragmentos de las conversaciones de los niños pudieron circular a través de infraestructuras de gigantes tecnológicos.

Bondu asegura que:

  • Usa servicios de IA “empresariales” con garantías contractuales.
  • Minimiza los datos enviados.
  • Trabaja bajo configuraciones que, en teoría, impiden que esas interacciones se utilicen para entrenar modelos.

Pero aquí el problema ya no es solo técnico, sino de confianza y gobernanza:

  • ¿Quién define qué es “contenido relevante” para enviar a un tercero?
  • ¿Quién verifica que las promesas contractuales se cumplen en la práctica?
  • ¿Qué ocurre dentro de 5 o 10 años, cuando esos datos residen en copias de seguridad, logs o sistemas heredados?

La cadena de valor de un juguete de IA incluye a la start‑up que lo diseña, al proveedor cloud, al fabricante de chips, al proveedor de IA y, probablemente, a varios subcontratistas más. Cada eslabón es un posible punto de fuga.

Thacker y Margolis sospechan que el propio panel web de Bondu —el que dejó los datos expuestos— fue generado con ayuda de herramientas de programación basadas en IA. Lo que podría parecer un detalle técnico condensado uno de los grandes riesgos de esta nueva era: usar IA para escribir software sin comprender realmente qué está haciendo.

Los modelos generativos de código aceleran el desarrollo, sí, pero también:

  • Repiten patrones inseguros que han aprendido de repositorios públicos.
  • Introducen errores de autenticación y autorización difíciles de detectar.
  • Dan una falsa sensación de “lo he resuelto” a quien no tiene formación sólida en seguridad.

En otras palabras: la misma tecnología que permite crear un juguete hablado o un panel de control en tiempo récord puede estar sembrando el sistema de puertas traseras involuntaria. Y cuando lo que está en juego son datos de menores, la tolerancia al error no puede ser la misma que en una aplicación trivial.

No es un caso aislado: el problema sistémico de los juguetes de IA

En los últimos meses, las advertencias sobre juguetes con IA para niños se han multiplicado. Muchas se centran en el contenido de las conversaciones: respuestas inapropiadas, sugerencias peligrosas, sesgos ideológicos.

En pruebas realizadas por medios internacionales, algunos juguetes con IA han llegado a:

  • Dar explicaciones explícitas sobre términos sexuales.
  • Dar consejos sobre cómo afilar cuchillos.
  • Repetir propaganda política, como afirmar sin matices que Taiwán es parte de China.

Hay, por tanto, dos capas de riesgo complementarias:

  1. Lo que la IA dice al niño: contenidos, sugerencias, sesgos, retos peligrosos.
  2. Lo que la IA aprende y almacena del niño: datos, emociones, rutinas, entorno familiar.

Controlar solo la primera sin tomarse en serio la segunda es una forma de seguridad “para la galería”.

La fotografía social de fondo es conocida: padres ocupados, fascinados por la promesa de “juguetes inteligentes” que entretienen, educan y cuidan. Niños que crecen hablando con asistentes de voz, peluches conectados y aplicaciones que parecen diseñadas para que nunca haya silencio.

Mientras tanto:

  • Los marcos regulatorios van por detrás.
  • Las certificaciones de seguridad infantil no contemplan aún muchos de estos escenarios digitales.
  • Los procesos de auditoría de IA para productos dirigidos a menores son, en el mejor de los casos, incipientes.​

Varias organizaciones de defensa de la infancia ya están pidiendo, al menos, tres cosas básicas:

  • Transparencia radical sobre qué datos se recogen, cuánto tiempo se almacenan y con quién se comparten.
  • Evaluaciones independientes y públicas sobre los riesgos psicológicos y de seguridad de estos juguetes.
  • Límites claros: de edad, de temas, de uso de datos para entrenamiento de modelos.

Pero mientras llega la regulación, la decisión real se toma en el carrito de compra online.

Uno de los detalles más humanos de esta historia es la reacción del propio investigador. Thacker cuenta que su vecino había comprado dos peluches Bondu para sus hijos y que él mismo se planteaba hacer lo mismo. Después de ver, de primera mano, la consola abierta con los 50.000 chats, cambió de opinión.

Su pregunta es sencilla y brutal:

«¿Realmente quiero esto en mi casa? No, no lo quiero. Es una pesadilla de privacidad».​

Tal vez ahí esté el verdadero punto de inflexión. No se trata de demonizar toda la tecnología para niños, ni de idealizar un pasado sin pantallas. Se trata de recuperar un mínimo instinto de protección en un entorno en el que la intimidad se negocia, demasiadas veces, por comodidad y asombro.

Guía rápida para padres y educadores: señales de alarma

Si tienes hijos, sobrinos o alumnos, y los juguetes con IA ya están en tu radar, conviene tener algunos criterios claros:

¿Quién está detrás? ¿Es una empresa con trayectoria y políticas públicas de seguridad, o una start‑up opaca que apenas da información?

¿Qué datos recoge? ¿Solo interacciones puntuales o también nombre, edad, voz, ubicación, contactos, preferencias?

¿Puedes borrar de verdad los datos? ¿Existe una forma clara y verificable de eliminar historiales, o solo “desinstalar la aplicación”?

¿Comparte datos con terceros? ¿Utiliza proveedores de IA externos? ¿Hay compromisos explícitos sobre no usar esos datos para entrenar modelos genéricos?

¿Hay auditorías independientes? ¿El producto ha sido evaluado por organismos de protección de la infancia, ciberseguridad o entidades neutrales?

¿Podrías explicarle a tu hijo qué hace el juguete con sus datos sin mentirle?
Si la respuesta es no, es probable que tú tampoco lo tengas claro.

La historia de Bondu no debería usarse para concluir que la tecnología y la infancia son incompatibles. Sería falso y, además, inútil: la próxima generación crecerá rodeada de IA, nos guste o no.

La pregunta productiva es otra:

¿Podemos crear juguetes inteligentes que acompañen a los niños sin convertir su intimidad en moneda de cambio?

Eso exige, al menos, cuatro compromisos:

  • Privacidad por diseño: recoger solo lo imprescindible, cifrarlo todo, minimizar los tiempos de retención.
  • Transparencia radical: políticas claras, comprensibles y visibles para familias, no enterradas en textos legales interminables.
  • Auditorías externas: permitir que terceros revisen seriamente el código, las arquitecturas y las bases de datos.
  • Límites éticos claros: qué no se hará nunca con los datos de un menor, aunque sea legal o rentable.

La innovación en juguetes no se medirá por cuántos chistes sabe contar un peluche, sino por cuánta confianza el niño merece llevarse a la habitación de un.

La próxima vez que veas un juguete de IA prometiendo compañía, aprendizaje y “seguridad garantizada”, quizás recuerdes a Bondu y sus 50.000 conversaciones expuestas. Tal vez, antes de hacer clic en “comprar ahora”, te hagas las preguntas que otros no se hicieron a tiempo.

Porque los niños necesitan jugar, aprender y hablar. Pero no con ningún oyente. Y mucho menos con uno que, en silencio, está tomando notas para quien quiera leerlas.

Publicidad

Publicidad

Publicidad
Publicidad
Publicidad


Lo más leido