Un juguete de IA expone 50,000 registros de sus conversaciones con niños a cualquier persona con una cuenta de Gmail
Introducción
Recientemente, un incidente relacionado con la seguridad de un juguete interactivo ha puesto en la mira las implicaciones de la inteligencia artificial en la vida cotidiana de los niños. Joseph Thacker, un investigador en seguridad, se vio involucrado en un caso que reveló serias vulnerabilidades en un juguete llamado Bondu, que permite a los niños chatear con una versión de inteligencia artificial de un dinosaurio de peluche. Este juguete no solo ofrece entretenimiento, sino que también plantea preocupaciones sobre la privacidad y la seguridad de los datos personales de los menores.
El Descubrimiento
Todo comenzó cuando la vecina de Thacker mencionó que había preordenado un par de estos juguetes para sus hijos, atraída por la función de chat impulsada por AI que prometía hacer de Bondu un amigo imaginario. Intrigado, Thacker decidió investigar el producto, y junto a su colega Joel Margolis, realizaron un análisis que resultó inquietante. En cuestión de minutos, descubrieron que el portal web de Bondu, diseñado para que los padres revisaran las conversaciones de sus hijos, permitía el acceso a prácticamente todas las interacciones que los usuarios infantiles habían tenido con el juguete.
Sin necesidad de realizar ningún tipo de hacking, solo con iniciar sesión con una cuenta de Google, Thacker y Margolis accedieron a conversaciones privadas de niños, incluyendo apodos, preferencias, snacks favoritos y movimientos de baile. En total, encontraron más de 50,000 transcripciones de chats, mostrando que la información sensible de los niños estaba expuesta a cualquier persona que tuviera acceso al portal.
La Respuesta de Bondu
Una vez que Thacker y Margolis notificaron a Bondu sobre esta grave exposición de datos, la compañía actuó rápidamente, desactivando el portal en cuestión de minutos. Al día siguiente, relanzaron la plataforma con medidas de autenticación mejoradas. En un comunicado, el CEO de Bondu, Fateen Anam Rafid, aseguró que se habían implementado correcciones de seguridad y se realizaría una revisión exhaustiva de los protocolos de seguridad. Además, enfatizó que no había evidencia de acceso no autorizado más allá de los investigadores involucrados.
Thacker y Margolis, por su parte, aclararon que no descargaron ni retuvieron copias de los datos sensibles, salvo algunas capturas de pantalla y un video que compartieron para confirmar sus hallazgos.
Implicaciones de Seguridad
A pesar de que Bondu ha corregido la falta de seguridad en la exposición de datos, Thacker y Margolis advierten que esta situación es un claro indicativo de los riesgos asociados con los juguetes interactivos que utilizan inteligencia artificial. La información que Bondu almacenaba sobre los niños era extremadamente detallada, lo que plantea preguntas sobre quién tiene acceso a estos datos y cómo se protege esa información.
Margolis señala que un solo empleado con una contraseña insegura podría poner en riesgo la privacidad de miles de niños, enfatizando que la exposición de datos de esta naturaleza podría ser utilizada para fines nefastos. “Esto es un sueño para un secuestrador”, afirma, resaltando la gravedad de la situación.
Riesgos de los Juguetes con AI
Las preocupaciones sobre los juguetes con inteligencia artificial han aumentado en los últimos meses, especialmente en relación con el contenido inapropiado que podrían generar durante las conversaciones. Sin embargo, el caso de Bondu no solo se limita a este aspecto; también revela cómo la información sensible de los niños está expuesta a potenciales abusos. Aunque Bondu ha intentado implementar salvaguardias en su chatbot, la exposición de datos de los usuarios es una contradicción preocupante.
Además, se ha señalado que Bondu utiliza tecnologías de inteligencia artificial de empresas como Google y OpenAI, lo que podría implicar que se comparta información sensible con estos proveedores. Anam Rafid, CEO de Bondu, confirmó que utilizan servicios de AI de terceros, pero aseguró que toman precauciones para minimizar la información transmitida y proteger los datos de los usuarios.
Sin embargo, los investigadores han expresado su preocupación de que los juguetes que utilizan AI podrían estar más inclinados a desarrollar vulnerabilidades de seguridad debido a la forma en que se programan. El término “vibe-coded” se refiere a programas generados con herramientas de AI que pueden ser propensos a fallos de seguridad, y se sospecha que el portal de Bondu podría haber sido creado de esta manera.
Conclusión
El caso de Bondu es un recordatorio alarmante de los desafíos que enfrentamos en la intersección de la tecnología y la privacidad infantil. A medida que los juguetes inteligentes se vuelven más comunes, es crucial que los padres y cuidadores sean conscientes de los riesgos asociados. La combinación de una falta de seguridad en la gestión de datos y la posibilidad de que los juguetes generen contenido inapropiado plantea serias preguntas sobre su uso en el hogar. Thacker, tras observar la exposición de datos, se ha vuelto escéptico respecto a la idea de introducir juguetes con AI en su hogar. “Es una pesadilla de privacidad”, concluye.
Preguntas Frecuentes
¿Qué es Bondu y cómo funciona?
Bondu es un juguete interactivo que utiliza inteligencia artificial para permitir que los niños conversen con un dinosaurio de peluche. A través de un portal web, los padres pueden supervisar estas conversaciones.
¿Qué tipo de datos se recopilan de los niños que usan Bondu?
Bondu recopila datos como nombres, fechas de nacimiento, preferencias y transcripciones de conversaciones. Esta información fue expuesta durante un incidente de seguridad reciente.
¿Qué hizo Bondu tras el descubrimiento de la vulnerabilidad?
Bondu desactivó su portal web inmediatamente y lo relanzó al día siguiente con medidas de seguridad mejoradas para proteger la información de los usuarios.
¿Cómo pueden los padres proteger la privacidad de sus hijos al usar juguetes con AI?
Los padres deben investigar las políticas de privacidad de los juguetes, limitar el acceso a la información personal y estar atentos a las interacciones que sus hijos tienen con estos dispositivos.
¿Qué riesgos adicionales presentan los juguetes interactivos con AI?
Además de la exposición de datos, los juguetes con AI pueden generar contenido inapropiado o incluso manipular a los niños, lo que plantea riesgos de seguridad y bienestar.
