
Image By Sean Bernstein, from Unsplash
Mattel y OpenAI enfrentan críticas por juguetes de IA
Las defensoras del consumidor advierten sobre los riesgos que conlleva la nueva asociación entre Mattel y OpenAI para crear juguetes impulsados por inteligencia artificial.
¿Apurada? Aquí están los datos rápidos:
- Mattel y OpenAI planean lanzar juguetes con inteligencia artificial para 2026.
- Los defensores de los consumidores advierten sobre el posible daño al desarrollo infantil.
- Los juguetes podrían procesar los datos de voz y los patrones de comportamiento de los niños.
El co-presidente de Public Citizen, Robert Weissman, exige a Mattel más transparencia y que revele los detalles sobre su próximo producto.
“Dotar a los juguetes de voces que parecen humanas y que son capaces de participar en conversaciones similares a las humanas, corre el riesgo de causar un daño real a los niños”, dijo Weissman, tal como se informó por primera vez en Ars Technica.
Teme que estos juguetes puedan dañar el desarrollo social, interferir con las amistades en la vida real y causar daños psicológicos a largo plazo. “Mattel no debería aprovechar la confianza de los padres para llevar a cabo un experimento social imprudente con nuestros hijos vendiendo juguetes que incorporan IA”, añadió Weissman.
El primer producto de la colaboración no se dirigirá a niños menores de 13 años, según una fuente anónima de Axios, lo que Ars Technica sugiere que probablemente se debe a las restricciones de edad de OpenAI. Los críticos argumentan que la restricción de edad no proporciona una protección suficiente.
OpenAI declinó hacer comentarios, mientras que Mattel aún no ha respondido a la consulta de Ars Technica. El primer producto de la colaboración será anunciado este año y lanzado en 2026, según el comunicado de prensa de Mattel, que establece que la colaboración respaldará productos y experiencias impulsados por la inteligencia artificial, basados en las marcas de Mattel.
Sin embargo, críticos como la ejecutiva de tecnología Varundeep Kaur y el experto en seguridad digital Adam Dodge advierten que los juguetes con IA pueden exponer a los niños a violaciones de privacidad, contenido sesgado o respuestas confusas de chatbots. Kaur también señaló el peligro de las alucinaciones de IA, diciendo que estos juguetes podrían dar “respuestas inapropiadas o extrañas” que son inquietantes para los niños.
Ars Technica informa que críticos como Varundeep Kaur y Adam Dodge, quienes son una ejecutiva de tecnología y un experto en seguridad digital respectivamente, expresan preocupaciones de que los juguetes con IA podrían conducir a violaciones de privacidad, entrega de contenido sesgado y respuestas confusas de chatbots.
Kaur resaltó el riesgo de las alucinaciones de la IA, que podrían provocar que los juguetes generen respuestas inquietantes o extrañas que podrían perturbar a los niños. También añadió que puede haber más riesgos asociados a los juguetes que graban “datos de voz, patrones de comportamiento y preferencias personales”.
Ars Technica informa que Dodge agregó, “impredecible, adulador y adictivo”, y advirtió sobre los peores escenarios, como los juguetes promoviendo la autolesión. Ambos expertos pidieron controles parentales estrictos, transparencia y auditorías independientes antes de cualquier lanzamiento.
De hecho, investigadores del MIT han emitido una advertencia separada pero relacionada sobre la naturaleza adictiva de los compañeros de inteligencia artificial.
Mattel ha enfrentado reacciones adversas similares antes. En 2015, la compañía lanzó “Hello Barbie”, una muñeca conectada a Wi-Fi que escuchaba a los niños y respondía utilizando inteligencia artificial basada en la nube, según lo informado por Forbes.
Los críticos de la época, incluido el experto en ciberseguridad Joseph Steinberg, advirtieron que el juguete representaba una amenaza masiva para la privacidad. Hello Barbie grababa y subía las conversaciones de los niños a un servidor operado por un tercero, ToyTalk, que compartía los datos con los proveedores para mejorar los sistemas de IA.
Steinberg señaló que los niños a menudo confían pensamientos profundamente personales a sus muñecas, a veces discuten miedos, problemas familiares o problemas escolares. “¿Querrías que las grabaciones de sus íntimas conversaciones infantiles perduraran en manos de partes desconocidas?”, preguntó, según informó Forbes.
Los expertos en privacidad sostienen que, a menos que las empresas ofrezcan advertencias en un lenguaje sencillo en el empaquetado, muchos padres expondrán sin saberlo la vida privada de sus hijos a las corporaciones bajo el pretexto de la comodidad y el entretenimiento.