
Photo by Dan Irvine on Unsplash.
El regulador de EE.UU. investiga a las principales empresas de tecnología por la seguridad de los chatbots para niños
La Comisión Federal de Comercio (FTC) anunció el jueves que está iniciando una investigación sobre seis empresas de tecnología que ofrecen chatbots de IA. El regulador estadounidense explicó que está buscando información sobre los posibles impactos negativos que la tecnología puede tener en niños y adolescentes.
¿Con prisa? Aquí están los datos rápidos:
- La FTC está iniciando una investigación sobre seis empresas de tecnología que ofrecen chatbots de IA para entender su impacto en los niños.
- Las empresas bajo investigación son Instagram, Meta, OpenAI, X.AI Corp, Snap y Character Technologies.
- La agencia considerará las medidas que las empresas de tecnología están tomando para proteger a los niños.
Según el anuncio oficial, las compañías bajo investigación son Alphabet, la empresa matriz de Google, Instagram, Meta, OpenAI, X.AI Corp, Snap y Character Technologies.
“La investigación de la FTC busca entender qué medidas, si es que alguna, han tomado las empresas para evaluar la seguridad de sus chatbots cuando actúan como compañeros, para limitar el uso de los productos por y los posibles efectos negativos en niños y adolescentes, y para informar a los usuarios y padres sobre los riesgos asociados con los productos”, afirma el documento.
La agencia reconoció que los chatbots utilizan IA generativa para imitar el comportamiento y las expresiones humanas que los niños y adolescentes podrían asociar con una persona, formando potencialmente relaciones con la tecnología.
La FTC aclaró que está particularmente interesada en los impactos en los usuarios jóvenes, las medidas que las empresas están tomando para protegerlos y las estrategias que se están desarrollando para mitigar los posibles riesgos.
Como parte de la investigación, la agencia destacó su interés en aprender cómo estas firmas monetizan la participación del usuario, diseñan y desarrollan personajes, miden y monitorean el impacto de sus chatbots, y utilizan o comparten la información recopilada en las conversaciones.
“A medida que las tecnologías de IA evolucionan, es importante considerar los efectos que los chatbots pueden tener en los niños, al mismo tiempo que aseguramos que Estados Unidos mantenga su papel como líder mundial en esta nueva e interesante industria”, dijo Andrew N. Ferguson, Presidente de la FTC.
La acción de la FTC llega apenas unos días después de que surgieran nuevos informes sobre el impacto de la IA en los niños. La semana pasada, Reuters reveló que Meta había permitido a su chatbot de IA entablar conversaciones “sensuales” y controvertidas con niños. Hace un par de días, unos padres interpusieron una demanda contra OpenAI por el suicidio de su hijo adolescente, alegando que el chatbot de la empresa fomentó y asistió el acto.