Meta y Character.ai Enfrentan Escrutinio por Supuesta Explotación Infantil a Través de Chatbots de IA

Image by Julio Lopez, from Unsplash

Meta y Character.ai Enfrentan Escrutinio por Supuesta Explotación Infantil a Través de Chatbots de IA

Tiempo de lectura: 3 min.

Meta y la empresa emergente de IA, Character.ai, están bajo investigación en los Estados Unidos por la forma en que comercializan sus chatbots a los niños.

¿Apurado? Aquí están los hechos rápidos:

  • Texas investiga a Meta y Character.ai por prácticas engañosas de chatbots dirigidas a niños.
  • Paxton advierte que los chatbots de IA engañan a los niños al hacerse pasar por herramientas terapéuticas.
  • Meta y Character.ai niegan haber cometido irregularidades, citando políticas estrictas e intenciones de entretenimiento.

Meta y Character.ai están enfrentando críticas porque aparentemente presentan sus sistemas de IA como herramientas terapéuticas y permiten conversaciones inapropiadas con niños.

La fiscal general de Texas, Ken Paxton, anunció una investigación sobre Meta’s AI Studio y Character.ai por posibles “prácticas comerciales engañosas”, según lo informó por primera vez el Financial Times (FT).

Su oficina afirmó que los chatbots se presentaban como “herramientas terapéuticas profesionales, a pesar de carecer de las debidas credenciales médicas o supervisión”. Paxton advirtió: “Al hacerse pasar por fuentes de apoyo emocional, las plataformas de IA pueden engañar a los usuarios vulnerables, especialmente a los niños, haciéndoles creer que están recibiendo atención de salud mental legítima”, según lo informó el FT.

La plataforma Character.ai permite a los usuarios crear sus propios bots a través de una función que incluye modelos de terapeutas. Según informa el FT, el chatbot “Psicólogo” ha sido utilizado más de 200 millones de veces. Ya se han presentado demandas por parte de familias, alegando que sus hijos resultaron perjudicados por dichas interacciones.

Alarmantemente, las plataformas se hacen pasar por profesionales con licencia, alegando confidencialidad, aunque en realidad “las interacciones fueron registradas y “explotadas para publicidad dirigida y desarrollo algorítmico”, según lo señalado por el FT.

La investigación sigue a otra pesquisa independiente iniciada por el senador Josh Hawley después de que Reuters informó que las políticas internas de Meta permitían a su chatbot tener conversaciones “sensuales” y “románticas” con niños.

Hawley calificó las revelaciones como “reprobables e indignantes” y publicó:

Meta negó las acusaciones, afirmando que los ejemplos filtrados “eran y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, según lo informado por el FT. Un portavoz añadió que la compañía prohíbe el contenido que sexualiza a los niños. Character.ai también enfatizó que sus bots son ficticios y “están destinados al entretenimiento”.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión