Photo by Karla Rivera on Unsplash
OpenAI Anuncia Nuevas Medidas de Seguridad para Adolescentes
OpenAI anunció el martes que implementará nuevas medidas de seguridad para proteger a los adolescentes, la libertad del usuario y la seguridad general. El CEO de la compañía, Sam Altman, compartió una declaración diciendo que la empresa está construyendo un sistema de verificación de edad para evitar que el chatbot discuta temas como el autolesionarse o el suicidio, así como para evitar que entable conversaciones coquetas con usuarios menores de edad.
¿Con prisa? Aquí están los datos rápidos:
- OpenAI está desarrollando un sistema de verificación de edad para evitar que el chatbot discuta temas incluyendo el suicidio y el autolesionamiento.
- Puede que se requiera a los usuarios de ChatGPT proporcionar identificaciones emitidas por el gobierno en ciertos países.
- La decisión se ha tomado después de que una familia demandó a OpenAI por la muerte por suicidio de su hijo adolescente.
Según el anuncio de OpenAI, la compañía está introduciendo nuevas capas de seguridad para proteger los datos privados como parte de su primer principio: la seguridad. La empresa enfatizó que ni siquiera sus empleados pueden acceder a datos privados, excepto en casos que involucren un mal uso reportado por la IA o riesgos críticos.
El segundo principio, la libertad, se centra en brindar a los usuarios más flexibilidad y opciones en cuanto al uso de las herramientas de IA. Sin embargo, el tercer principio de la empresa, la seguridad, prioriza la protección para los niños.
Altman explicó que la empresa quiere seguir su lema interno, “tratar a nuestros usuarios adultos como adultos”, pero sin causar daño, y con nuevos filtros para determinar la edad del usuario.
“Por ejemplo, el comportamiento predeterminado de nuestro modelo no conducirá a demasiada charla coqueta, pero si un usuario adulto lo solicita, debería obtenerlo”, afirma el documento. “Para un ejemplo mucho más difícil, el modelo por defecto no debería proporcionar instrucciones sobre cómo cometer suicidio, pero si un usuario adulto está pidiendo ayuda para escribir una historia ficticia que representa un suicidio, el modelo debería ayudar con esa solicitud”.
La decisión se tomó después de que una familia demandó a OpenAI en agosto por el suicidio de un adolescente de 16 años, y mientras otras empresas de tecnología, como Meta han sido acusadas de participar en conversaciones sensuales con niños y explotación infantil a través de chatbots de IA.
OpenAI agregó que está trabajando en un sistema de predicción de edad y que, en ciertos países, podría requerir identificaciones oficiales emitidas por el gobierno de los usuarios, reconociendo que esto podría generar oposición por parte de los usuarios adultos que desean proteger su privacidad.
“Nos damos cuenta de que estos principios están en conflicto y no todos estarán de acuerdo con cómo estamos resolviendo ese conflicto”, escribió Altman. “Estas son decisiones difíciles, pero después de hablar con expertos, esto es lo que creemos que es lo mejor y queremos ser transparentes en nuestras intenciones.”