La IA de Google se Vuelve Viral de Nuevo por Alucinar con Significados Falsos de Idiomas Inventados

Photo by Mitchell Luo on Unsplash

La IA de Google se Vuelve Viral de Nuevo por Alucinar con Significados Falsos de Idiomas Inventados

Tiempo de lectura: 3 min.

Los usuarios de las redes sociales se dieron cuenta de que la función de Inteligencia Artificial “Overviews” de Google proporciona explicaciones y definiciones para falsos modismos cuando incluyen la palabra “significado” después de una frase aleatoria. Muchas de estas respuestas generadas por la IA se han vuelto virales, provocando risas entre los usuarios de las redes sociales.

¿Con prisa? Aquí están los datos rápidos:

  • Los usuarios en las redes sociales notaron que las explicaciones de AI Overviews de Google inventan explicaciones para dichos falsos.
  • Varios usuarios en Threads, X y Bluesky han informado alucinaciones similares de expresiones absurdas e inventadas.
  • No es la primera vez que AI Overviews se vuelve viral por proporcionar información incorrecta.

Esta no es la primera vez que AI Overviews ha ganado una reputación vergonzosa. El año pasado, la herramienta de inteligencia artificial de Google Search se hizo viral por proporcionar respuestas incorrectas—algunas de las cuales se basaban en publicaciones de Reddit obsoletas—socavando la credibilidad, fiabilidad y precisión del modelo.

Esta vez, el modelo de IA ha proporcionado a los usuarios respuestas “serias” a dichos inventados. Según Mashable, esta necesidad de los modelos de IA de proporcionar una respuesta incluso cuando no tienen la respuesta o suficiente información para dar una respuesta correcta, ahora se conoce como “AI-splaining”.

Muchos usuarios compartieron en las redes sociales algunos ejemplos de la situación actual con los Resúmenes de IA. “Alguien en Threads notó que puedes escribir cualquier frase aleatoria en Google, luego añadir ‘significado’ después, y obtendrás una explicación de IA de un famoso modismo o frase que acabas de inventar”, escribió una usuaria de Bluesky que incluyó capturas de pantalla de su prueba.

Él escribió “no puedes lamer un tejón dos veces”, seguido por la palabra “significado”, y el modelo de IA proporcionó una explicación para el falso modismo: “Significa que puedes engañar o engañar a alguien una segunda vez después de que hayan sido engañados una vez”. AI Overviews procedió a proporcionar una explicación más detallada, desglosándola palabra por palabra.

“Las respuestas a este hilo son muy divertidas, pero es una señal de alerta de que una de las funciones clave de Google – la capacidad de verificar una cita, verificar una fuente o rastrear algo medio recordado – se volverá mucho más difícil si la IA prefiere legitimar las posibilidades estadísticas sobre la verdad real”, añadió la usuaria.

Una reportera de Yahoo! Tech confirmó la alucinación escribiendo falsos dichos de Pokémon como “Nunca dejes que tu caballo juegue Pokémon” y el modelo de IA respondió con una completa explicación inventada: “Es una advertencia humorística y ligera contra permitir que un caballo, que es un animal grande con una fuerte voluntad, se involucre en actividades, como jugar videojuegos o el juego de cartas Pokémon, que típicamente se consideran actividades humanas.”

Google AI Overviews ha estado expandiéndose a más países y regiones en los últimos meses, y recientemente ha alcanzado más de 1.5 mil millones de usuarios por mes.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión