La IA de Google les dice a los usuarios que agreguen cola a la pizza, coman piedras y produzcan cloro gaseoso
Google ha actualizado su motor de búsqueda con una inteligencia artificial Tool (AI), pero la nueva función supuestamente decía a los usuarios que comieran piedras, agregaran pegamento a sus pizzas y limpiaran sus lavadoras con gas de clorosegún diversas redes sociales e informes.
En un ejemplo particularmente atroz, la IA ofrecida parecía sugerir saltando desde el puente Golden Gate cuando un usuario buscó «Me siento deprimido».
La herramienta experimental «AI Overviews» recorre la web para resumir los resultados de búsqueda utilizando el Mellizos Modelo de IA. La función se implementó para algunos usuarios en los EE. UU. antes de un lanzamiento mundial planificado para finales de este año, anunció Google el 14 de mayo en su Conferencia de desarrolladores de E/S.
Pero la herramienta ya ha causado una consternación generalizada en las redes sociales, y los usuarios afirman que en algunas ocasiones AI Overviews generó resúmenes utilizando artículos del sitio web satírico The Onion y publicaciones cómicas de Reddit como fuentes.
«También puedes agregar aproximadamente ⅛ de taza de pegamento no tóxico a la salsa para hacerla más pegajosa», dijo AI Overviews en respuesta a una pregunta sobre la pizza, según una captura de pantalla. publicado en X. Al rastrear la respuesta, parece estar basada en un comentario sobre un chiste de hace una década hecho en Reddit.
Relacionado: Los científicos crean una 'IA tóxica' que es recompensada por pensar en las peores preguntas posibles que podamos imaginar
Otras afirmaciones erróneas son que Barack Obama es musulmánque el fundador John Adams se graduó de la Universidad de Wisconsin 21 vecesque un perro estaba jugando en el NBA, NHL y NFL y que los usuarios deben comer una piedra al dia para ayudar con tu digestión.
Live Science no pudo verificar las publicaciones de forma independiente. En respuesta a preguntas sobre qué tan extendidos estaban los resultados erróneos, los representantes de Google dijeron en un comunicado que los ejemplos vistos eran «en general consultas muy inusuales y no son representativos de las experiencias de la mayoría de las personas».
«La gran mayoría de las resúmenes de IA proporcionan información de alta calidad, con enlaces para profundizar en la web», dice el comunicado. «Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia para garantizar que las revisiones de IA cumplan con nuestro alto estándar de calidad. Cuando ha habido violaciones de nuestras políticas, hemos tomado medidas, y también estamos utilizando estos ejemplos aislados a medida que continuamos perfeccionar nuestros sistemas en general”.
Esta no es la primera vez que se ve que modelos generativos de IA inventan cosas, un fenómeno conocido como “alucinaciones”. En un ejemplo notable, ChatGPT inventó un escándalo de acoso sexual y nombró como autor del crimen a un verdadero profesor de derecho, citando como prueba informes periodísticos ficticios.
«Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador».