Google está imponiendo más restricciones a las descripciones generales de IA después de decirle a la gente que ponga pegamento en su pizza
Liz Reid, jefa de búsqueda de Google, admitió que el motor de búsqueda de la compañía arrojó algunas “resumen de IA extrañas, inexactas o inútiles” después de que se lanzó para todos en los EE. UU. El ejecutivo publicó una explicación de las respuestas más peculiares generadas por IA de Google en un entrada en el blogdonde también anunció que la compañía ha implementado medidas de seguridad que ayudarán a que la nueva función arroje resultados más precisos y menos dignos de memes.
Reid defendió a Google y señaló que algunas de las respuestas más atroces de la descripción general de la IA, como las afirmaciones de que es seguro dejar perros en los automóviles, son falsas. La captura de pantalla viral que muestra la respuesta a «¿Cuántas piedras debo comer?» Es real, pero dijo que Google encontró una respuesta porque un sitio web publicó contenido satírico que abordaba el tema. «Antes de que estas capturas de pantalla se volvieran virales, prácticamente nadie le hacía esta pregunta a Google», explicó, por lo que la IA de la empresa se vinculó a este sitio.
El vicepresidente de Google también confirmó que la descripción general de la IA le decía a la gente que usara pegamento para hacer que el queso se pegara a la pizza según el contenido extraído de un foro. Dijo que los foros suelen proporcionar «información auténtica y de primera mano», pero también pueden dar lugar a «consejos inútiles». El ejecutivo no mencionó las otras respuestas generales de la IA viral, pero como El Correo de Washington Según informes, la tecnología también decía a los usuarios que Barack Obama era musulmán y que la gente debía beber mucha orina para ayudar a eliminar los cálculos renales.
Reid dijo que la compañía probó exhaustivamente la función antes del lanzamiento, pero «no hay nada como tener millones de personas usando la función con muchas búsquedas nuevas». Aparentemente, Google pudo determinar patrones que su tecnología de inteligencia artificial no acertó al observar ejemplos de sus respuestas durante las últimas semanas. Luego implementó protecciones basadas en sus observaciones, comenzando por ajustar su IA para poder detectar mejor contenido de humor y sátira. También actualizó sus sistemas para limitar la adición de respuestas generadas por los usuarios a las descripciones generales, como publicaciones en redes sociales y foros, que podrían brindar a las personas consejos engañosos o incluso dañinos. Además, también “agregó restricciones de activación para consultas en las que las descripciones generales de IA no han demostrado ser tan útiles” y dejó de mostrar respuestas generadas por IA para ciertos temas de salud.