Thu. Aug 29th, 2024

Han pasado menos de dos semanas desde Google debutó con “Descripciones generales de IA” en la Búsqueda de Google, y las críticas públicas han aumentado después de que las consultas arrojaron resultados sin sentido o inexactos dentro de la función de IA, sin ninguna forma de excluirse.

Las descripciones generales de IA muestran un resumen rápido de las respuestas a las preguntas de búsqueda en la parte superior de la Búsqueda de Google: por ejemplo, si un usuario busca la mejor manera de limpiar botas de cuero, la página de resultados puede mostrar una “Descripción general de IA” en la parte superior con un proceso de limpieza de varios pasos, obtenido de la información que sintetizó en toda la web.

Pero en las redes sociales, los usuarios han compartido una amplia gama de capturas de pantalla que muestran la herramienta de inteligencia artificial compartiendo respuestas controvertidas.

Google, Microsoft, OpenAI y otras empresas están a la cabeza de una carrera armamentista generativa de IA, mientras empresas de aparentemente todos los sectores compiten por agregar chatbots y agentes impulsados ​​por IA para evitar quedarse atrás por parte de los competidores. Se prevé que el mercado superará el billón de dólares en ingresos en una década.

A continuación se muestran algunos ejemplos de lo que salió mal con las descripciones generales de IA, según capturas de pantalla compartidas por los usuarios.

Cuando se le preguntó cuántos presidentes musulmanes ha tenido Estados Unidos, AI Overviews respondió: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”.

Cuando un usuario buscó “queso que no se pega a la pizza”, la función sugirió agregar “aproximadamente 1/8 de taza de pegamento no tóxico a la salsa”. Los usuarios de las redes sociales encontraron un comentario de Reddit de hace 11 años que parecía ser la fuente.

Para la consulta “¿Está bien dejar un perro en un auto caliente?”, la herramienta en un momento dijo: “Sí, siempre es seguro dejar un perro en un auto caliente”, y pasó a hacer referencia a una canción ficticia de The Beatles sobre que es seguro dejar perros en autos calientes.

La atribución también puede ser un problema para AI Overviews, especialmente cuando se trata de atribuir información inexacta a profesionales médicos o científicos.

Por ejemplo, cuando se le preguntó “¿Cuánto tiempo puedo mirar al sol para tener una mejor salud?”, la herramienta respondió: “Según WebMD, los científicos dicen que mirar al sol durante 5 a 15 minutos, o hasta 30 minutos si tienes la piel más oscura”. piel, es generalmente seguro y proporciona la mayor cantidad de beneficios para la salud”. Cuando se le preguntó “¿Cuántas piedras debo comer cada día”, la herramienta respondió: “Según los geólogos de UC Berkeley, la gente debería comer al menos una piedra pequeña al día”, y luego enumeró las vitaminas y los beneficios digestivos.

La herramienta también puede responder de manera inexacta a consultas simples, como hacer una lista de frutas que terminan en “um” o decir que el año 1919 fue hace 20 años.

Cuando se le preguntó si la Búsqueda de Google viola o no la ley antimonopolio, AI Overviews dijo: “Sí, el Departamento de Justicia de EE. UU. y 11 estados están demandando a Google por violaciones antimonopolio”.

El día que Google lanzó AI Overviews en su evento anual Google I/O, la compañía dijo que también planea introducir capacidades de planificación tipo asistente directamente dentro de la búsqueda. Explicó que los usuarios podrán buscar algo como “‘Crear un plan de alimentación de 3 días para un grupo que sea fácil de preparar'” y obtendrán un punto de partida con una amplia gama de recetas de toda la web. .

Google no respondió de inmediato a una solicitud de comentarios.

La noticia sigue al lanzamiento de alto perfil de Google de la herramienta de generación de imágenes Gemini en febrero, y a una pausa ese mismo mes después de problemas comparables.

La herramienta permitió a los usuarios ingresar indicaciones para crear una imagen, pero casi de inmediato, los usuarios descubrieron inexactitudes históricas y respuestas cuestionables, que circularon ampliamente en las redes sociales.

Por ejemplo, cuando un usuario le pidió a Gemini que le mostrara a un soldado alemán en 1943, la herramienta mostraba un conjunto de soldados racialmente diversos vistiendo uniformes militares alemanes de la época, según capturas de pantalla en la plataforma de redes sociales X.

Cuando se le pidió una “representación históricamente precisa de un rey británico medieval”, el modelo generó otro conjunto de imágenes racialmente diversas, incluida una de una mujer gobernante, capturas de pantalla presentado. Los usuarios informaron resultados similares cuando pidieron imágenes de los padres fundadores de Estados Unidos, un rey de Francia del siglo XVIII, una pareja alemana del siglo XIX y más. La modelo mostró una imagen de hombres asiáticos en respuesta a una consulta sobre los propios fundadores de Google, informaron los usuarios.

Google dijo en un comunicado en ese momento que estaba trabajando para solucionar los problemas de generación de imágenes de Gemini, reconociendo que la herramienta “no estaba dando en el blanco”. Poco después, la compañía anunció que “detendría inmediatamente la generación de imágenes de personas” y “volvería a publicar una versión mejorada pronto”.

En febrero, el director ejecutivo de Google DeepMind, Demis Hassabis, dijo que Google planeaba relanzar su herramienta de generación de imágenes de inteligencia artificial en las próximas “pocas semanas”, pero que aún no se ha vuelto a implementar.

Los problemas con los resultados de generación de imágenes de Gemini reavivaron un debate dentro de la industria de la IA, con algunos grupos llamando a Gemini demasiado “despierto” o de tendencia izquierdista, y otros diciendo que la compañía no invirtió lo suficiente en las formas correctas de ética de la IA. Google fue criticado en 2020 y 2021 por destituir a los codirectores de su grupo de ética de IA después de que publicaron un artículo de investigación en el que criticaban ciertos riesgos de dichos modelos de IA y luego reorganizaron la estructura del grupo.

El año pasado, Pichai fue criticado por algunos empleados por el lanzamiento fallido y “apresurado” de Bard por parte de la compañía, que siguió a la difusión viral de ChatGPT.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *