Jonathan Raa | Nurfoto | imágenes falsas
Después de meses de conversaciones públicas sobre chatbots emergentes impulsados por inteligencia artificial, Google está abriendo su plataforma Bard AI a un número limitado de usuarios.
La compañía está permitiendo oficialmente que las personas en los EE. UU. y el Reino Unido se registren en su producto de inteligencia artificial generativa en bard.google.com. Google dijo en una publicación de blog el martes que ampliará la disponibilidad con el tiempo a más países e idiomas. La publicación, titulada “Pruebe Bard y comparta sus comentarios”, fue escrita por Sissie Hsiao, vicepresidenta de productos, y Eli Collins, vicepresidente de investigación.
“Puede usar Bard para aumentar su productividad, acelerar sus ideas y alimentar su curiosidad”, escribieron. “Puede pedirle a Bard que le brinde consejos para alcanzar su meta de leer más libros este año, explicar la física cuántica en términos simples o despertar su creatividad describiendo una publicación de blog. Hemos aprendido mucho hasta ahora probando a Bard, y el El próximo paso crítico para mejorarlo es obtener comentarios de más personas”.
Los evaluadores deberán iniciar sesión con una cuenta de Google.
Google está implementando algunas medidas de seguridad para tratar de garantizar que las conversaciones entre los usuarios y la IA no se salgan de control. La compañía dijo que limitaría la cantidad de intercambios en un diálogo “para tratar de mantener las interacciones útiles y en el tema”. Sin embargo, no limitará la cantidad de chats diarios, dijo un portavoz.
Bard mostrará tres borradores diferentes para cada respuesta, dijo la compañía en una sesión informativa, confirmando el informe de CNBC de principios de este mes. Google espera que la fase de prueba lo ayude a comprender con qué frecuencia las personas interactúan con Bard.
Google Bard muestra tres borradores en sus respuestas de consulta.
El lanzamiento se produce después de meses de pruebas rápidas tras la introducción en noviembre de la tecnología ChatGPT de OpenAI, que desde entonces se ha integrado en una versión limitada de de Microsoft buscador Bing.
CNBC informó en enero que, desde fines de 2022, Google había estado probando su tecnología LaMDA en el chatbot Bard y en las páginas de búsqueda. Google anunció los productos la semana siguiente.
Google fue criticado por empleados e inversores después del lanzamiento inicial de Bard, que parecía apresurado para competir con la recién anunciada integración de ChatGPT en Bing de Microsoft.
La semana pasada, Google dijo que abriría sus productos de IA a un número limitado de usuarios de Workspace, que incluye Gmail y las herramientas de productividad de Google.
esperar errores
En la publicación del blog del martes, Google dijo que cada consulta de Bard incluirá un botón “Google it” debajo del aviso que abrirá una nueva pestaña en la página de búsqueda de la compañía. Google ve el formato actual de Bard como una función complementaria para la búsqueda, dijo un portavoz a CNBC.
La compañía también advierte que Bard puede cometer errores.
Cuando un usuario lo abre, una ventana emergente dice “Bard es un experimento” y “recuerde que Bard puede dar respuestas inexactas o inapropiadas”. Se indica a los usuarios que usen la función “Google It” para verificar las respuestas de Bard si tienen dudas.
Google advierte a los usuarios que Bard es un producto experimental que puede dar “respuestas inexactas o inapropiadas”.
También aparece texto junto a los resultados que indica que la información “no representa las opiniones de Google”. Hsiao y Collins escribieron que usaron Bard para ayudar a escribir la publicación del blog y admitieron que “no siempre hacía las cosas bien”. Actualmente, las inexactitudes son un gran problema con los modelos de lenguaje grandes, o LLM.
El mes pasado, los ejecutivos de Google pidieron a todos los empleados que ayudaran a corregir las respuestas incorrectas de Bard, en un esfuerzo de toda la empresa.
“Si bien los LLM son una tecnología emocionante, no carecen de fallas”, decía la publicación del martes. “Por ejemplo, debido a que aprenden de una amplia gama de información que refleja sesgos y estereotipos del mundo real, a veces aparecen en sus resultados. Y pueden proporcionar información inexacta, engañosa o falsa mientras la presentan con confianza”.
Las consultas de Bard incluirán una opción de “Me gusta” y “Me gusta” para solicitar comentarios.
MIRAR: OpenAI dice que su modelo GPT-4 puede vencer al 90% de los humanos en el SAT