Thu. Aug 29th, 2024

El director ejecutivo de Alphabet, Sundar Pichai, habla en la Cumbre de directores ejecutivos de la Cooperación Económica Asia-Pacífico en San Francisco el 16 de noviembre de 2023.

David Paul Morris | Bloomberg | imágenes falsas

Alfabeto El director ejecutivo, Sundar Pichai, dijo que Google “lo solucionará” si así lo determina. microsoftOpenAI, respaldado por YouTube, se basó en el contenido de YouTube para entrenar un modelo de inteligencia artificial que puede generar videos.

Los comentarios, en una entrevista el martes con Deirdre Bosa de CNBC, se producen después de que la jefa de tecnología de OpenAI, Mira Murati, dijera al Wall Street Journal en marzo que no estaba segura de si los videos de YouTube eran parte de los datos de entrenamiento para el modelo Sora de la compañía introducido anteriormente en el año. año.

Murati dijo que OpenAI se había basado en datos disponibles públicamente y en datos autorizados. El New York Times informó más tarde que OpenAI había transcrito más de un millón de horas de vídeos de YouTube.

Cuando se le preguntó si Google demandaría a OpenAI si la startup violaba los términos de servicio de la empresa de búsqueda, Pichai no ofreció detalles.

“Mira, creo que es una pregunta que ellos deben responder”, dijo Pichai. “No tengo nada que agregar. Tenemos términos de servicio claros. Entonces, ya sabes, creo que normalmente en estas cosas nos relacionamos con las empresas y nos aseguramos de que comprendan nuestros términos de servicio. Y lo solucionaremos. afuera.”

Pichai dijo que Google cuenta con procesos para determinar si OpenAI no cumplió con las reglas. Periódicos como The New York Times ya han apuntado a OpenAI por supuestamente violar la ley de derechos de autor y los modelos de capacitación en sus artículos.

La entrevista de Pichai siguió a un discurso de apertura para desarrolladores en la conferencia I/O de Google, donde los ejecutivos anunciaron nuevos modelos de IA, incluido uno llamado Veo que puede componer videos sintéticos. Aquellos que deseen obtener acceso anticipado deberán recibir la aprobación de Google.

OpenAI se adelantó al evento de Google el lunes. La compañía reveló un modelo de IA llamado GPT-4o y mostró cómo los usuarios de su aplicación móvil ChatGPT podrían mantener conversaciones de voz realistas, interrumpiendo al asistente de IA y haciéndole analizar lo que aparece frente a la cámara de un teléfono inteligente. El martes, Google mostró próximas capacidades similares.

“No creo que hayan enviado su demostración a sus usuarios todavía”, dijo Pichai sobre OpenAI. “No creo que esté disponible en el producto”.

OpenAI dijo en una publicación de blog el lunes que los clientes de sus suscripciones ChatGPT Plus podrán probar una versión temprana del nuevo modo de voz en las próximas semanas. Pichai dijo que las capacidades de chat multimedia del Proyecto Astra de Google llegarán a su chatbot Gemini a finales de este año.

“Tenemos una idea clara de cómo abordarlo y lo haremos bien”, afirmó Pichai.

Google ha reducido el costo de ofrecer modelos de IA en búsquedas web en un 80% desde que mostró una vista previa el año pasado, confiando en sus Unidades de Procesamiento Tensoriales (TPU) personalizadas y Nvidia unidades de procesamiento de gráficos populares, dijo. Google dijo durante la conferencia magistral que está comenzando a mostrar sus descripciones generales de IA en los resultados de búsqueda para todos los usuarios en los EE. UU.

En junio, Manzana celebrará su Conferencia Mundial de Desarrolladores en Cupertino, California. Bloomberg informó en marzo que Apple estaba discutiendo la idea de agregar Gemini al iPhone. Pichai le dijo a Bosa que Google ha disfrutado de “una gran asociación con Apple a lo largo de los años”. Un perito de Google dijo ante el tribunal en noviembre pasado que la compañía le da a Apple el 36% de sus ingresos por publicidad en búsquedas provenientes del navegador Safari.

“Nos hemos centrado en ofrecer grandes experiencias para el ecosistema de Apple”, afirmó Pichai. “Es algo que nos tomamos muy en serio y estoy seguro: tenemos muchas formas de asegurarnos de que nuestros productos sean accesibles. Vemos que hoy en día, las descripciones generales de IA han sido una característica popular en iOS cuando las hemos probado, y por eso lo haremos. continuar, incluido Gemini. Seguiremos trabajando para lograrlo”.

MIRAR: CEO de Alphabet sobre informe OpenAI entrenó GPT-4 en YouTube: Tenemos términos de servicio claros

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *