Fri. Aug 30th, 2024

El CEO de Microsoft, Satya Nadella, habla en el evento Ignite Spotlight de la compañía en Seúl el 15 de noviembre de 2022.

Seong Joon Cho | alcalde Bloomberg | imágenes falsas

Gracias a los avances recientes en inteligencia artificial, las nuevas herramientas como ChatGPT están cautivando a los consumidores con su capacidad para crear escritos convincentes basados ​​en las consultas e indicaciones de las personas.

Si bien estas herramientas impulsadas por IA han mejorado mucho en la producción de respuestas creativas y, a veces, divertidas, a menudo incluyen información inexacta.

Por ejemplo, en febrero, cuando Microsoft presentó su herramienta de chat Bing, creada con la tecnología GPT-4 creada por OpenAI respaldada por Microsoft, las personas notaron que la herramienta brindaba respuestas incorrectas durante una demostración relacionada con los informes de ganancias financieras. Al igual que otras herramientas de lenguaje de IA, incluido software similar de Googlela función de chat de Bing ocasionalmente puede presentar hechos falsos que los usuarios pueden creer que son la verdad básica, un fenómeno que los investigadores llaman “alucinación”.

Estos problemas con los hechos no han ralentizado la carrera de IA entre los dos gigantes tecnológicos.

El martes, Google anunció que llevaría la tecnología de chat impulsada por IA a Gmail y Google Docs, permitiéndole ayudar a redactar correos electrónicos o documentos. El jueves, Microsoft dijo que sus populares aplicaciones comerciales como Word y Excel pronto vendrían con tecnología similar a ChatGPT denominada Copilot.

Pero esta vez, Microsoft está presentando la tecnología como “útilmente incorrecta”.

En una presentación en línea sobre las nuevas características de Copilot, los ejecutivos de Microsoft mencionaron la tendencia del software a producir respuestas inexactas, pero lo presentaron como algo que podría ser útil. Siempre que las personas se den cuenta de que las respuestas de Copilot pueden ser descuidadas con los hechos, pueden editar las inexactitudes y enviar sus correos electrónicos o terminar las diapositivas de su presentación más rápidamente.

Por ejemplo, si una persona desea crear un correo electrónico para desear un feliz cumpleaños a un miembro de la familia, Copilot aún puede ser útil incluso si presenta la fecha de nacimiento incorrecta. En opinión de Microsoft, el mero hecho de que la herramienta genere texto ahorra tiempo a una persona y, por lo tanto, es útil. Las personas solo deben tener especial cuidado y asegurarse de que el texto no contenga errores.

Los investigadores podrían estar en desacuerdo.

De hecho, algunos tecnólogos como Noah Giansiracusa y Gary Marcus han expresado su preocupación de que las personas pueden confiar demasiado en la IA moderna, tomando en serio las herramientas de asesoramiento como ChatGPT presentes cuando hacen preguntas sobre salud, finanzas y otros temas de alto riesgo.

“Las barandillas de toxicidad de ChatGPT son fácilmente evadidas por aquellos empeñados en usarlo para el mal y, como vimos a principios de esta semana, todos los nuevos motores de búsqueda continúan alucinando”, escribieron los dos en un reciente artículo de opinión de Time. “Pero una vez que superemos el nerviosismo del día inaugural, lo que realmente contará es si alguno de los grandes jugadores puede construir una inteligencia artificial en la que realmente podamos confiar”.

No está claro qué tan confiable será Copilot en la práctica.

El científico jefe y miembro técnico de Microsoft, Jaime Teevan, dijo que cuando Copilot “se equivoca, tiene sesgos o se usa incorrectamente”, Microsoft tiene “mitigaciones”. Además, Microsoft probará el software con solo 20 clientes corporativos al principio para poder descubrir cómo funciona en el mundo real, explicó.

“Vamos a cometer errores, pero cuando lo hagamos, los abordaremos rápidamente”, dijo Teevan.

Las apuestas comerciales son demasiado altas para que Microsoft ignore el entusiasmo por las tecnologías de IA generativa como ChatGPT. El desafío será que la empresa incorpore esa tecnología para que no genere desconfianza pública en el software ni conduzca a grandes desastres de relaciones públicas.

“Estudié IA durante décadas y siento un gran sentido de responsabilidad con esta nueva y poderosa herramienta”, dijo Teevan. “Tenemos la responsabilidad de ponerlo en manos de la gente y hacerlo de la manera correcta”.

Mirar: Mucho espacio para el crecimiento de Microsoft y Google

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *