Tue. Aug 27th, 2024

En septiembre del año pasado, la unidad de nube de Google investigó el uso de inteligencia artificial para ayudar a una empresa financiera a decidir a quién prestar dinero. Rechazó la idea del cliente después de semanas de discusiones internas, por considerar que el proyecto era demasiado peligroso desde el punto de vista ético porque la tecnología de inteligencia artificial podría perpetuar prejuicios como los relacionados con la raza y el género.

Desde principios del año pasado, Google también ha bloqueado las nuevas funciones de inteligencia artificial que analizan las emociones, por temor a la insensibilidad cultural, mientras que Microsoft restringió el software que imitaba las voces e IBM rechazó la solicitud de un cliente de un sistema avanzado de reconocimiento facial.

Todas estas tecnologías fueron controladas por paneles de ejecutivos u otros líderes, según entrevistas con jefes de ética de inteligencia artificial en los tres gigantes tecnológicos de EE. UU.

Informados aquí por primera vez, sus vetos y las deliberaciones que los llevaron reflejan un impulso incipiente en toda la industria para equilibrar la búsqueda de sistemas de IA lucrativos con una mayor consideración de la responsabilidad social.

“Hay oportunidades y daños, y nuestro trabajo es maximizar las oportunidades y minimizar los daños”, dijo Tracy Pizzo Frey, quien forma parte de dos comités de ética en Google Cloud como directora general de IA responsable.

Los juicios pueden ser difíciles.

Microsoft, por ejemplo, tuvo que equilibrar el beneficio de usar su tecnología de imitación de voz para restaurar el habla de las personas con problemas con riesgos como la habilitación de deepfakes políticos, dijo Natasha Crampton, directora responsable de inteligencia artificial de la compañía.

Los activistas de derechos dicen que las decisiones con consecuencias potencialmente amplias para la sociedad no deben tomarse internamente solo. Argumentan que los comités de ética no pueden ser verdaderamente independientes y que su transparencia pública está limitada por presiones competitivas.

Jascha Galaski, oficial de defensa de la Unión de Libertades Civiles para Europa, considera que la supervisión externa es el camino a seguir, y las autoridades estadounidenses y europeas de hecho están elaborando reglas para el área incipiente.

Si los comités de ética de IA de las empresas “realmente se vuelven transparentes e independientes, y todo esto es muy utópico, entonces esto podría ser incluso mejor que cualquier otra solución, pero no creo que sea realista”, dijo Galaski.

Las empresas dijeron que recibirían con agrado una regulación clara sobre el uso de la inteligencia artificial, y que esto era esencial tanto para la confianza del cliente como del público, similar a las reglas de seguridad de los automóviles. Dijeron que también les conviene actuar de manera responsable.

Sin embargo, están interesados ​​en que las reglas sean lo suficientemente flexibles para mantenerse al día con la innovación y los nuevos dilemas que crea.

Entre las complejas consideraciones por venir, IBM dijo a Reuters que su Junta de Ética de IA ha comenzado a discutir cómo vigilar una frontera emergente: implantes y dispositivos portátiles que conectan las computadoras al cerebro.

Estas neurotecnologías podrían ayudar a las personas con discapacidad a controlar el movimiento, pero plantean preocupaciones como la posibilidad de que los piratas informáticos manipulen los pensamientos, dijo la directora de privacidad de IBM, Christina Montgomery.

AI puede ver tu dolor

Las empresas de tecnología reconocen que hace solo cinco años lanzaban servicios de inteligencia artificial como chatbots y etiquetado de fotografías con pocas garantías éticas, y abordaban el uso indebido o los resultados sesgados con actualizaciones posteriores.

Pero a medida que crecía el escrutinio político y público de las fallas de la IA, Microsoft en 2017 y Google e IBM en 2018 establecieron comités de ética para revisar los nuevos servicios desde el principio.

Google dijo que se le presentó el dilema de los préstamos de dinero en septiembre pasado cuando una empresa de servicios financieros pensó que la inteligencia artificial podía evaluar la solvencia de las personas mejor que otros métodos.

El proyecto parecía adecuado para Google Cloud, cuya experiencia en el desarrollo de herramientas de inteligencia artificial que ayudan en áreas como la detección de transacciones anormales ha atraído a clientes como Deutsche Bank, HSBC y BNY Mellon.

La unidad de Google anticipó que la calificación crediticia basada en inteligencia artificial podría convertirse en un mercado valorado en miles de millones de dólares al año y quería establecerse.

Sin embargo, su comité de ética de unos 20 gerentes, científicos sociales e ingenieros que revisan posibles acuerdos votaron unánimemente en contra del proyecto en una reunión de octubre, dijo Pizzo Frey.

El sistema de inteligencia artificial tendría que aprender de los datos y patrones pasados, concluyó el comité, y por lo tanto corría el riesgo de repetir prácticas discriminatorias de todo el mundo contra las personas de color y otros grupos marginados.

Es más, el comité, conocido internamente como “Lemonaid”, promulgó una política para saltarse todos los acuerdos de servicios financieros relacionados con la solvencia hasta que tales preocupaciones pudieran resolverse.

Lemonaid había rechazado tres propuestas similares durante el año anterior, incluso de una compañía de tarjetas de crédito y un prestamista comercial, y Pizzo Frey y su contraparte en ventas estaban ansiosas por una decisión más amplia sobre el tema.

Google también dijo que su segundo comité de ética en la nube, conocido como Iced Tea, este año sometió a revisión un servicio lanzado en 2015 para categorizar fotos de personas según cuatro expresiones: alegría, tristeza, ira y sorpresa.

La medida siguió a un fallo el año pasado del panel de ética de toda la empresa de Google, el Advanced Technology Review Council (ATRC), que retuvo los nuevos servicios relacionados con la lectura de emociones.

El ATRC, más de una docena de altos ejecutivos e ingenieros, determinó que inferir emociones podría ser insensible porque las señales faciales se asocian de manera diferente con los sentimientos en todas las culturas, entre otras razones, dijo Jen Gennai, fundadora y líder del equipo de Innovación Responsable de Google.

Iced Tea ha bloqueado 13 emociones planificadas para la herramienta Cloud, incluida la vergüenza y la satisfacción, y pronto podría abandonar el servicio por completo a favor de un nuevo sistema que describiría movimientos como fruncir el ceño y sonreír, sin buscar interpretarlos, Gennai y Pizzo Frey. dijo.

Voces y rostros

Microsoft, mientras tanto, desarrolló un software que podía reproducir la voz de alguien a partir de una muestra corta, pero el panel de Usos Sensibles de la compañía pasó más de dos años debatiendo la ética en torno a su uso y consultó al presidente de la compañía, Brad Smith, dijo Crampton a Reuters.

Ella dijo que el panel, especialistas en campos como derechos humanos, ciencia de datos e ingeniería, finalmente dio luz verde para que Custom Neural Voice se lance por completo en febrero de este año. Pero impuso restricciones a su uso, incluido que se verifique el consentimiento de los sujetos y que un equipo con “campeones de IA responsable” capacitados en políticas corporativas aprueben las compras.

La junta de inteligencia artificial de IBM, compuesta por unos 20 líderes de departamento, luchó con su propio dilema cuando, al comienzo de la pandemia COVID-19, examinó la solicitud de un cliente para personalizar la tecnología de reconocimiento facial para detectar fiebres y cubrirse el rostro.

Montgomery dijo que la junta, que ella copreside, rechazó la invitación y concluyó que las verificaciones manuales serían suficientes con menos intromisión en la privacidad porque las fotos no se conservarían para ninguna base de datos de inteligencia artificial.

Seis meses después, IBM anunció que descontinuaría su servicio de reconocimiento facial.

Ambiciones insatisfechas

En un intento por proteger la privacidad y otras libertades, los legisladores de la Unión Europea y Estados Unidos están aplicando controles de gran alcance a los sistemas de inteligencia artificial.

La Ley de Inteligencia Artificial de la UE, en camino de aprobarse el próximo año, prohibiría el reconocimiento facial en tiempo real en espacios públicos y requeriría que las empresas de tecnología examinen las aplicaciones de alto riesgo, como las que se utilizan en la contratación, la calificación crediticia y la aplicación de la ley.

El congresista estadounidense Bill Foster, que ha celebrado audiencias sobre cómo los algoritmos llevan adelante la discriminación en los servicios financieros y la vivienda, dijo que las nuevas leyes para gobernar la inteligencia artificial garantizarían un campo parejo para los proveedores.

“Cuando le pide a una empresa que se vea afectada por las ganancias para lograr los objetivos sociales, dice: ‘¿Qué pasa con nuestros accionistas y nuestros competidores?’ Es por eso que necesita una regulación sofisticada “, dijo el demócrata de Illinois.

“Puede haber áreas que sean tan sensibles que verá que las firmas de tecnología se mantendrán al margen deliberadamente hasta que existan reglas de tránsito claras”.

De hecho, es posible que algunos avances de la inteligencia artificial simplemente estén en suspenso hasta que las empresas puedan contrarrestar los riesgos éticos sin dedicar enormes recursos de ingeniería.

Después de que Google Cloud rechazó la solicitud de IA financiera personalizada en octubre pasado, el comité de Lemonaid le dijo al equipo de ventas que la unidad tiene como objetivo comenzar a desarrollar aplicaciones relacionadas con el crédito algún día.

Primero, la investigación para combatir los prejuicios injustos debe ponerse al día con las ambiciones de Google Cloud de aumentar la inclusión financiera a través de la tecnología “altamente sensible”, dijo en la política que se distribuyó al personal.

“Hasta ese momento, no estamos en condiciones de implementar soluciones”.

© Thomson Reuters 2021


Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *