El sesgo no se puede eliminar de los sistemas de inteligencia artificial (IA), pero las organizaciones pueden trabajar para mitigarlo, según los oradores que discuten la ética de la IA en Big Data LDN esta semana.
“Nunca resolverá el sesgo”, dijo Simon Asplen-Taylor, un consultor que ha trabajado en datos para organizaciones importantes durante tres décadas. “A menos que comprenda todo tipo de sesgo, nunca podrá corregirlo”.
En su lugar, sugirió que las organizaciones deberían tratar de comprender cómo se recopilan los datos y considerar el contexto al observar los resultados de un modelo de IA.
Charlie Beveridge, quien aconseja a las nuevas empresas sobre el uso de la inteligencia artificial, dijo que el sesgo puede ser ineludible en los datos existentes, pero que podría reducirse en el futuro mediante la recopilación de más información contextual. Sin embargo, dijo que las herramientas que tienen como objetivo hacer esto generalmente se enfocan en características protegidas legalmente como la etnia, la sexualidad o el género, en lugar de una consideración más amplia de las circunstancias particulares de un individuo.
“¿Cómo podríamos construir algo que mitigue las desventajas y ventajas que están experimentando las personas, en lugar de asumir arbitrariamente que todos en el mismo grupo tienen exactamente la misma experiencia?” ella preguntó.
Chris Fregly, ingeniero principal en inteligencia artificial y aprendizaje automático de Amazon Web Services, agregó que incluso si las organizaciones creen que sus propios datos están libres de sesgos, es probable que los introduzcan si utilizan modelos de inteligencia artificial previamente entrenados. “Lo mejor que podemos hacer es al menos detectarlo y tratar de solucionarlo”, dijo.
Los panelistas se mostraron más optimistas sobre la reducción del impacto ambiental del trabajo de inteligencia artificial. Sophia Goldberg, científica de datos senior de la emisora Sky, que planea alcanzar cero emisiones de carbono para 2030, dijo que mejorar la eficiencia de la IA para que pueda generar un rendimiento similar con mucho menos cálculo es un área de interés creciente para los investigadores.
“Tengo la esperanza de que continúe como tendencia y como un área activa de investigación”, dijo en el evento. “Si eso continúa, estaremos en un buen lugar”.
Fregly, de AWS, dijo que el método estadístico de destilación podría ser un 97% más preciso que los modelos de IA estándar, mientras utiliza millones en lugar de miles de millones de parámetros. Beveridge agregó de manera más amplia que las organizaciones deberían considerar la eficiencia en el futuro. “Tenemos que cambiar nuestra forma de pensar con la forma en que hacemos IA”, dijo.
Asplen-Taylor dijo que las organizaciones deberían abordar la IA de manera diferente según su tamaño. Ha trabajado con empresas emergentes de seguros que diseñan sus negocios en torno a cómo usan la inteligencia artificial, mientras que las organizaciones medianas que no tienen la capacidad para establecer un equipo dedicado deberían considerar la posibilidad de asociarse. Las grandes organizaciones deberían considerar usar la IA inicialmente en un área de menor riesgo que brinde beneficios si funciona en lugar de causar daños si no lo hace, como detectar fallas.
Goldberg dijo que podría ser difícil innovar en las grandes empresas, aunque Sky aborda esto enfocando su departamento específicamente en la innovación. Añadió que era importante considerar el problema que debe resolverse en lugar de tecnologías particulares.
“Cuando tienes un ML [machine learning] problema, la primera pregunta que debe hacerse es [whether] necesitas usar ML ”, dijo. “El aprendizaje automático es solo una herramienta y hay muchas otras herramientas realmente interesantes que pueden ayudar a resolver problemas comerciales”.