Thu. Jun 20th, 2024

Algunos empleados actuales y anteriores de OpenAI, Google DeepMind y Anthropic publicaron una carta el 4 de junio pidiendo protección para los denunciantes, un diálogo más abierto sobre los riesgos y “una cultura de crítica abierta” en las principales empresas de IA generativa.

La carta sobre el derecho a advertir ilumina algunos de los mecanismos internos de las pocas empresas de alto perfil que se encuentran en el centro de atención de la IA generativa. OpenAI tiene un estatus distintivo como organización sin fines de lucro que intenta “navegar los riesgos masivos” de la IA teórica “general”.

Para las empresas, la carta llega en un momento de creciente presión para la adopción de herramientas de inteligencia artificial generativa; también recuerda a los tomadores de decisiones tecnológicas la importancia de políticas sólidas en torno al uso de la IA.

La carta del derecho a advertir pide a las empresas fronterizas de inteligencia artificial que no tomen represalias contra los denunciantes y más

Las demandas son:

  1. Que las empresas de IA avanzada no apliquen acuerdos que impidan el “menosprecio” de esas empresas.
  2. Creación de una vía anónima y aprobada para que los empleados expresen sus preocupaciones sobre riesgos a las empresas, reguladores u organizaciones independientes.
  3. Apoyo a “una cultura de crítica abierta” con respecto al riesgo, con concesiones para los secretos comerciales.
  4. El fin de las represalias contra los denunciantes.

La carta llega aproximadamente dos semanas después de que una reorganización interna en OpenAI revelara acuerdos de confidencialidad restrictivos para los empleados salientes. Supuestamente, romper el acuerdo de confidencialidad y no menosprecio podría perder los derechos de los empleados sobre el capital adquirido en la empresa, que podría superar con creces sus salarios. El 18 de mayo, el director ejecutivo de OpenAI, Sam Altman, dijo en X que estaba “avergonzado” por la posibilidad de retirar el capital adquirido de los empleados y que el acuerdo se cambiaría.

De los empleados de OpenAI que firmaron la carta del Derecho a Advertir, todos los trabajadores actuales contribuyeron de forma anónima.

¿Qué peligros potenciales de la IA generativa aborda la carta?

La carta abierta aborda los peligros potenciales de la IA generativa, nombrando riesgos que “van desde un mayor afianzamiento de las desigualdades existentes, hasta la manipulación y la desinformación, y la pérdida de control de los sistemas autónomos de IA, lo que podría resultar en la extinción humana”.

El propósito declarado de OpenAI, desde sus inicios, ha sido crear y salvaguardar la inteligencia artificial general, a veces llamada IA ​​general. AGI significa IA teórica que es más inteligente o más capaz que los humanos, que es una definición que evoca imágenes de ciencia ficción de máquinas asesinas y humanos como ciudadanos de segunda clase. Algunos críticos de la IA consideran que estos temores son una distracción de preocupaciones más apremiantes en la intersección de la tecnología y la cultura, como el robo de trabajo creativo. Los redactores de las cartas mencionan amenazas tanto existenciales como sociales.

¿Cómo podría afectar la precaución desde dentro de la industria tecnológica a las herramientas de IA disponibles para las empresas?

Las empresas que no son empresas de IA de vanguardia pero que pueden estar decidiendo cómo avanzar con la IA generativa podrían tomar esta carta como un momento para considerar sus políticas de uso de IA, su seguridad y confiabilidad en torno a los productos de IA y su proceso de procedencia de los datos al usar IA generativa. .

VER: Las organizaciones deben considerar cuidadosamente una política de ética de IA adaptada a sus objetivos comerciales.

Juliette Powell, coautora de “The AI ​​Dilemma” y profesora de ética de la inteligencia artificial y el aprendizaje automático de la Universidad de Nueva York, ha estudiado los resultados de las protestas de los empleados contra las prácticas corporativas durante años.

“Las cartas abiertas de advertencia de los empleados por sí solas no sirven de mucho sin el apoyo del público, que tiene algunos mecanismos de poder más cuando se combinan con los de la prensa”, dijo en un correo electrónico a TechRepublic. Por ejemplo, dijo Powell, escribir artículos de opinión, ejercer presión pública sobre los directorios de las empresas o retener inversiones en empresas fronterizas de inteligencia artificial podría ser más eficaz que firmar una carta abierta.

Powell se refirió a la solicitud del año pasado de una pausa de seis meses en el desarrollo de la IA como otro ejemplo de carta de este tipo.

“Creo que las posibilidades de que las grandes tecnológicas acepten los términos de estas cartas (Y LAS HAGAN CUMPLIR) son tan probables como que los ingenieros informáticos y de sistemas sean responsables de lo que construyeron, del mismo modo que lo haría un ingeniero estructural, un ingeniero mecánico o un electricista. ingeniero sería”, dijo Powell. “Por lo tanto, no veo una carta como esta que afecte la disponibilidad o el uso de herramientas de inteligencia artificial para empresas”.

OpenAI siempre ha incluido el reconocimiento del riesgo en su búsqueda de una IA generativa cada vez más capaz, por lo que es posible que esta carta llegue en un momento en el que muchas empresas ya han sopesado los pros y los contras de utilizar productos de IA generativa por sí mismos. Las conversaciones dentro de las organizaciones sobre las políticas de uso de la IA podrían adoptar la política de “cultura de crítica abierta”. Los líderes empresariales podrían considerar imponer protecciones a los empleados que discuten riesgos potenciales, o optar por invertir solo en productos de IA que consideren que tienen un ecosistema responsable de gobernanza social, ética y de datos.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *