Fri. Aug 30th, 2024

El director ejecutivo de OpenAI, Sam Altman, habla durante la conferencia Microsoft Build en la sede de Microsoft en Redmond, Washington, el 21 de mayo de 2024.

Jason Redmond | AFP | imágenes falsas

OpenAI dijo el martes que creó un comité de seguridad dirigido por altos ejecutivos, después de disolver su anterior junta de supervisión a mediados de mayo.

El nuevo comité será responsable de recomendar a la junta directiva de OpenAI “decisiones críticas de seguridad para proyectos y operaciones de OpenAI”, dijo la compañía.

La noticia del nuevo comité llega cuando el desarrollador del asistente virtual ChatGPT anunció que ha comenzado a entrenar su “modelo de próxima frontera”.

La firma dijo en una publicación de blog que anticipa que “los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia AGI”, o inteligencia artificial general, un tipo de IA que es tan inteligente o más que los humanos.

Además de Altman, el comité de seguridad estará formado por Bret Taylor, Adam D’Angelo y Nicole Seligman, todos miembros de la junta directiva de OpenAI, según la publicación del blog.

La formación de un nuevo equipo de supervisión se produce después de que OpenAI disolviera un equipo anterior que se centraba en los riesgos a largo plazo de la IA. Antes de eso, ambos líderes del equipo, el cofundador de OpenAI, Ilya Sutskever, y el investigador clave Jan Leike, anunciaron su salida de la startup respaldada por Microsoft.

Leike escribió a principios de este mes que “la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes”. En respuesta a su partida, Altman dijo en la plataforma de redes sociales X que estaba triste por ver a Leike irse y agregó que OpenAI tiene “mucho más por hacer”.

Durante los próximos 90 días, el grupo de seguridad evaluará los procesos y salvaguardas de OpenAI y compartirá sus recomendaciones con la junta directiva de la compañía, según la publicación del blog. OpenAI proporcionará una actualización sobre las recomendaciones que ha adoptado en una fecha posterior.

La seguridad de la IA ha estado en la vanguardia de un debate más amplio, a medida que los enormes modelos que sustentan aplicaciones como ChatGPT se vuelven más avanzados. Los desarrolladores de productos de IA también se preguntan cuándo llegará la AGI y qué riesgos la acompañará.

— Hayden Field de CNBC contribuyó a este informe.

No te pierdas estas exclusivas de CNBC PRO

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *