Thu. Aug 29th, 2024

Sarah Tew / CNET

Facebook respondió el domingo a un informe de noticias de que su programa de inteligencia artificial ha tenido poco efecto para frenar y eliminar contenido violento de la red social. The Wall Street Journal citó documentos internos de 2019 en su informe de que los ingenieros de la red social estimaron que los algoritmos de la compañía eliminan solo una pequeña fracción del contenido problemático que viola las reglas.

“El problema es que no tenemos y posiblemente nunca tendremos un modelo que capture incluso la mayoría de los daños a la integridad, particularmente en áreas sensibles”, escribió un ingeniero senior y científico investigador en una nota de mediados de 2019, según el Journal.

La compañía ha estado bajo más escrutinio para hacer un mejor trabajo moderando el contenido, especialmente después del motín del 6 de enero en Capitol Hill, que subrayó cómo el odio en línea puede extenderse al mundo real.

Pero Facebook sostiene que la prevalencia del contenido de odio en la plataforma ha disminuido casi un 50% en los últimos tres trimestres a aproximadamente el 0.05% de la vista del contenido, o aproximadamente 5 de cada 10,000 visitas.

“Los datos extraídos de documentos filtrados se están utilizando para crear una narrativa de que la tecnología que usamos para combatir el discurso de odio es inadecuada y que deliberadamente tergiversamos nuestro progreso”, escribió el vicepresidente de integridad de Facebook, Guy Rosen, en una publicación de blog el domingo. “Esto no es verdad.

“No queremos ver odio en nuestra plataforma, ni tampoco nuestros usuarios o anunciantes, y somos transparentes sobre nuestro trabajo para eliminarlo”, escribió Rosen.

La compañía ha pasado más tiempo en las semanas posteriores a que Frances Haugen, una ex empleada de Facebook convertida en denunciante, divulgara miles de documentos y comunicaciones internas que mostraban que Facebook estaba al tanto de los peligros de sus productos, pero minimizó estos efectos públicamente. Hasta ahora, los legisladores de todo el espectro político han respondido con renovado interés en hacer que Facebook rinda cuentas.

Haugen compareció ante un subcomité del Senado de Estados Unidos a principios de este mes y alegó que los productos de Facebook “dañan a los niños, avivan la división y debilitan nuestra democracia”. El director ejecutivo de Facebook, Mark Zuckerberg, criticó el testimonio de Haugen, diciendo que presentaba una “imagen falsa” de la red social.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *