Wed. Aug 28th, 2024

Facebook está bajo más escrutinio debido a la filtración de investigaciones y documentos internos.

Angela Lang / CNET

Según los informes, los ejecutivos de Facebook se resistieron a los esfuerzos para reducir las funciones que ayudan a amplificar el contenido falso e inflamatorio antes de las elecciones estadounidenses de 2020 porque temían que hacerlo podría dañar el uso y el crecimiento de la plataforma.

The Wall Street Journal, citando documentos internos filtrados, dijo que los empleados de Facebook sugirieron cambios como eliminar el botón de compartir o dejar de promover el contenido compartido a menos que fuera de un amigo del usuario que podría ralentizar la propagación de contenido viral para todos. Un defensor de realizar este tipo de cambios ha sido Kang-Xing Jin, quien dirige las iniciativas de salud de Facebook, según el informe. Pero ejecutivos como John Hegeman, director de anuncios de Facebook, expresaron su preocupación por sofocar el contenido viral.

“Si eliminamos un pequeño porcentaje de las acciones compartidas del inventario de las personas”, escribió Hegeman en comunicaciones internas citadas por The Journal. “deciden volver menos a Facebook”.

El informe es el último de una serie de documentos y comunicaciones internos filtrados que, según The Journal, muestra que Facebook ha puesto sus ganancias por encima de la seguridad de sus usuarios. Frances Haugen, que solía trabajar como gerente de producto de Facebook, se identificó públicamente como la denunciante que reunió los documentos filtrados utilizados por The Journal. Los hallazgos de estos documentos internos han reavivado el escrutinio de los legisladores estadounidenses y británicos. Haugen, que ya compareció ante el Congreso, está programado para testificar ante el Parlamento del Reino Unido el lunes.

Facebook ha dicho repetidamente que su investigación interna y su correspondencia están siendo caracterizadas erróneamente. “El contenido provocativo siempre se ha difundido fácilmente entre las personas. Es un problema que trasciende la tecnología, los medios de comunicación, la política y todos los aspectos de la sociedad, y cuando daña a las personas, nos esforzamos por tomar medidas para abordarlo en nuestra plataforma a través de nuestros productos y políticas. “, dijo un portavoz de Facebook en un comunicado.

Sin embargo, la moderación del contenido político ha sido un tema candente para la empresa, ya que intenta equilibrar la seguridad con las preocupaciones sobre obstaculizar la libertad de expresión. Los conservadores también han acusado a Facebook de censurar intencionalmente su contenido, acusaciones que la compañía niega.

En lugar de hacer cambios que serían menos propensos a generar alarmas sobre la libertad de expresión, el enfoque de Facebook para moderar el contenido de los grupos que considera peligrosos ha sido descrito como un juego de whack-a-mole por The Journal.

El New York Times, también citando documentos internos, informó el viernes que Facebook no abordó la información errónea y el contenido inflamatorio antes y después de las elecciones presidenciales de EE. UU. De 2020, a pesar de que los empleados habían levantado banderas rojas sobre el tema.

Los partidarios de Donald Trump, que perdió las elecciones presidenciales ante Joe Biden, publicaron afirmaciones falsas de que las elecciones habían sido robadas. Facebook ha suspendido a Trump de su plataforma hasta al menos 2023 debido a las preocupaciones de que sus comentarios podrían incitar a la violencia luego de los mortíferos disturbios en el Capitolio de Estados Unidos en enero.

Un científico de datos de Facebook descubrió que el 10 por ciento de todas las vistas de contenido político en Estados Unidos eran publicaciones que alegaban que la votación era fraudulenta, según The Times. Los empleados de Facebook también sintieron que la compañía podría haber hecho más para acabar con la desinformación y las teorías de conspiración.

Un portavoz de Facebook dijo que la compañía pasó más de dos años preparándose para las elecciones de 2020 y más de 40,000 personas ahora trabajan en seguridad. La compañía ajustó algunas de sus medidas antes, durante y después de las elecciones tras recibir más información de las fuerzas del orden. “Es incorrecto afirmar que estos pasos fueron la razón del 6 de enero: las medidas que necesitábamos se mantuvieron en su lugar hasta bien entrado febrero, y algunos, como no recomendar grupos nuevos, cívicos o políticos, permanecen vigentes hasta el día de hoy”, Facebook dijo.

La historia del Times es parte de una serie que se espera de un grupo internacional de organizaciones de noticias que también recibieron documentos de Haugen, según The Information. Se esperan más historias la próxima semana, cuando Facebook informe ganancias y celebre su conferencia Connect sobre realidad virtual y artificial.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *