Thu. Aug 29th, 2024

Mark Zuckerberg, director ejecutivo de Meta, asiste a un foro bipartidista sobre conocimientos de inteligencia artificial del Senado de los EE. UU. en el Capitolio de los EE. UU. en Washington, DC, el 13 de septiembre de 2023.

Stefani Reynolds | AFP | imágenes falsas

En su último informe trimestral sobre amenazas adversas, Meta dijo el jueves que China es una fuente cada vez mayor de influencia encubierta y campañas de desinformación, que podrían verse potenciadas por los avances en la inteligencia artificial generativa.

Sólo Rusia e Irán están por encima de China en lo que respecta a campañas coordinadas de comportamiento no auténtico (CIB), que normalmente implican el uso de cuentas de usuario falsas y otros métodos destinados a “manipular el debate público para un objetivo estratégico”, dijo Meta en el informe.

Meta dijo que interrumpió tres redes CIB en el tercer trimestre, dos provenientes de China y una de Rusia. Una de las redes CIB chinas fue una gran operación que requirió que Meta eliminara 4.780 cuentas de Facebook.

“Los individuos detrás de esta actividad utilizaron cuentas falsas básicas con fotos de perfil y nombres copiados de otros lugares de Internet para publicar y hacerse amigos de personas de todo el mundo”, dijo Meta sobre la red de China. “Sólo una pequeña parte de esos amigos vivían en Estados Unidos. Se hacían pasar por estadounidenses para publicar el mismo contenido en diferentes plataformas”.

La desinformación en Facebook surgió como un problema importante antes de las elecciones estadounidenses de 2016, cuando actores extranjeros, sobre todo de Rusia, pudieron inflamar los sentimientos en el sitio, principalmente con la intención de impulsar la candidatura del entonces candidato Donald Trump. Desde entonces, la empresa ha estado bajo un mayor escrutinio para monitorear las amenazas y campañas de desinformación y brindar mayor transparencia al público.

Meta eliminó una campaña anterior de desinformación relacionada con China, como se detalló en agosto. La compañía dijo que eliminó más de 7.700 cuentas de Facebook relacionadas con esa red CIB china, que describió en ese momento como la “operación de influencia encubierta multiplataforma más grande conocida en el mundo”.

Si China se convierte en un tema de conversación política como parte de los próximos ciclos electorales en todo el mundo, Meta dijo que “es probable que veamos operaciones de influencia con base en China girar para intentar influir en esos debates”.

“Además, cuanto más se centren los debates internos en Europa y América del Norte en el apoyo a Ucrania, más probable será que veamos intentos rusos de interferir en esos debates”, añadió la empresa.

Una tendencia que Meta ha notado con respecto a las campañas de CIB es el uso cada vez mayor de una variedad de plataformas en línea como Medium, Reddit y Quora, en lugar de que los malos actores “centralicen su actividad y coordinación en un solo lugar”.

Meta dijo que el desarrollo parece estar relacionado con “plataformas más grandes que mantienen la presión sobre los actores de amenazas”, lo que resulta en que los alborotadores utilicen rápidamente sitios más pequeños “con la esperanza de enfrentar menos escrutinio”.

La compañía dijo que el aumento de la IA generativa crea desafíos adicionales cuando se trata de la difusión de desinformación, pero Meta dijo que no ha “visto evidencia de que esta tecnología sea utilizada por conocidas operaciones de influencia encubiertas para hacer afirmaciones de piratería y filtración”.

Meta ha estado invirtiendo mucho en IA y uno de sus usos es ayudar a identificar contenido, incluidos los medios generados por computadora, que podrían violar las políticas de la empresa. Meta dijo que casi 100 socios independientes de verificación de datos ayudarán a revisar cualquier contenido cuestionable generado por IA.

“Si bien el uso de IA por parte de actores de amenazas conocidos que hemos visto hasta ahora ha sido limitado y no muy efectivo, queremos permanecer alerta y prepararnos para responder a medida que sus tácticas evolucionen”, dice el informe.

Aún así, Meta advirtió que las próximas elecciones probablemente significarán que “la comunidad de defensores de nuestra sociedad necesita prepararse para un mayor volumen de contenido sintético”.

“Esto significa que así como el contenido potencialmente violatorio puede escalar, las defensas también deben escalar, además de continuar haciendo cumplir las conductas adversas que pueden implicar o no la publicación de contenido generado por IA”, dijo la compañía.

MIRAR: Meta es una empresa con una “crisis de identidad”.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *