Tue. Aug 27th, 2024

Con la temporada electoral en marcha y la inteligencia artificial evolucionando rápidamente, la manipulación de la IA en la publicidad política se está convirtiendo en un tema de mayor preocupación para el mercado y la economía. Un nuevo informe de Moody’s el miércoles advierte que la IA generativa y los deepfakes se encuentran entre los problemas de integridad electoral que podrían presentar un riesgo para la credibilidad institucional de Estados Unidos.

“Es probable que las elecciones sean reñidas, lo que aumenta la preocupación de que se puedan utilizar deepfakes de IA para engañar a los votantes, exacerbar la división y sembrar discordia”, escribieron el vicepresidente asistente y analista de Moody’s, Gregory Sobel, y el vicepresidente senior, William Foster. “Si tienen éxito, los agentes de desinformación podrían influir en los votantes, afectar el resultado de las elecciones y, en última instancia, influir en la formulación de políticas, lo que socavaría la credibilidad de las instituciones estadounidenses”.

El gobierno ha estado intensificando sus esfuerzos para combatir los deepfakes. El 22 de mayo, la presidenta de la Comisión Federal de Comunicaciones, Jessica Rosenworcel, propuso una nueva norma que exigiría que los anuncios políticos de televisión, vídeo y radio revelaran si utilizaban contenido generado por IA. La FCC ha estado preocupada por el uso de IA en los anuncios de este ciclo electoral, y Rosenworcel señaló problemas potenciales con falsificaciones profundas y otros contenidos manipulados.

Las redes sociales han estado fuera del ámbito de las regulaciones de la FCC, pero la Comisión Federal de Elecciones también está considerando reglas generalizadas de divulgación de IA que se extenderían a todas las plataformas. En una carta a Rosenworcel, alentó a la FCC a retrasar su decisión hasta después de las elecciones porque sus cambios no serían obligatorios en los anuncios políticos digitales. Agregaron que podría confundir a los votantes el hecho de que los anuncios en línea sin las divulgaciones no tuvieran IA, incluso si la tuvieran.

Si bien es posible que la propuesta de la FCC no cubra directamente las redes sociales, abre la puerta a otros organismos que pueden regular los anuncios en el mundo digital a medida que el gobierno de EE. UU. avanza para hacerse conocido como un fuerte regulador del contenido de IA. Y, tal vez, esas reglas podrían extenderse a aún más tipos de publicidad.

“Esta sería una decisión innovadora que podría cambiar las divulgaciones y anuncios en los medios tradicionales durante años en torno a las campañas políticas”, dijo Dan Ives, director general de Wedbush Securities y analista senior de acciones. “La preocupación es que no se puede volver a poner al genio en la botella, y esta decisión tiene muchas consecuencias no deseadas”.

Algunas plataformas de redes sociales ya han adoptado algún tipo de divulgación de IA antes de las regulaciones. Meta, por ejemplo, exige una divulgación de inteligencia artificial para toda su publicidad y está prohibiendo todos los anuncios políticos nuevos la semana previa a las elecciones de noviembre. Google requiere que todos los anuncios políticos con contenido modificado que “representen de manera no auténtica personas o eventos reales o de apariencia realista” tengan divulgaciones, pero no requiere divulgaciones de IA en todos los anuncios políticos.

Las empresas de redes sociales tienen buenas razones para ser vistas como proactivas en el tema, ya que a las marcas les preocupa estar alineadas con la difusión de información errónea en un momento crucial para la nación. Se espera que Google y Facebook absorban el 47% de los 306.940 millones de dólares gastados en publicidad digital en EE. UU. en 2024. “Este es un tercer problema para las grandes marcas centradas en la publicidad durante un ciclo electoral muy divisivo que se avecina y una desinformación sobre IA que se descontrola. Es un momento muy complejo para la publicidad online”, afirmó Ives.

A pesar de la autocontrol, el contenido manipulado por IA aparece en plataformas sin etiquetas debido a la gran cantidad de contenido que se publica todos los días. Ya sean mensajes de spam generados por IA o grandes cantidades de imágenes de IA, es difícil encontrarlo todo.

“La falta de estándares de la industria y la rápida evolución de la tecnología hacen que este esfuerzo sea un desafío”, dijo Tony Adams, investigador senior de amenazas de la Unidad de Contra Amenazas de Secureworks. “Afortunadamente, estas plataformas han informado de éxitos en la vigilancia del contenido más dañino en sus sitios a través de controles técnicos, irónicamente impulsados ​​por IA”.

Es más fácil que nunca crear contenido manipulado. En mayo, Moody’s advirtió que los gobiernos y entidades no gubernamentales “ya han utilizado los deep fakes como armas” como propaganda y para crear malestar social y, en el peor de los casos, terrorismo.

“Hasta hace poco, crear un deepfake convincente requería un importante conocimiento técnico de algoritmos especializados, recursos informáticos y tiempo”, escribió el vicepresidente asistente de Moody’s Ratings, Abhi Srivastava. “Con la llegada de herramientas Gen AI asequibles y de fácil acceso, se puede generar un deepfake sofisticado en cuestión de minutos. Esta facilidad de acceso, junto con las limitaciones de las salvaguardias existentes en las redes sociales contra la propagación de contenido manipulado, crea un entorno fértil para el uso indebido generalizado de deepfakes.”

Se ha utilizado audio falso a través de una llamada automática en una carrera primaria presidencial en New Hampshire en este ciclo electoral.

Un posible lado positivo, según Moody’s, es la naturaleza descentralizada del sistema electoral estadounidense, junto con las políticas de ciberseguridad existentes y el conocimiento general de las ciberamenazas que se avecinan. Esto proporcionará cierta protección, afirma Moody’s. Los gobiernos estatales y locales están promulgando medidas para bloquear aún más los deepfakes y el contenido de IA sin etiquetar, pero las leyes de libertad de expresión y las preocupaciones sobre el bloqueo de los avances tecnológicos han ralentizado el proceso en algunas legislaturas estatales.

En febrero, según Moody’s, se estaban introduciendo 50 leyes relacionadas con la IA por semana en las legislaturas estatales, incluido un enfoque en deepfakes. Trece estados tienen leyes sobre interferencia electoral y deepfakes, ocho de las cuales fueron promulgadas desde enero.

Moody’s señaló que Estados Unidos es vulnerable a los riesgos cibernéticos y ocupa el décimo lugar entre 192 países en el Índice de Desarrollo del Gobierno Electrónico de las Naciones Unidas.

La percepción entre la población de que los deepfakes tienen la capacidad de influir en los resultados políticos, incluso sin ejemplos concretos, es suficiente para “socavar la confianza pública en el proceso electoral y la credibilidad de las instituciones gubernamentales, lo cual es un riesgo crediticio”, según Moody’s. Cuanto más se preocupa una población por separar los hechos de la ficción, mayor es el riesgo de que el público se desvincule y desconfíe del gobierno. “Tales tendencias serían crediticias negativas, potencialmente conducirían a mayores riesgos políticos y sociales y comprometerían la efectividad de las instituciones gubernamentales”, escribió Moody’s.

“La respuesta de las autoridades y la FCC puede disuadir a otros actores nacionales de utilizar la IA para engañar a los votantes”, dijo Adams de Secureworks. “Pero no hay ninguna duda de que los actores extranjeros continuarán, como lo han estado haciendo durante años, inmiscuyéndose en la política estadounidense explotando herramientas y sistemas de inteligencia artificial generativa. Para los votantes, el mensaje es mantener la calma, permanecer alerta y votar. “.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *