Wed. May 8th, 2024

Existe un consenso cada vez mayor sobre cómo abordar el desafío de los deepfakes en los medios y las empresas, generados a través de tecnologías como la inteligencia artificial. A principios de este año, Google anunció que se uniría a la Coalición para la Procedencia y Autenticidad del Contenido como miembro del comité directivo; otras organizaciones del C2PA incluyen OpenAI, Adobe, Microsoft, AWS y la RIAA. Con una creciente preocupación por la desinformación y los deepfakes de la IA, los profesionales de TI querrán prestar mucha atención al trabajo de este organismo, y en particular a las Credenciales de Contenido, a medida que la industria formaliza los estándares que rigen cómo se gestionan los datos visuales y de video.

¿Qué son las credenciales de contenido?

Las credenciales de contenido son una forma de metadatos digitales que los creadores pueden adjuntar a su contenido para garantizar el reconocimiento adecuado y promover la transparencia. Estos metadatos a prueba de manipulaciones incluyen información sobre el creador y el proceso creativo que se integra directamente en el contenido en el momento de la exportación o descarga. Las credenciales de contenido tienen más posibilidades de llegar a una forma acordada y estandarizada a nivel mundial de etiquetar el contenido hasta el momento, gracias al peso de las empresas detrás del concepto.

VER: Adobe agrega Firefly y credenciales de contenido al programa Bug Bounty

El uso de Credenciales de contenido ofrece varios beneficios. Ayudará a generar credibilidad y confianza entre el público al proporcionar más información sobre el creador y el proceso creativo. Esta transparencia puede ayudar a combatir la desinformación y la desinformación en línea. Al adjuntar información de identidad e información de contacto a su trabajo, los creadores pueden facilitar que otros los encuentren y se conecten con ellos, mejorando su visibilidad y reconocimiento. Del mismo modo, será más fácil identificar y eliminar de la plataforma o eliminar contenido que no sea legítimo.

Los deepfakes son un desafío que Australia está luchando por afrontar

Australia, como gran parte del resto del mundo, está luchando contra una aceleración masiva del fraude deepfake. El tercer informe anual sobre fraude de identidad de Sumsub encontró un aumento del 1.530 % en los deepfakes en Australia durante el año pasado y señaló que la sofisticación de estos también estaba aumentando.

La situación se ha vuelto tan preocupante que el gobierno anunció recientemente una estrategia para contrarrestar algunos ejemplos específicos y luego establecer vías para tratarlo como cualquier otra forma de contenido ilegal.

Los deepfakes son fuentes particularmente potentes de desinformación porque el ojo puede ser engañado muy rápidamente. Las investigaciones sugieren que se necesitan tan solo 13 milisegundos para identificar una imagen, un período de tiempo mucho más corto que el que llevaría analizarla y determinar su validez. En otras palabras, los deepfakes suponen un gran riesgo porque ya pueden tener el impacto deseado en una persona antes de que puedan ser analizados y descartados.

VER: Los deepfakes de IA aumentan como riesgo para las organizaciones de APAC

Por ejemplo, el principal organismo científico de Australia, el CSIRO, publicó información sobre “cómo detectar un deepfake”, y esa orientación requiere un análisis exhaustivo.

“Si se trata de un vídeo, puedes comprobar si el audio está sincronizado correctamente con el movimiento de los labios. ¿Las palabras coinciden con la boca? Otras cosas que se deben verificar son parpadeos o parpadeos antinaturales alrededor de los ojos, luces o sombras extrañas y expresiones faciales que no coinciden con el tono emocional del discurso”, dijo la Dra. Kristen Moore, experta de CSIRO, en el artículo de orientación.

Entonces, por más útil que sea ese consejo, equipar al objetivo final de los deepfakes sobre cómo identificarlos no será suficiente para evitar que causen estragos en toda la sociedad.

El gobierno y el sector privado deben unirse para combatir los deepfakes

Que el gobierno ilegalice los deepfakes es un paso positivo para proteger a quienes serían víctimas de ellos. Sin embargo, la industria de TI tendrá que ser la que desarrolle formas de identificar y gestionar este contenido.

Ya existen casos de alto perfil de importantes figuras empresariales como Dick Smith y Gina Rinehart que “exigen” que organizaciones como Meta sean más proactivas en la prevención de estafas de IA, después de que sus imágenes se utilizaran en deepfakes.

Como señaló el Comisionado australiano de eSafety, “el desarrollo de innovaciones para ayudar a identificar deepfakes aún no va a la par de la tecnología en sí”. Por su parte, el gobierno australiano se ha comprometido a combatir los deepfakes mediante:

  • Crear conciencia sobre los deepfakes para que los australianos reciban una descripción general razonada y basada en evidencia del problema y estén bien informados sobre las opciones disponibles para ellos.
  • Apoyar a las personas que han sido atacadas a través de un sistema de presentación de quejas. Cualquier australiano cuya foto o video haya sido alterado digitalmente y compartido en línea puede comunicarse con eSafety para obtener ayuda para eliminarlo.
  • Prevenir daños mediante el desarrollo de contenido educativo sobre deepfakes, para que los australianos puedan evaluar críticamente el contenido en línea y navegar con más confianza en el mundo en línea.
  • Apoyar a la industria a través de nuestra iniciativa Safety by Design, que ayuda a empresas y organizaciones a incorporar la seguridad en sus productos y servicios.
  • Apoyar los esfuerzos de la industria para reducir o limitar la redistribución de deepfakes dañinos animándolos a desarrollar: políticas, términos de servicio y estándares comunitarios sobre deepfakes, políticas de detección y eliminación para gestionar deepfakes abusivos e ilegales, métodos para identificar y marcar deepfakes en su comunidad.

En última instancia, para que esta visión tenga éxito, es necesario contar con el apoyo de la industria, y que las organizaciones proporcionen la tecnología e inviertan más profundamente en la IA. Aquí es donde entran las credenciales de contenido.

Pasos a seguir para ayudar a combatir los deepfakes

Las credenciales de contenido son la mejor oportunidad para formar estándares que combatan los deepfakes. Como este enfoque está impulsado por la industria y respaldado por el peso de los pesos pesados ​​de las industrias de contenidos, significa que se puede marcar contenido ilegítimo en la gran mayoría de Internet, de forma similar a como se pueden marcar sitios web llenos de virus hasta el punto de que volverse efectivamente imposible de encontrar en los motores de búsqueda.

Por esta razón, los profesionales de TI y otras personas que trabajan con IA para la generación de contenido querrán entender las Credenciales de Contenido de la misma manera que los desarrolladores web entienden la seguridad, el SEO y los estándares que se espera protejan el contenido para que no sea marcado. Los pasos que deberían tomar incluyen:

  • Implementación de credenciales de contenido: En primer lugar, los profesionales de TI deben asegurarse de que su organización adopte e integre activamente credenciales de contenido en los flujos de trabajo para garantizar la autenticidad y la trazabilidad del contenido.
  • Abogar por la transparencia: Tanto interna como externamente, con socios y clientes, abogar por que las organizaciones sean transparentes sobre su uso de la IA y adopten prácticas éticas en la creación y distribución de contenidos.
  • Regulación de apoyo: Colaborar con organismos industriales y agencias gubernamentales para dar forma a políticas y regulaciones que aborden los desafíos que plantean los deepfakes. Esto incluye participar en las diversas investigaciones que el gobierno realizará sobre la IA para ayudar a dar forma a las políticas.
  • Colaborando: Trabajar con otros profesionales y organizaciones para desarrollar prácticas y herramientas estandarizadas para identificar y mitigar los riesgos asociados con los deepfakes.
  • Preparar estrategias de respuesta: Disponer de un plan para cuando se detecten deepfakes, que incluya medidas para mitigar los daños y comunicarse con las partes interesadas.
  • Aprovechar los recursos de la comunidad: Finalmente, utilice recursos de comunidades de ciberseguridad y organismos gubernamentales como el Comisionado de eSafety para mantenerse actualizado y preparado.

Sin duda, los deepfakes serán uno de los desafíos más importantes para los que la industria tecnológica y los profesionales de TI deberán desarrollar una respuesta. Content Credentials ofrece un excelente punto de partida en torno al cual la industria puede gravitar.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *