Thu. Aug 29th, 2024

Un estudio reciente de la Universidad de Western Sydney, Adult Media Literacy in 2024, reveló niveles preocupantemente bajos de alfabetización mediática entre los australianos, particularmente dadas las capacidades de deepfake publicadas por las nuevas tecnologías de inteligencia artificial.

Esta deficiencia plantea un riesgo para la seguridad de TI, dado que el error humano sigue siendo la principal causa de violaciones de seguridad. A medida que la desinformación y los deepfakes se vuelven cada vez más sofisticados, la necesidad de una respuesta nacional cohesiva es más urgente que nunca, señala el informe.

Como la IA puede producir desinformación muy convincente, el riesgo de error humano se magnifica. Las personas que no tienen conocimientos mediáticos tienen más probabilidades de ser víctimas de este tipo de esquemas, que potencialmente comprometen información o sistemas confidenciales.

La creciente amenaza de la desinformación y los deepfakes

Si bien la IA ofrece beneficios innegables en la generación y distribución de información, también presenta nuevos desafíos, incluida la desinformación y los deepfakes, que requieren altos niveles de alfabetización mediática en todo el país para mitigarlos.

Tanya Notley, profesora asociada de la Universidad de Western Sydney que participó en el informe sobre alfabetización mediática de adultos, explicó que la IA introduce algunas complejidades particulares en la alfabetización mediática.

“Cada vez es más difícil identificar dónde se ha utilizado la IA”, dijo a TechRepublic.

Para superar estos desafíos, las personas deben comprender cómo verificar la información que ven y cómo distinguir entre una fuente de calidad y una que probablemente publique deepfakes.

Desafortunadamente, aproximadamente 1 de cada 3 australianos (34%) informa tener “baja confianza” en su alfabetización mediática. La educación juega un papel importante, ya que solo 1 de cada 4 (25%) australianos con un bajo nivel de educación informaron tener confianza en verificar la información que encuentran en línea.

Por qué la alfabetización mediática es importante para la ciberseguridad

Puede que la conexión entre la alfabetización mediática y la seguridad cibernética no sea evidente de inmediato, pero es fundamental. Una investigación reciente de Proofpoint encontró que el 74% de los CISO consideran que el error humano es la vulnerabilidad “más importante” en las organizaciones.

La baja alfabetización mediática exacerba este problema. Cuando las personas no pueden evaluar eficazmente la credibilidad de la información, se vuelven más susceptibles a las amenazas comunes a la seguridad cibernética, incluidas las estafas de phishing, la ingeniería social y otras formas de manipulación que conducen directamente a violaciones de seguridad.

Un ejemplo ya infame de esto ocurrió en mayo, cuando los ciberdelincuentes utilizaron con éxito un deepfake para hacerse pasar por el director financiero de una empresa de ingeniería, Arup, y convencer a un empleado de que transfiriera 25 millones de dólares a una serie de cuentas bancarias de Hong Kong.

El papel de la alfabetización mediática en la seguridad nacional

Como señaló Notley, mejorar la alfabetización mediática no es sólo una cuestión de educación. Es un imperativo de seguridad nacional, particularmente en Australia, una nación donde ya hay escasez de habilidades en seguridad cibernética.

“Centrarse en una cosa que mucha gente tiene, como la regulación, es inadecuado”, afirmó. “En realidad, tenemos que adoptar un enfoque multifacético, y la alfabetización mediática hace varias cosas diferentes. Uno de ellos es aumentar el conocimiento de la gente sobre cómo se utiliza la IA generativa y cómo pensar críticamente y hacer preguntas al respecto”.

Según Notley, este enfoque múltiple debería incluir:

  • Educación en alfabetización mediática: Las instituciones educativas y las organizaciones comunitarias deberían implementar programas sólidos de alfabetización mediática que proporcionen a las personas las habilidades para evaluar críticamente el contenido digital. Esta educación debería abarcar no sólo los medios tradicionales sino también los matices del contenido generado por IA.
  • Regulación y política: Los gobiernos deben desarrollar y hacer cumplir regulaciones que responsabilicen a las plataformas digitales por el contenido que alojan. Esto incluye exigir transparencia sobre el contenido generado por IA y garantizar que las plataformas tomen medidas proactivas para evitar la difusión de desinformación.
  • Campañas de sensibilización pública: Se necesitan campañas nacionales para crear conciencia sobre los riesgos asociados con una baja alfabetización mediática y la importancia de ser consumidores críticos de información. Estas campañas deben diseñarse para llegar a todos los grupos demográficos, incluidos aquellos que tienen menos probabilidades de tener conocimientos digitales.
  • Colaboración de la industria: La industria de TI desempeña un papel crucial en la mejora de la alfabetización mediática. Al asociarse con organizaciones como la Australian Media Literacy Alliance, las empresas de tecnología pueden contribuir al desarrollo de herramientas y recursos que ayuden a los usuarios a identificar y resistir la desinformación.
  • Formación y educación: Así como los simulacros de primeros auxilios y seguridad en el lugar de trabajo se consideran esenciales, con actualizaciones periódicas para garantizar que el personal y la organización en general cumplan, la alfabetización mediática debería convertirse en una parte obligatoria de la capacitación de los empleados y actualizarse periódicamente a medida que cambia el panorama.

Cómo la industria de TI puede apoyar la alfabetización mediática

La industria de TI tiene la responsabilidad única de aprovechar la alfabetización mediática como un componente central de la ciberseguridad. Al desarrollar herramientas que puedan detectar y marcar contenido generado por IA, las empresas de tecnología pueden ayudar a los usuarios a navegar por el panorama digital de forma más segura.

Y como lo señala la investigación de Proofpoint, los CISO, si bien están preocupados por el riesgo de error humano, también son optimistas sobre la capacidad de las soluciones impulsadas por IA y otras tecnologías para mitigar los riesgos centrados en el ser humano, destacando que la tecnología puede ser la solución al problema. que la tecnología crea.

Sin embargo, también es importante construir una cultura sin culpas. Una de las principales razones por las que el error humano supone tal riesgo es que las personas a menudo tienen miedo de hablar por miedo a ser castigadas e incluso a perder su empleo.

En última instancia, una de las mayores defensas que tenemos contra la desinformación es el intercambio libre y seguro de información, por lo que el CISO y el equipo de TI deben alentar activamente a las personas a hablar, señalar el contenido que les preocupa y, si les preocupa que has caído en un deepfake, para denunciarlo al instante.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *