Facebook está trabajando en lo que parece ser una campaña de control de daños a través de cambios en sus plataformas, incluida Instagram, siguiendo el revelaciones recientes ante el Congreso de los Estados Unidos sobre lo que hace (y lo que no hace) la empresa para evitar que los adolescentes y personas vulnerables accedan a contenidos que pueden resultar dañinos o nocivos. Uno de estos cambios será sugerir a los adolescentes que dejen de usar Instagram.
Nick Clegg, vicepresidente de Facebook, anunció que Instagram recibirá una nueva función de “tomar un descanso” que sugerirá a los usuarios adolescentes que dejen de usar la red social por un tiempo. La idea, según Clegg, es que esto ayude a evitar o reducir comportamientos poco saludables al usar la red social, como una posible adicción a las redes.
Hasta el momento, la función no tiene fecha de lanzamiento, pero es un primer paso para evitar que los adolescentes consuman contenido en exceso en la red social, posiblemente descuidando sus ocupaciones y compromisos en el mundo real. Además, aseguró que Facebook tomará medidas para que los adolescentes no accedan a material que pueda resultar dañino o que “incitar conductas que puedan ser perjudiciales para su bienestar.” El ejecutivo no ha especificado cómo planean hacer esto, pero mencionó que, si es necesario, el algoritmo de Facebook debería estar sujeto a revisión.
No es ningún secreto que las redes sociales pueden ser adictivas, tanto para los adultos como especialmente para los adolescentes. Frances Haugen dio recientemente declaraciones al Congreso de los Estados Unidos en las que reveló datos preocupantes sobre cómo la red social de Mark Zuckerberg y sus políticas de uso y privacidad anteponen las ganancias financieras a la salud mental de sus usuarios, incluida la menores, asegurando que el algoritmo de Facebook muestre intencionalmente a los usuarios contenidos que puedan molestarlos (fomentando así la interacción con la plataforma y, por tanto, más posibilidad de mostrar anuncios y generar ingresos), y que la red social solo logre identificar un pequeño porcentaje ( entre 3 y 5%) de desinformación y contenido de odio en la plataforma. [CNN vía Engadget]