Los logos de Twitter, Facebook e Instagram en la pantalla de un iPhone.
Tom Weller | Imágenes de DeFodi a través de Getty Images
LONDRES — Las plataformas tecnológicas como Facebook, Google y Twitter deberán introducir herramientas de verificación de identidad para ayudar a los usuarios a bloquear a los trolls anónimos en línea, según los nuevos planes anunciados el viernes por el gobierno del Reino Unido.
Las propuestas significan que las plataformas en línea deberían brindarles a los usuarios una forma de verificar su identidad y permitirles bloquear cualquier cuenta no verificada para que no les envíe mensajes o les responda.
La responsabilidad recaería en las empresas de tecnología para decidir cómo llevar a cabo los controles de identidad, dijo el gobierno, y agregó que esto podría incluir:
- La opción de verificar la imagen de perfil de un usuario mediante un software de reconocimiento facial.
- Tecnología de autenticación de dos factores que envía a alguien un mensaje de texto pidiéndole que verifique su identidad.
- El requisito de una identificación emitida por el gobierno, como un pasaporte, al crear o actualizar una cuenta social.
El gobierno ha encargado al organismo de control de los medios de comunicación del Reino Unido, Ofcom, que establezca una guía sobre cómo las empresas pueden cumplir con el requisito de verificación del usuario.
Otra medida obligaría a las empresas de tecnología a desarrollar herramientas que permitan a los usuarios filtrar cualquier material que se considere “legal pero dañino”. Esto podría incluir nuevas configuraciones que eviten que los usuarios reciban recomendaciones sobre ciertos temas o coloquen “pantallas de sensibilidad” sobre dicho material, dijo el gobierno.
Las nuevas medidas se están agregando al proyecto de ley de seguridad en línea entrante de Gran Bretaña, que impondría un deber de cuidado en las plataformas digitales para proteger a los usuarios del contenido dañino.
El incumplimiento podría resultar en multas de hasta el 10% de los ingresos anuales globales de una empresa. Los reguladores también tendrían el poder de bloquear el acceso a los servicios no conformes en el Reino Unido. El proyecto de ley aún no se ha finalizado y debe ser aprobado por el Parlamento antes de convertirse en ley.
“Las empresas de tecnología tienen la responsabilidad de evitar que los trolls anónimos contaminen sus plataformas”, dijo la ministra de Digital del Reino Unido, Nadine Dorries, en un comunicado el viernes.
“La gente ahora tendrá más control sobre quién puede contactarlos y podrá detener la ola de odio que les brindan los algoritmos deshonestos”.
Twitter dijo que ve el anonimato como “una herramienta vital para hablar en regímenes opresivos”, y agregó que “no es menos crítico en las sociedades democráticas”.
“Estamos revisando los detalles de los nuevos deberes propuestos”, dijo un portavoz de Twitter a CNBC. “Nuestro enfoque sigue siendo una Internet segura para todos, ya sea que alguien pueda o elija verificarse a sí mismo”.
Los portavoces de Facebook y Google no estuvieron disponibles de inmediato para hacer comentarios cuando CNBC los contactó.
El año pasado, los jugadores de fútbol negros de Inglaterra fueron objeto de un aluvión de abusos racistas en Instagram y Twitter, lo que provocó llamados a las plataformas para hacer más para abordar el abuso anónimo. Las empresas en ese momento dijeron que actuaron rápidamente para eliminar publicaciones y cuentas racistas.
El asesinato del legislador británico David Amess en su distrito electoral el año pasado impulsó aún más los llamados a las empresas tecnológicas para acabar con los trolls anónimos. El ataque, que fue declarado un incidente terrorista por la policía, elevó las preocupaciones sobre el nivel de abuso en línea que enfrentan los parlamentarios a diario.
No está claro exactamente cómo funcionarían las últimas medidas propuestas por el gobierno. Algunos activistas han expresado su preocupación de que el proyecto de ley pueda limitar la libertad de expresión en línea. Sin embargo, el gobierno dice que no requerirá que se elimine ninguna libertad de expresión legal.
“Desafortunadamente, el contenido no viene con una etiqueta ‘legal pero dañina’, por lo que la idea de que las plataformas pueden excluir a las personas de tales cosas no tiene sentido”, dijo Jim Killock, director ejecutivo de Open Rights Group, una organización que hace campaña por libertades de Internet, dijo a CNBC.
“Lo que significará es que las personas elijan si los algoritmos bloquean cosas que podrían ser ofensivas, con el resultado inevitable de que las publicaciones sobre ‘Scunthorpe’ o ‘azadas de jardín’ se eliminen en nombre de la seguridad”, agregó, refiriéndose al bloqueo involuntario de frases que se confunden con términos ofensivos.