Thu. Aug 29th, 2024

Apple ha rechazado silenciosamente todas las menciones de CSAM de su página web de Seguridad Infantil, sugiriendo que su controvertido plan para detectar imágenes de abuso sexual infantil en iPhones y iPads puede estar en juego luego de críticas significativas a sus métodos.


Apple anunció en agosto un conjunto planificado de nuevas funciones de seguridad infantil, que incluyen el escaneo de las bibliotecas de fotos de iCloud de los usuarios para el material de abuso sexual infantil (CSAM), la seguridad de la comunicación para advertir a los niños y sus padres cuando reciben o envían fotos sexualmente explícitas, y orientación ampliada de CSAM en Siri y Search.

Tras su anuncio, las características fueron criticadas por una amplia gama de personas y organizaciones, incluidos investigadores de seguridad, el denunciante de privacidad Edward Snowden, la Electronic Frontier Foundation (EFF), el exjefe de seguridad de Facebook, políticos, grupos de políticas, investigadores universitarios e incluso algunos empleados de Apple.

La mayoría de las críticas se dirigieron a la detección de CSAM en el dispositivo planificada por Apple, que fue criticada por los investigadores por confiar en una tecnología ineficaz y peligrosa que bordeaba la vigilancia, y ridiculizada por ser ineficaz para identificar imágenes de abuso sexual infantil.

Apple inicialmente intentó disipar algunos malentendidos y tranquilizar a los usuarios mediante la publicación de información detallada, el intercambio de preguntas frecuentes, varios documentos nuevos, entrevistas con ejecutivos de la empresa y más, con el fin de disipar las preocupaciones.

Sin embargo, a pesar de los esfuerzos de Apple, la controversia no desapareció. Apple finalmente siguió adelante con el lanzamiento de las funciones de Seguridad de la comunicación para Mensajes, que se lanzó a principios de esta semana con el lanzamiento de iOS 15.2, pero Apple decidió retrasar el lanzamiento de CSAM luego del torrente de críticas que claramente no había anticipado.

Apple dijo que su decisión de retrasar “se basó en los comentarios de los clientes, grupos de defensa, investigadores y otros. Hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

La declaración anterior se agregó a la página de Seguridad Infantil de Apple, pero ahora desapareció, junto con todas las menciones de CSAM, lo que plantea la posibilidad de que Apple pudiera haberla tirado al césped y haber abandonado el plan por completo. Nos comunicamos con Apple para hacer comentarios y actualizaremos este artículo si recibimos una respuesta.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *