Wed. Aug 28th, 2024

Apple anunció este verano nuevas funciones de seguridad infantil diseñadas para mantener a los niños más seguros en línea. Una de esas características, Communication Safety, parece estar incluida en la versión beta de iOS 15.2 que se lanzó hoy.


Basado en el código encontrado en la versión beta de iOS 15.2 por MacRumors contribuyente Steve Moser, La seguridad de las comunicaciones se introduce en la actualización. El código está ahí, pero no hemos podido confirmar que la función esté activa porque requiere que se envíen fotos confidenciales hacia o desde un dispositivo configurado para un niño.

Como Apple explicó a principios de este año, Communication Safety está integrada en la aplicación Messages en iPhone, iPad y Mac. Advertirá a los niños y a sus padres cuando se reciban o envíen fotos sexualmente explícitas desde el dispositivo de un niño, y Apple utilizará el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes.

Si se marca una foto sexualmente explícita, se borra automáticamente y se advierte al niño que no la vea. Para los niños menores de 13 años, si el niño toca la foto y la ve de todos modos, se alertará a los padres del niño.

El código en iOS 15.2 presenta algunas de las palabras que los niños verán.

  • No está solo y siempre puede obtener ayuda de un adulto en quien confíe o de profesionales capacitados. También puedes bloquear a esta persona.
  • No está solo y siempre puede obtener ayuda de un adulto en quien confíe o de profesionales capacitados. También puede abandonar esta conversación o bloquear contactos.
  • Habla con alguien de tu confianza si te sientes incómodo o necesitas ayuda.
  • Esta foto no se compartirá con Apple y sus comentarios serán útiles si se marcó incorrectamente como confidencial.
  • Envía un mensaje a un adulto en quien confías.
  • Oye, me gustaría hablar contigo sobre una conversación que me está molestando.
  • Las fotos y videos sensibles muestran las partes privadas del cuerpo que cubre con trajes de baño.
  • No es tu culpa, pero las fotos sensibles pueden usarse para lastimarte.
  • Es posible que la persona en esto no haya dado su consentimiento para compartirlo. ¿Cómo se sentirían al saber que otras personas lo vieron?
  • La persona en esto podría no querer que se vea, podría haber sido compartido sin que ellos lo supieran. También puede ser ilegal compartir.
  • Compartir desnudos con cualquier persona menor de 18 años puede tener consecuencias legales.
  • Si decides ver esto, tus padres recibirán una notificación para asegurarse de que estás bien.
  • No compartas nada que no quieras. Habla con alguien en quien confíes si te sientes presionado.
  • ¿Te sientes bien? No está solo y siempre puede hablar con alguien que esté capacitado para ayudar aquí.

Hay frases específicas tanto para niños menores de 13 como para niños mayores de 13, ya que la función tiene comportamientos diferentes para cada grupo de edad. Como se mencionó anteriormente, si un niño mayor de 13 años ve una foto desnuda, sus padres no serán notificados, pero si un niño menor de 13 años lo hace, se alertará a los padres. Todas estas funciones de Seguridad de la comunicación deben ser habilitadas por los padres y están disponibles para los grupos de Family Sharing.

  • Las fotos y videos de desnudos se pueden usar para lastimar a las personas. Una vez que se comparte algo, no se puede recuperar.
  • No es culpa tuya, pero las fotos y videos sensibles pueden usarse para lastimarte.
  • Incluso si confías en a quién le envías esto ahora, pueden compartirlo para siempre sin tu consentimiento.
  • Quien lo reciba puede compartirlo con cualquier persona; es posible que nunca desaparezca. También puede ser ilegal compartir.

Apple dijo en agosto que estas características de seguridad de la comunicación se agregarían en actualizaciones de iOS 15, iPadOS 15 y macOS Monterey a finales de este año, y las conversaciones de iMessage permanecen cifradas de extremo a extremo y Apple no las puede leer.

La seguridad de las comunicaciones también se anunció junto con una nueva iniciativa de CSAM que verá a Apple escaneando fotos en busca de material sobre abuso sexual infantil. Esto ha sido muy controvertido y muy criticado, lo que llevó a Apple a optar por “tomarse más tiempo durante los próximos meses” para realizar mejoras antes de introducir la nueva funcionalidad.

En este momento, no hay indicios de la redacción de CSAM en la versión beta de iOS 15.2, por lo que Apple puede introducir la seguridad de las comunicaciones antes de implementar el conjunto completo de características de seguridad infantil.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *