La función de seguridad en las comunicaciones de Apple está de vuelta con la versión beta de iOS 15.2

A principios de este año, Apple presentó un conjunto de nuevas características que incluyó en algo que llamó Protecciones Ampliadas para Niños. Había tres funciones nuevas en total, pero, en ese momento, una de ellas planteaba mucho de preocupaciones con respecto a una posible ruptura de la privacidad. Después de muchas reacciones y comentarios, Apple decidió retrasar las funciones, pero parece que una de ellas está regresando.

Como informó hoy por primera vez MacRumors, parece que Apple ha incluido la función Seguridad en las comunicaciones en la última versión beta de iOS 15.2. Si bien esto no significa automáticamente que Apple planea lanzar la función al público junto con el lanzamiento general del software en algún momento en el futuro. Al menos sugiere que Apple está trabajando para lograr esa realidad.

Y ciertamente es posible que la función Seguridad de la comunicación lo hace entre en funcionamiento con el lanzamiento público de iOS 15.2. Con ese fin, el informe original señala que el código de la función está presente en la versión beta de iOS 15.2, pero la función no está activa. Sin embargo, eso podría cambiar con las semillas beta posteriores.

Aquí hay un repaso rápido: Communication Safety es la herramienta que está presente en iOS, iPadOS y macOS. Se integrará en la aplicación Mensajes en esas plataformas y sirve para ofrecer advertencias de fotos potencialmente explícitas que se comparten en la aplicación. Tanto los niños como los padres serán notificados de ese material potencialmente dañino. Esas advertencias se emitirán cuando se comparta una foto con el niño o se envíe desde el dispositivo del niño.

Según el código, estos son algunos de los mensajes que un niño puede ver en estas situaciones:

  • No está solo y siempre puede obtener ayuda de un adulto en quien confíe o de profesionales capacitados. También puedes bloquear a esta persona.
  • No está solo y siempre puede obtener ayuda de un adulto en quien confíe o de profesionales capacitados. También puede abandonar esta conversación o bloquear contactos.
  • Habla con alguien de tu confianza si te sientes incómodo o necesitas ayuda.
  • Esta foto no se compartirá con Apple y sus comentarios serán útiles si se marcó incorrectamente como confidencial.
  • Envía un mensaje a un adulto en quien confías.
  • Oye, me gustaría hablar contigo sobre una conversación que me está molestando.
  • Las fotos y videos sensibles muestran las partes privadas del cuerpo que cubre con trajes de baño.
  • No es tu culpa, pero las fotos sensibles pueden usarse para lastimarte.
  • Es posible que la persona en esto no haya dado su consentimiento para compartirlo. ¿Cómo se sentirían al saber que otras personas lo vieron?
  • La persona en esto podría no querer que se vea, podría haber sido compartido sin que ellos lo supieran. También puede ser ilegal compartir.
  • Compartir desnudos con cualquier persona menor de 18 años puede tener consecuencias legales.
  • Si decides ver esto, tus padres recibirán una notificación para asegurarse de que estás bien.
  • No compartas nada que no quieras. Habla con alguien en quien confíes si te sientes presionado.
  • ¿Te sientes bien? No está solo y siempre puede hablar con alguien que esté capacitado para ayudar aquí.

El informe original dice que Apple lo ha hecho para que el software ofrezca diferentes indicaciones según el grupo de edad del niño. Habrá diferentes mensajes para niños menores de 13 años y niños mayores de 13 años. Y aparentemente, el software no enviará una notificación a los padres si un niño de 13 años ve una foto con desnudez (pero una notificación voluntad enviarse si el niño es menor de 13 años).

Tal como está ahora, parece que solo la Seguridad de la comunicación dentro del conjunto de funciones de Protecciones expandidas para niños está presente en iOS 15.2.

Como se mencionó anteriormente, hubo una característica incorporada en este esfuerzo que generó muchas preocupaciones, y fue el escaneo de las bibliotecas de fotos de iCloud. Ese escaneo buscaba material específico de abuso sexual infantil, o CSAM. Apple tenía algunas soluciones de seguridad para protegerse contra posibles casos de uso nefastos, pero la idea de que Apple estuviera escaneando automáticamente bibliotecas de fotos, incluso si solo buscaba material y etiquetas específicos, no funcionó en absoluto.

No se sabe cuándo esta característica en particular volverá a ver la luz del día. Pero, tal como está, parece que Apple ha hecho todo lo necesario para preparar la seguridad de las comunicaciones para el horario de máxima audiencia.

Contenido relacionado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir