Apple no descarta la expansión de nuevas funciones de seguridad infantil a aplicaciones de terceros
Apple puede causar revuelo con todo tipo de anuncios. Tomemos, por ejemplo, la reciente presentación de las nuevas protecciones ampliadas para niños. Es un conjunto de funciones, tres en total, que están destinadas a ayudar a proteger a los niños del abuso y la explotación. También tiene como objetivo proporcionar aún más información y recursos a quienes puedan estar en riesgo.
Desde entonces, Apple ha intentado eliminar los miedos o dudas relacionados con estas funciones. Especialmente cuando se trata de escanear bibliotecas de fotos de iCloud, donde una de las nuevas funciones busca material conocido por abuso sexual infantil (CSAM). Muchos han argumentado que esta nueva característica en particular podría conducir a algunos esfuerzos menos que altruistas por parte de algunos grupos y gobiernos.
Pero Apple no parece renunciar a la idea ni a su implementación. También proporcionó una sección de preguntas frecuentes dedicada a tratar de aclarar las cosas. Y al parecer, la empresa organizó recientemente una sesión de preguntas y respuestas con los periodistas (a través de MacRumors) sobre estas nuevas funciones.
Fue durante esta sesión que la compañía reveló que agregar soporte de aplicaciones de terceros para estas funciones de protección infantil es un objetivo. La compañía no ha proporcionado ningún ejemplo de cómo podría verse en el futuro, ni ha proporcionado un calendario de cuándo podría materializarse el soporte de esta aplicación de terceros.
Sin embargo, una posible opción es la función de seguridad de las comunicaciones. Tras el lanzamiento, esta función permitirá que iMessage detecte cuándo un usuario de iOS / iPadOS / macOS envía y / o recibe imágenes potencialmente sexualmente explícitas a través de la aplicación de mensajería. Apple también puede implementar soporte para una aplicación de terceros como Instagram u otras aplicaciones de mensajería.
Las aplicaciones de almacenamiento de fotos que dependen de la nube también podrían beneficiarse de la herramienta de detección de CSAM.
Según el informe original, Apple afirma que cualquier expansión a aplicaciones de terceros no afectaría las protecciones de seguridad generales o la privacidad del usuario inherentes a estas características de servicios / aplicaciones de origen:
Apple no ha proporcionado un marco de tiempo sobre cuándo las características de seguridad para niños podrían expandirse a terceros, y señaló que aún no ha completado las pruebas y el despliegue de las características, y la compañía también dijo que debería asegurarse de que cualquier expansión potencial lo haría. no comprometer las propiedades de privacidad o la efectividad de las funciones.
Apple está apagando muchos incendios aquí. Lo que tiene sentido. La empresa no solo se ocupa directamente de la explotación de niños y el abuso sexual en un esfuerzo por eliminarlos, sino que lo hace de una manera que mucha gente cree que es la forma de Gran Hermano en la implementación de la vigilancia.
Parece que Apple está tratando de asegurarse de que estas funciones permanezcan en uso para siempre, pero solo el tiempo dirá si ese será el caso también en el futuro.
Deja una respuesta
Contenido relacionado