Apple ofrece otra mirada a la seguridad y privacidad integradas en el escaneo de fotos CSAM

A principios de este mes, Apple reveló nuevas funciones integradas en la mayoría de sus principales sistemas operativos. Cada uno de ellos, incluidos tres, está diseñado para ayudar a proteger a los niños del abuso y la explotación sexuales. Y si bien estos son aclamados como cosas buenas, a gran escala, son los detalles más finos con respecto a una de las características en particular lo que interesa a muchas personas.

Esa desconfianza general no es tanto hacia Apple directamente. La mayoría gira en torno a la idea de que Apple podría sentar las bases para verse obligada a usar estas nuevas funciones, en particular, escanear fotos en busca de hashes conocidos específicos, de una manera menos que buena. Muchos creen que estamos firmemente al borde de una pendiente muy resbaladiza con la capacidad de escanear bibliotecas de fotos de iCloud en busca de hashes conocidos relacionados con pornografía infantil o material CSAM.

Entonces, si bien el objetivo general de Apple es bueno, es la implementación de herramientas para lograr ese objetivo lo que ha asustado a algunas personas o no está contento con Apple y su percepción de sobrepaso.

Por lo tanto, no debería sorprendernos que desde que Apple presentó estas nuevas funciones, la compañía haya tenido que intentar convencer a la gente de por qué están bien, por qué Apple no abusará de ellas, por qué Apple no permitirá que otras entidades lo hagan. abusar de ellos. y por qué todo estará bien. Todo comenzó con una nota interna de un vicepresidente de software de Apple. Y floreció en una sección de preguntas frecuentes dedicada e incluso en una entrevista con el oficial de privacidad de Apple.

Y hoy, Apple está de regreso con otro documento. Esto se titula "Revisión del modelo de amenazas a la seguridad de las funciones de seguridad infantil de Apple" (mediante MacRumors). En él, Apple tiene como objetivo definir la privacidad y la seguridad no solo en iOS, macOS y watchOS (donde estas características estarán presentes en el lanzamiento), sino cómo esta seguridad y privacidad sientan las bases para estas características en general.

Sin embargo, el documento en sí se hace eco de lo que ya han dicho los ejecutivos de Apple. Esto incluye la confirmación de Apple de que el escaneo CSAM en busca de hashes conocidos específicos tendrá un umbral de 30 imágenes. Hasta hace poco, Apple no dejaba saber a nadie cuál era ese umbral. Si una biblioteca de fotos de iCloud alcanza ese umbral, solo entonces Apple demandará al titular de la cuenta. Después de eso, la cuenta pasará por una revisión manual antes de realizar cualquier otra acción.

Por ejemplo, estos son los requisitos de seguridad y privacidad relacionados con estas funciones:

Formalizamos los principios de diseño anteriores en los siguientes requisitos de seguridad y privacidad.

Corrección de la imagen de origenDebe haber una confianza muy alta de que solo se han utilizado imágenes CSAM, y no otras imágenes, para generar la base de datos de hash de CSAM perceptual cifrada que forma parte de los sistemas operativos de Apple que admiten esta función.

Transparencia en la actualización de la base de datos: No debe ser posible modificar subrepticiamente la base de datos CSAM cifrada utilizada por el proceso.

Correspondencia de la corrección del software: Debe ser posible verificar que el software correspondiente compare las fotos solo con la base de datos hash CSAM encriptada y con nada más.

Transparencia del software correspondiente: No debe ser posible modificar subrepticiamente el software que realiza la comparación ciega con la base de datos CSAM cifrada.

Universalidad de la base de datos y el software: No debe ser posible apuntar a cuentas específicas con una base de datos CSAM cifrada diferente o con un software diferente que realice una comparación ciega.

Restringir el acceso a los datos: El proceso de coincidencia solo necesita revelar CSAM y no debe obtener ninguna información sobre ninguna imagen que no sea CSAM.

Rechazo falso positivo: la confianza de que el proceso no marca falsamente las cuentas debe ser extremadamente alta.

El documento completo es algo técnico, pero aún se esfuerza por dejar las cosas lo más claras posible. Vale la pena leerlo si estas nuevas funciones le causan problemas.

También vale la pena señalar que, si bien estas funciones solo estarán disponibles en los EE. UU. Y estarán disponibles para aplicaciones propietarias, este no siempre será el caso. Apple ha confirmado que se planea una expansión global, pero la compañía llevará a cabo una revisión país por país antes de que las funciones se publiquen en cualquier otro mercado. Además, Apple dice que no descarta portar estas funciones a aplicaciones de terceros, pero tampoco hay un marco de tiempo para eso.

Contenido relacionado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir