Apple esta semana reveló una nueva iniciativa que tiene como objetivo ayudar a proteger a los niños. El esfuerzo extendido de protección infantil es triple, cada característica integrada en las principales plataformas de Apple. Dos de las nuevas incorporaciones parecen estar funcionando bastante bien, pero es la otra, la que tiene escaneo de fotos, que tiene muchas plumas.
Hoy, Apple ha proporcionado algunos comentarios a MacRumors para abordar algunas de estas quejas y problemas. Es decir, la parte de escaneo de fotos de los protectores infantiles extendidos. Con esta función, Apple comenzará a escanear las bibliotecas de fotos de iCloud en busca de cualquier material abusivo y explotador conocido. Lo harán basándose en hashes abusivos conocidos dentro de las fotos que enlazan directamente con pornografía infantil o material CSAM.
Si bien Apple está implementando elementos para ayudar a reducir los falsos positivos, y existe un umbral para cuántas de estas imágenes deben detectarse antes de que Apple tome medidas contra una persona, todavía plantea problemas. Esto está relacionado principalmente con lo que podría suceder a continuación con estas funciones implementadas, cómo podrían volverse en contra de los usuarios e incluso cómo algunos gobiernos podrían intentar usar la función de maneras que están lejos de ser prístinas.
En los comentarios a la publicación, Apple dice que cuando se trata de una expansión global, que la compañía está investigando actualmente, la tomarán caso por caso o país por país. Esto se determinó después de realizar una auditoría legal. Sin embargo, Apple no da detalles sobre cómo se verá la revisión.
Mientras tanto, con respecto a cómo algunas regiones particulares del mundo podrían intentar aprovechar estas nuevas funciones:
Apple también abordó la posibilidad hipotética de que una región particular del mundo decida sobornar a una organización de seguridad, señalando que el primer nivel de protección del sistema es un umbral no revelado antes de que se informe que un usuario tiene imágenes inadecuadas. Incluso si se cruza el umbral, Apple dijo que su proceso de revisión manual actuaría como una barrera adicional y confirmaría la ausencia de imágenes CSAM conocidas. Apple dijo que, en última instancia, no informará sobre el usuario denunciado al NCMEC ni a la policía y que el sistema seguirá funcionando exactamente como se diseñó.
Apple reiteró su esfuerzo por utilizar este nuevo sistema como un medio para detectar CSAM y nada más. Sin embargo, la compañía admitió que no existe una «solución milagrosa» cuando se trata de un posible abuso del sistema. Así que parece que Apple entiende que también existe ese margen de maniobra, por lo que la preocupación aquí es apropiada.
Sin embargo, la compañía sigue comprometida con la privacidad del usuario y cree en esta nueva característica y planea expandirla aún más en el futuro, según un memorando interno distribuido recientemente a los empleados.