¿Qué opinas de los nuevos protectores infantiles extendidos de Apple?

De vez en cuando, Apple logra hacer algo muy controvertido. No siempre sucede y generalmente está relacionado con el hardware. Como el teclado de mariposa. O la Touch Bar. O cómo cargar un Magic Mouse 2. Cosas así.

Pero a veces la empresa solo busca las vallas y va a por ello, ¿sabes? No olvidemos cuando las grabaciones de Siri estaban siendo escuchadas por personas que probablemente no deberían haberlas escuchado. (No es que esto fuera solo un problema de Apple, claro.) Y luego estaba todo el problema de la aceleración del iPhone. Más atrás, el basurero de fotos de celebridades que ha visto muchas fotos privadas en la naturaleza. (No es que esto fuera obra de Apple, pero definitivamente cae dentro de los mismos parámetros).

La compañía regresó ayer cuando dio a conocer lo que llama Protección Infantil Extendida. Estas nuevas funciones llegarán pronto a iOS 15, iPadOS 15, macOS 12 Monterey y watchOS 8. Con ellas, Apple espera poder ayudar a reducir la explotación y el abuso infantil. Hay tres componentes principales del esfuerzo: escanear las bibliotecas de fotos de iCloud en busca de lo que se llama pornografía infantil o CSAM; una mejor comprensión de la explotación y el abuso de menores que se encuentran dentro de la investigación y Siri; y avisos para enviar y / o recibir fotos potencialmente explícitas mientras usa iMessage.

Un mejor conocimiento e información compartida dentro de la búsqueda y Siri es una buena noticia. Las advertencias para los padres con niños pequeños que usan iMessage de que pueden estar recibiendo o enviando potencialmente explícito son algo bueno. Pero la línea se vuelve un poco ondulada cuando comienzas a decirle a la gente que una gran empresa, incluso Apple, escaneará automáticamente tu biblioteca de fotos.

Incluso si es sólo buscar marcadores específicos en las fotos que se relacionen directamente con la explotación infantil es un paso demasiado largo para muchas personas.

Pero no solo eso. Es de esa “pendiente resbaladiza” de la que tanto se habla, sobre todo en lo que se refiere a tecnología. Lo que comienza como una gran idea eventualmente puede convertirse en algo mucho peor. Algo mucho más feo. De hecho, la implementación de software de Apple busca hash de imágenes específicas que se hayan vinculado directamente a CSAM. Muchos señalaron que esos hashes podrían ampliarse para incluir cosas como propaganda política o cualquier cosa, dependiendo de dónde provengan las bibliotecas de hash.

Un gobierno autorizado, por ejemplo, podría tomar medidas enérgicas Mucho con esta función integrada en teléfonos ampliamente disponibles.

Por su parte y en su estado actual, Apple asegura que los falsos positivos se han reducido a uno asombroso en un billón. No reveló cuál es el umbral, pero la compañía no tomará medidas en una sola foto que incluya hashes CSAM. La empresa parece estar haciendo los movimientos necesarios para evitar problemas importantes una vez que las funciones se implementen en el futuro. Todo en un esfuerzo por hacer que los niños estén más seguros.

Que es algo en lo que creo que la mayoría de la gente puede estar de acuerdo. El problema es cómo lo está haciendo Apple. Algunas personas han dicho que se dirige a un Relación minoritaria-como futuros, donde Apple es un ojo que todo lo ve listo para lanzar el martillo a alguien en cualquier momento. Algunos citan el hecho de que estas características pueden estar sesgadas en algo mucho peor, utilizadas para acciones negativas contra los usuarios que están tratando de proteger (y otros). Y algunos dicen que Apple simplemente está haciendo lo que puede para distanciarse del problema en cuestión.

En este último punto, se parece a esto: Apple implementa estas características y funcionan perfectamente (que esperamos sea el caso). Sin embargo, los autores saben que para evitar el ojo que todo lo ve de Apple, solo necesitan apagar iCloud Photo. Saben que dejan de compartir fotos a través de iMessage. Y si eso sucede a nivel macro, la conexión directa de Apple con las personas que comparten este tipo de se corta. Ya no usan iCloud de Apple o iMessage de Apple, sino probablemente opciones de terceros. No hay nada que Apple pueda hacer al respecto, ¿verdad?

¿Y en el otro lado de esa moneda? Bueno, las cosas continúan funcionando muy bien y esta característica está esencialmente olvidada. Es solo otro engranaje en la máquina iOS. Lo que significa que algunas personas serán atrapadas, o más de una, ¡y luego el software de Apple hará lo correcto! Apple puede decir que las protecciones infantiles extendidas realmente funcionan, así que elogie a Apple.

Incluso si confías en Apple y me consideras alguien que hace todo lo posible, considerando todo, es difícil no ser un pequeño pesimista sobre esto. Sí, la reducción drástica de posibles falsos positivos con el escaneo de fotografías es buena. Pero, ¿debería Apple escanear automáticamente nuestras bibliotecas de fotos? ¿Significa esto que Apple sugiere automáticamente que cada persona es un delincuente potencial? ¿Esta implementación debería ser manejada por una empresa de seguridad / privacidad de terceros, en lugar de la propia Apple?

¿Debería hacerlo Apple?

¿Qué piensas?

Contenido relacionado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir