Apple revela nuevas funciones de seguridad para niños, incluido el escaneo de las bibliotecas de fotos de los usuarios en busca de material ofensivo conocido
La privacidad y la seguridad del usuario son un enfoque importante para Apple. Seguridad también. Asegurarse de que un usuario pueda mantener sus datos seguros, por ejemplo, es una de las fortalezas de iOS en general. Por lo tanto, tiene sentido que Apple quiera ampliar ese alcance, especialmente cuando se trata de protección infantil.
Hoy dia, Apple está apareciendo sus últimos esfuerzos en este empeño. La compañía está anticipando las nuevas funciones que llegarán a sus principales sistemas operativos a finales de este año. Estas nuevas funciones se integrarán en el software después de una actualización, que llegará en una fecha desconocida. Además, Apple también ha confirmado que las nuevas funciones solo estarán disponibles en los EE. UU. En el momento del lanzamiento, pero Apple está buscando expandirse más allá de esas fronteras en el futuro.
Hay tres áreas en las que Apple se está enfocando. Detección de CSAM, seguridad de las comunicaciones y ampliación de la ayuda en la búsqueda y Siri. Puede verlos todos con más detalle en el anuncio de Apple. A continuación, los encontrará brevemente.
Comunicación
Primero, una de las áreas potencialmente más peligrosas para los niños. Comunicación. Con este nuevo enfoque, Messages ahora permitirá que los niños y sus padres sepan cuándo podrían estar enviando fotos explícitas dentro de la aplicación Messages. Esto también se aplica a la recepción de este tipo de foto.
Según el anuncio de hoy:
Al recibir este tipo de , la foto se verá borrosa y el niño será alertado, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto. Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está seguro, sus padres recibirán un mensaje si lo ven. Existen protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será notificado antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo.
Esta característica en particular estará disponible para cuentas configuradas como familias y estará disponible en iOS 15, iPadOS 15 y macOS 12 Monterey.
Apple dice que el aprendizaje automático (ML) en el dispositivo se encargará del elemento de descubrimiento de fotografías. Esto está intrínsecamente diseñado para que Apple no pueda acceder a las imágenes.
Detección de CSAM
El material sobre abuso sexual infantil (MASI) es otra área en la que Apple se centrará. Este material muestra a los niños en actividades explícitas, y Apple tiene como objetivo tomar medidas enérgicas contra él. Para ayudar, Apple implementará tecnología que escaneará el de la fototeca de iCloud de los usuarios e identificará cualquier CSAM. Con ese fin, Apple podrá informar los hallazgos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que es un centro de informes completo.
Del anuncio:
El conocido método de detección de CSAM de Apple está diseñado teniendo en cuenta la privacidad del usuario. En lugar de escanear las imágenes a la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos hash de imágenes CSAM conocidas proporcionadas por NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hashes que se almacenan de forma segura en los dispositivos de los usuarios.
Antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de comparación en el dispositivo para esa imagen con hashes CSAM conocidos. Este proceso de coincidencia está impulsado por una tecnología criptográfica llamada intersección de conjuntos privados, que determina si existe una coincidencia sin revelar el resultado. El dispositivo crea un vale de seguridad criptográfico que codifica el resultado de la coincidencia junto con datos encriptados adicionales en la imagen. Este cupón se carga en Fotos de iCloud junto con la imagen.
Para asegurarse de que la propia Apple no pueda interpretar las fotos innecesariamente (básicamente, a menos que las herramientas de informes / descubrimiento le hagan ping), también existe lo que se llama "compartir el umbral secreto":
Utilizando otra tecnología llamada uso compartido de umbral encubierto, el sistema garantiza que Apple no pueda interpretar el de los vales de seguridad a menos que la cuenta de iCloud Photos supere un umbral de CSAM conocido. El umbral está establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de un billón de posibilidades por año de informar incorrectamente una cuenta en particular.
Solo cuando se supera el umbral, la tecnología criptográfica permite a Apple interpretar el de los vales de seguridad asociados con las imágenes CSAM correspondientes. Luego, Apple revisa manualmente cada informe para confirmar que existe una coincidencia, deshabilita la cuenta del usuario y envía un informe al NCMEC. Si un usuario cree que su cuenta ha sido informada por error, puede apelar para restaurar su cuenta.
Vale la pena señalar que si un usuario desactiva Fotos de iCloud, esta función no funcionará.
Búsqueda y Siri
Y el tercer elemento es la expansión de la ayuda para Siri y la búsqueda. Esto tiene como objetivo ayudar a padres e hijos a mantenerse seguros mientras están en línea, así como durante "situaciones inseguras". Con esta nueva función implementada, los usuarios podrán preguntarle a Siri directamente dónde pueden reportar CSAM o explotación infantil, y luego ser dirigidos a los recursos.
Si alguien intenta buscar con Siri, o con la función de búsqueda en general, el propio software redirigirá la búsqueda e informará al usuario "que el interés en este tema es dañino y problemático". Luego, la función sugerirá recursos para ayudar con el problema.
Apple dice que estas actualizaciones de búsqueda y Siri llegarán a iOS 15, iPadOS 15, macOS 12 Monterey y watchOS 8.
Ve a echar un vistazo Anuncio completo de Apple para más.
Deja una respuesta
Contenido relacionado