privacidad iPhone Mensajes escaneo Fotos
privacidad iPhone Mensajes escaneo Fotos

Apple anuncia funciones de protección infantil en Mensajes y escaneo de Fotos (detección de CSAM)

Apple acaba de anunciar varias funciones nuevas con el fin de conseguir una protección infantil para los niños en el iPhone, iPad y Mac. Incluye nuevas funciones de seguridad en la comunicación en Mensajes, detección mejorada de contenido de Material de abuso sexual infantil (CSAM) en Fotos de iCloud, además de información de conocimiento actualizada para Siri y Buscar.

Apple está poniendo especial interés en que su nuevo programa es ambicioso, porque permitirá “proteger a los niños es una responsabilidad importante“. Según Apple, sus esfuerzos “evolucionarán y se expandirán con el tiempo“.

Funciones de seguridad en las comunicaciones de Mensajes

Apple explica, cómo un niño cuando vaya a enviar una foto sexualmente explícita en la app de Mensajes recibirá un mensaje de advertencia. En esos casos recibirá una ventana emergente con el mensaje “puede ser sensible“. Informándole posteriormente que puede ser confidencial. Además, al enviar este tipo de imágenes, las cuentas de los tutores en iCloud recibirán una notificación, “para asegurarse de que está bien“, con ayuda adicional en un enlace a los padres.

Además, la app de Mensajes utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. Esta función llegará con iOS 15 y también para el iPad y macOS Monterey. Aunque en un principio, sólo disponible para Estados Unidos.

Que es la protección y detección de CSAM

deteccion CSAM proteccion infantil Fotos iPhone
deteccion CSAM proteccion infantil Fotos iPhone

La segunda función y más importante para la protección infantil, está relacionada con el abuso infantil, o CSAM. Apple explica que se refiera a que representa actividades sexualmente explícitas que involucran a un niño. Permitirá detectar imágenes CSAM cuando se almacenen en la app de Fotos en iCloud. Apple podrá entonces reportar casos de CSAM al Centro Nacional para Niños Desaparecidos y Explotados. Aunque de nuevo, esto será para Estados Unidos, en un principio. Apple destaca que CSAM está diseñada teniendo en cuenta la privacidad del usuario.

Apple explica de la siguiente forma la protección CSAM:

Antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de coincidencia en el dispositivo para esa imagen con el conjunto ilegible de hashes CSAM conocidos. Este proceso de coincidencia es impulsado por una tecnología criptográfica llamada intersección de conjuntos privados, que determina si hay una coincidencia sin revelar el resultado. La intersección de conjuntos privados (PSI) permite a Apple saber si un hash de imagen coincide con los hashes de imagen de CSAM conocidos, sin aprender nada sobre los hashes de imagen que no coinciden. PSI también impide que el usuario se entere de si hubo una coincidencia.

Protección infantil en Siri y buscar

proteccion infantil en Siri Buscar iPhone
proteccion infantil en Siri Buscar iPhone

Por último, Apple también está mejorando Siri y Buscar, para que hagan lo siguiente:

Apple también está ampliando la orientación en Siri y Search al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda con situaciones inseguras. Por ejemplo, los usuarios que pregunten a Siri cómo pueden denunciar la CSAM o la explotación infantil serán señalados a los recursos para saber dónde y cómo presentar una denuncia.

Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM. Estas intervenciones explicarán a los usuarios que el interés en este tema es perjudicial y problemático, y proporcionarán recursos de los socios para obtener ayuda con este problema.

Estas nuevas funciones en Siri y Buscar estarán disponibles a finales del verano, cuando se lance de forma oficial iOS 15 en el iPhone, iPadOS 15, watch 8 y macOS Monterey. Aunque volvemos a reiterar que algunas de las funciones, como CSAM estén en un principio solo disponibles para Estados Unidos. Habrá que ver qué opinión tiene la UE sobre las medidas de protección infantil y privacidad de usuario que añade Apple a sus dispositivos.

Fuente | 9to5mac