Apple va tras los usuarios que tengan en sus dispositivos y en iCloud imágenes de abuso sexual infantil, te contamos cómo escaneará los iPhones.
Apple es reconocida como la marca de mayor seguridad y privacidad para los usuarios. Ahora la compañía pone límites a la privacidad pues el abuso infantil debe ser público.
NO DEJES DE lEER: La Selección Mexicana de Fútbol gana el Bronce en Tokio y se lleva la de 'Plata' Google
Así, antes de que una imagen se almacene en Fotos de iCloud, la tecnología buscará coincidencias de material sobre abuso sexual infantil, CSAM por sus siglas en inglés ya conocidos.
Apple dijo que si se encuentra una coincidencia, entonces un revisor humano evaluará e informará del usuario a las autoridades. Aunque hay preocupaciones de privacidad, la tecnología podría expandirse para escanear teléfonos en busca de contenido prohibido o incluso discursos políticos.
Por otro lado, a algunos expertos les preocupa que los gobiernos autoritarios puedan utilizar la tecnología para espiar a sus ciudadanos, no obstante por ahora la prioridad es la protección a los menores.
Cómo escaneará Apple los dispositivos iOS
Apple dijo que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de 2021, tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario".
La tecnología de escaneo funcionará comparando imágenes con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos y otras organizaciones de seguridad infantil.
Esas imágenes se traducen en "hashes", que son códigos numéricos que se pueden hacer coincidir con una imagen en un dispositivo Apple. La compañía dice que la tecnología también capturará versiones editadas pero similares de imágenes originales.
Apple afirmó que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada".
Luego, se revisará manualmente cada informe para confirmar que hay una coincidencia. Entonces, se podrán tomar medidas cómo deshabilitar la cuenta de un usuario e informar a las autoridades.
La compañía dice que la nueva tecnología ofrece beneficios de privacidad "significativos" sobre las técnicas existentes, ya que Apple solo se entera de las fotos de los usuarios si tienen imágenes con contenido de abuso sexual infantil, CSAM, en su cuenta de Fotos de iCloud.