Apple
"Back Tap" convierte todo el lomo del iPhone en un nuevo botón. GETTY IMAGES

Apple Inc. anunció que lanzará un nuevo software a finales de este año que analizará las imágenes almacenadas en la cuenta de fotos de iCloud de los usuarios en busca de fotos sexualmente explícitas de niños, para luego informar las instancias a las autoridades pertinentes.

La medida generó rápidamente preocupaciones entre los defensores de la privacidad. Como parte de las nuevas medidas de seguridad que involucran a niños, la compañía también anunció una función que analizará las fotos enviadas y recibidas en la aplicación Mensajes hacia o desde niños para ver si estas son explícitas.

Apple también está desarrollando funciones en su asistente de voz digital Siri para intervenir cuando los usuarios busquen material abusivo.

El gigante tecnológico con sede en Cupertino, California, anticipó las tres nuevas funciones el jueves y dijo que estarán disponibles más adelante en 2021.

En caso de que Apple detecte fotos de niños sexualmente explícitas en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa e informadas al Centro Nacional para Ninos Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) que trabaja con agencias judiciales.

Apple dijo que las imágenes serán analizadas previamente en el iPhone y el iPad de un usuario en EE. UU. antes de cargarlas en la nube. Apple dijo que detectará este tipo de imágenes comparando fotos con una base de datos de material conocido de abuso sexual infantil, o CSAM, proporcionada por el NCMEC.

La compañía está utilizando una tecnología llamada NeuralHash que analiza imágenes y las convierte en una clave hash o un conjunto único de números. Luego, esa clave se compara con la base de datos mediante criptografía.

La Electronic Frontier Foundation (EFF, por sus siglas en inglés) dijo que Apple estaría actuando con estas nuevas herramientas de manera incongruente con sus tan promocionadas características de privacidad.

«Es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños», dijo la EFF en una publicación en su sitio web.

«Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado de mensajes y abrirá la puerta a otro tipo de abusos».

Otros investigadores también se mostraron preocupados. «Independientemente de los planes a largo plazo de Apple, la compañía envió una señal muy clara», escribió en Twitter Matthew Green, profesor de criptografía en la Universidad Johns Hopkins. «En su opinión (muy influyente), es seguro crear sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido».

Los críticos dijeron que la medida no se alinea con las campañas publicitarias de Apple «lo que sucede en su iPhone, se queda en su iPhone». «Esto traiciona completamente las garantías de privacidad de la empresa», escribió el periodista Dan Gillmor. «Este es solo el comienzo de lo que exigirán los Gobiernos de todo el mundo. Todos los datos estarán a su disposición. Si piensa lo contrario, está usted siendo muy ingenuo».

 


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!