Apple dice que las fotos en iCloud serán verificadas por el sistema de detección de abuso infantil

Apple Inc dijo el lunes que se revisarán todas las bibliotecas de fotos de los usuarios de iPhone en busca de imágenes conocidas de abuso infantil si se almacenan en el servicio en línea de iCloud.

La revelación se produjo durante una serie de conferencias de prensa en las que Apple busca disipar la alarma tras su anuncio la semana pasada de que escaneará los teléfonos, tabletas y computadoras de los usuarios en busca de millones de imágenes ilegales. Mientras Google, Microsoft y otras plataformas tecnológicas verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una base de datos de credenciales proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados y otros centros de intercambio, los expertos en seguridad han considerado que el plan de Apple es más invasivo.

Algunos han dicho que esperan que los gobiernos busquen obligar al fabricante del iPhone a expandir el sistema para buscar otros materiales en los dispositivos. En una publicación en su sitio web el domingo, Apple dijo que lucharía contra esos intentos, que pueden ocurrir en tribunales secretos.

«Ya hemos enfrentado solicitudes para crear e implementar cambios exigidos por el gobierno que degraden la privacidad del usuario, y hemos rechazado firmemente esas solicitudes», escribió Apple. «Continuaremos rechazándolos en el futuro». Durante la sesión informativa del lunes, los funcionarios de Apple dijeron que el sistema de la compañía, que se implementará este otoño con el lanzamiento de su sistema operativo iOS 15, buscará archivos existentes en el dispositivo de un usuario, si los usuarios han sincronizado estas fotos con los servidores de almacenamiento de la compañía.

Julie Cordua, directora ejecutiva de Thorn, un grupo que ha desarrollado tecnología para ayudar a los funcionarios encargados de hacer cumplir la ley a detectar el tráfico sexual, dijo que aproximadamente la mitad del material de abuso sexual infantil está en formato de video. El sistema de Apple no verifica los videos antes de que se carguen en la nube de la compañía, pero la compañía dijo que planea expandir su sistema de formas no especificadas en el futuro.

Apple ha estado bajo presión internacional por el bajo número de informes de abuso en comparación con otros proveedores. Algunas jurisdicciones europeas están debatiendo legislación para que las plataformas sean más responsables de la difusión de dicho contenido. Los ejecutivos de la compañía argumentaron el lunes que los controles en los dispositivos preservaban la privacidad más que los controles directos en el almacenamiento en la nube de Apple. Entre otras cosas, la arquitectura del nuevo sistema no le dice nada a Apple sobre el contenido de un usuario a menos que se haya excedido un número límite de imágenes, lo que luego desencadena una revisión humana.

Los ejecutivos reconocieron que un usuario podría verse implicado por actores malintencionados que toman el control de un dispositivo e instalan de forma remota material conocido de abuso infantil. Pero dijeron que esperaban que tales ataques fueran muy raros y, en cualquier caso, una revisión buscaría otros signos de piratería criminal.

(Esta historia no fue editada por el personal de Devdiscourse y se genera automáticamente a partir de un feed sindicado).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *