Apple escanea iPhones estadounidenses en busca de imágenes de abuso sexual infantil

6 min read
Apple escanea iPhones estadounidenses en busca de imágenes de abuso sexual infantil

Los grupos de protección infantil aplaudieron el anuncio. Pero algunos investigadores de seguridad temen que el sistema pueda ser mal utilizado. Apple revela planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil. Provocó aplausos de los grupos de protección infantil. Pero a algunos investigadores de seguridad les preocupa que se pueda hacer un mal uso del sistema. Incluso por parte de gobiernos que quieren monitorear a sus ciudadanos. Una herramienta diseñada para detectar imágenes conocidas. de abuso sexual infantil llamado «neuralMatch» escanea imágenes antes de cargarlas en iCloud si encuentra una coincidencia. Las fotos serán revisadas por el personal. Si se confirma la pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados. Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexual explícito para Es una medida de seguridad infantil que también alarma a los defensores de la privacidad. El sistema de detección marca sólo imágenes que ya están en la base de datos de pornografía infantil conocida del Centro. Los padres que toman fotografías de niños inocentes en el baño probablemente no tengan que preocuparse. Pero los investigadores dicen que el motor de comparación, que no «ve» la imagen, es simplemente una «huella digital» matemática de su representación. Podría usarse para propósitos más nefastos, advierte Matthew Green, un destacado investigador de criptografía de la Universidad Johns Hopkins. Se puede utilizar para incriminar a personas inocentes enviándoles imágenes aparentemente inofensivas diseñadas para desencadenar coincidencias con pornografía infantil. Eso podría engañar a los algoritmos de Apple y alertar a las autoridades. «Los investigadores pueden hacer esto fácilmente», dijo sobre la capacidad del sistema para engañar. Potencial de abuso Otras violaciones Esto puede incluir la vigilancia gubernamental de disidentes o manifestantes. “¿Qué sucede cuando el gobierno chino dice… ‘Aquí hay una lista de archivos que queremos que usted analice'», preguntó Green. «¿Apple lo negó? Espero que se nieguen. Pero su tecnología no será rechazada”, dijeron empresas tecnológicas como Microsoft, Google, Facebook y otras. Ha tardado años en compartir las huellas digitales de imágenes conocidas de abuso sexual infantil. Apple las utiliza para escanear archivos de usuario almacenados en su servicio iCloud, que no están cifrados de forma tan segura como los datos. En los dispositivos de pornografía infantil, Apple ha estado bajo presión gubernamental. durante años para proporcionar una mayor vigilancia de los datos cifrados. Con las nuevas medidas de seguridad, Apple debe lograr un delicado equilibrio entre la lucha contra la explotación infantil. Si bien mantiene un alto nivel de compromiso con la protección de la privacidad del usuario, la sombría Electronic Frontier Foundation, pionera en derechos civiles en línea, lo ha llamado Los compromisos de Apple en la protección de la privacidad «Es una sorpresa para los usuarios que han llegado a confiar en el liderazgo de la empresa en materia de privacidad y seguridad», afirmó el científico informático que inventó PhotoDNA hace más de una década, una tecnología utilizada por las agencias reguladoras. elogió el potencial de abuso de los sistemas de Apple, pero dijo que había más que la inevitable necesidad de combatir el abuso sexual infantil. «¿Es posible? Por supuesto, pero ¿es algo que me preocupa? No”, dijo Hany Farid, investigador de la Universidad de California en Berkeley, argumentando que otro software Muchos están diseñados para proteger los dispositivos de diversas amenazas. No lo he visto todavía. “Este tipo de misión arrastrada” WhatsApp, por ejemplo, ofrece a los usuarios cifrado de extremo a extremo para proteger la privacidad. Pero también utiliza sistemas para detectar malware y advertir a los usuarios que no hagan clic en enlaces maliciosos. ‘Apple que cambia las reglas del juego’ Fue una de las primeras empresas importantes en utilizar «cifrado de extremo a extremo», en el que los mensajes se codifican para que sólo el remitente y el receptor puedan leerlos. Sin embargo, las autoridades policiales han presionado durante mucho tiempo a la empresa para que acceda a esa información para investigar delitos como el terrorismo. o la explotación sexual de niños. Apple dice que los últimos cambios se implementarán este año como parte de una actualización del software operativo para iPhone, Mac y Apple Watch. «Las protecciones infantiles ampliadas de Apple están cambiando el juego», John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, dijo en un comunicado. «A medida que más personas utilizan los productos Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas de niños», afirmó Julia Cordua, directora ejecutiva de Thorn. La tecnología de Apple logra un equilibrio entre “Necesidades de privacidad y seguridad digital para los niños” Thorn, una organización sin fines de lucro fundada por Demi Moore y Ashton Kutcher, utiliza la tecnología para ayudar a proteger a los niños del abuso sexual identificando a las víctimas y trabajando con una plataforma tecnológica romper la seguridad Pero en duras críticas El Centro para la Democracia y la Tecnología, una organización sin fines de lucro con sede en Washington, pidió a Apple que abandone los cambios. que se dice que destruye la garantía de la compañía en «Cifrado de extremo a extremo» efectivo Escanear mensajes en busca de contenido sexual explícito en un teléfono o computadora es efectivamente una violación de seguridad. La organización también cuestionó la tecnología de Apple para distinguir entre contenido malicioso y otra cosa. Tan dócil como un arte o un meme, CDT dijo en un comunicado enviado por correo electrónico que la tecnología era propensa a sufrir errores. Apple negó que el cambio fuera una puerta trasera que debilitara el cifrado. Dijo que fueron innovaciones cuidadosamente consideradas que no interfieren con la privacidad de los usuarios pero protegen estrictamente la privacidad. Apple dice que la aplicación de mensajería utilizará el aprendizaje automático en el dispositivo para identificar y difuminar fotos, información sexual explícita en los teléfonos de los niños y también puede advertir a los padres sobre niño pequeño a través de mensaje de texto También dijo que el software «interferiría» cuando los usuarios intentaran buscar temas relacionados con el abuso sexual infantil. Los padres deben registrar el teléfono de sus hijos para recibir una advertencia sobre imágenes sexualmente explícitas en su dispositivo. Los niños mayores de 13 años pueden darse de baja, lo que significa que los padres del adolescente no serán notificados. Apple dice que no hay ninguna característica que pueda afectar la seguridad de las comunicaciones privadas o alertar a la policía.

Source link

You May Also Like

More From Author

+ There are no comments

Add yours