Saltar al contenido
Cadalink

Apple Analizará Los Iphones Y Las Fotos De Icloud Para Combatir El Abuso Menor

Apple anunció la implementación de un nuevo sistema que tiene como objetivo ayudar a combatir el abuso más pequeño desde el análisis de las fotos de iPhones almacenadas en iCloud. El recurso es uno de los esfuerzos que la compañía está presentando el enfoque en la protección de los niños, y utilizará algoritmos capacitados para identificar material de abuso infantil (que la compañía llamada “CSAM”, en el acrónimo de inglés, este material consiste en contenido que revela Actividades sexualmente explícitas relacionadas con los niños.

  • huecos en música de manzana, fotos e iMessage se utilizaron para espiar iPhones
  • Cómo eliminar una copia de seguridad de iCloud

Apple dice que el sistema preserva la privacidad de los usuarios

La compañía afirma que el proceso es seguro y se pensó que preservara el Privacidad de los usuarios. Según Apple, las garantías son que no almacena ningún tipo de imágenes basadas en imágenes que no coinciden con la base de datos relacionada con la CSAM, proporcionada por el Centro Nacional de Falta y exploró a los NIÑOS.

de Esto, la compañía dice que “el riesgo del sistema que indica incorrectamente una cuenta extremadamente baja”, más específicamente, menos de 1 en 1 billones de cuentas por año podría ser señalizada indebidamente. Aun así, la compañía contará con el análisis manual de todas las alertas que convierten los informes de las autoridades, para evitar errores de IA.

Los usuarios no tienen acceso a la base de datos de CSAM y también es No advirtió sobre el contenido que fue marcado como CSAM por el sistema de Apple.

¿Cómo funciona el sistema?

La explicación dada por Apple dice, en términos prácticos, antes de que se almacene una imagen. En iCloud, sufre un proceso de correspondencia en el propio dispositivo. La acción busca estándares y los compara con un conjunto ilegible de hashes de contenido de CSAM conocido, todo esto cubierto por el cifrado. Las imágenes guardadas solo localmente no pasan por este proceso.

De esta manera, es posible que Apple identifique si una imagen hash corresponde a un hash de la base de datos sin adquirir conocimiento sobre cualquier otro aspecto del contenido.

Si el proceso se coincide, el dispositivo codificará el resultado positivo. Estos resultados no pueden ser interpretados por Apple hasta que la cuenta de iCloud excede un límite establecido de resultados positivos: el número no fue revelado por la Compañía.

Al llegar al límite, Apple debe analizar el análisis manual para analizar manualmente el informe a Confirme el resultado y puede bloquear la cuenta de usuario al enviar un informe al Centro Nacional para los Niños Falta y Explorados.

Problemas de tipo de sistema adoptados por Apple

Una herramienta que escaneará todo El contenido que almacena en las fotos de Icloud, aunque con la promesa de privacidad, plantea varias preguntas y críticas.

primero, la mera posibilidad de la pregunta de la característica: si no fuera Apple, sino de una autoridad gubernamental detrás ¿el sistema? ¿Cuál es la garantía de que esto no puede ser una puerta para algo mucho más ambicioso y complejo, que cae en las manos equivocadas puede llevar a la persecución a las personas?

Como especialista en cifrado Matthew Green Aspectos destacados en Twitter, aunque Apple hace una herramienta de “buena”, la base de datos utilizada por la compañía no puede ser revisada por el consumidor. No hay manera de asegurarse de lo que se está utilizando como estándar. Vale la pena recordar que la manzana puede haber renunciado al cifrado de extremo a extremo en la copia de seguridad de iCloud por la presión del FBI, lo que pone en duda sobre dónde está el aprecio de la privacidad alabado por la empresa.

, el sistema Puede acusar falso positivo, ya que precisamente para buscar una mayor eficiencia, los parámetros utilizados en el análisis no funcionan como un código inmutable perfecto para cada imagen: el sistema puede leer e interpretar distintas señales para detectar cambios en el contenido potencialmente dañino. Esto también significa que hay posibilidades de que haya un contenido perfectamente “limpio” para ser clasificado como error.

Finalmente, hay una pregunta aún más problemática: el sistema puede ser explorado por personas mal intencionadas para dañar a terceros. Sin su conocimiento. Como inofensivos ha coincide con los estándares bancarios de la CSAM de Apple, es posible que alguien también cree un archivo que pueda compartirse sin ningún problema visual, sino tener un hash problemático.

La acción podría hacer con eso una persona o una La herramienta de Apple se nocte el grupo de personas, que, en un límite que no sabemos, podría conducir a la suspensión de la cuenta, causando varios trastornos.

Por ahora, la compañía no no tenía ninguna declaración sobre la crítica. Pero a la luz de las nuevas características, queda por saber cómo la manzana tiene la intención de solucionar las alertas elevadas.

Inicialmente, el sistema llega a los usuarios en los Estados Unidos, pero la compañía tiene planes para ampliar la apelación. a otros países. / P>

con información: Apple, 9to5mac.