¡Comparte en redes sociales!

Apple revisará tus fotos para prevenir imágenes de abuso sexual infantil

Apple ha creado un nuevo sistema que analizará las fotos que se suban a la nube en busca de imágenes de contenido sexual infantil. Esta novedosa tecnología escaneará las imágenes antes de que se guarden en iCloud para identificar prácticas de abuso sexual a menores.

Aunque el nuevo sistema será automático, en el momento que encontrará una coincidencia o posible imagen sospechosa de abuso, saltaría una alerta y una persona se encargaría de evaluar la imagen e incluso, poner en conocimiento de la policía el caso.

De nuevo otro ataque a la privacidad

Si la semana pasada ya hablábamos del riesgo para nuestra privacidad con las cartas en QR, esta noticia no se queda lejos. Y es que la preocupación que está generando está noticia es alarmante ya que está misma tecnología podría usarse para buscar cualquier tipo de información en nuestros teléfonos. 

Nueva Medida De Apple, Revisará Tus Fotos Para Prevenir Imágenes De Abuso Infantil

Apple quiere empezar a incorporar esta nueva tecnología llamada NeuralHash a finales de este 2021 en sus dispositivos IOS, watchOS, macOS y iPadOs. En el comunicado explican que tendrán “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de abuso sexual a menores online”, mientras se diseña para la privacidad del usuario. La detección de abuso sexual a menores “online” ayudará a Apple a proporcionar información valiosa a las fuerzas del orden sobre las colecciones en iCloud Photos.”

¿Cómo funciona?

NeuralHash compara las fotografías con una base de datos de imágenes de abuso sexual infantil propiedad del Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos. Dichas imágenes se convierten en códigos numéricos que de coincidir con las imágenes escaneadas, generarían la alerta.

En el comunicado podíamos leer que también implementarán otra medida para la seguridad de los niños. La aplicación Mensajes será capaz de detectar imágenes de contenido sexual y además, en el caso de que el usuario sea un niño, difuminarlas alertando al niño del contenido de esa fotografía y a los padres también.

Siri también será “formada” para ayudarnos con las denuncias de abuso sexual a menores. En el caso de que un usuario quiera denunciar un caso, Siri le guiará paso a paso para poder realizar la denuncia.

¿Y a ti, qué te parece la nueva medida de Apple? 

¿Realmente busca únicamente luchar contra el abuso sexual infantil ‘online’ o aprovechará la tesitura como una puerta para robo de información?

Avatar Of Eip

Suscríbete a nuestra newsletter para estar al día de todas las novedades

Información básica sobre protección de datos.
Responsable del tratamiento: Mainfor Soluciones Tecnológicas y Formación S.L.U.
Finalidad: Gestionar su suscripción a la newsletter.
Legitimación para el tratamiento: Consentimiento explícito del interesado otorgado al solicitar la inscripción.
Cesión de datos: No se cederán datos a terceros, salvo obligación legal.
Derechos: Podrá ejercitar los derechos de Acceso, Rectificación, Supresión, Oposición, Portabilidad y, en su caso Limitación, como se explica en la información adicional.
Información adicional: Puede consultar la información adicional y detallada sobre Protección de Datos en https://www.mainfor.edu.es/politica-privacidad
Master Ciberseguridad

Leave a Comment