+ INFORMACIÓN

¡Comparte en redes sociales!

Apple revisará tus fotos para prevenir imágenes de abuso sexual infantil

Apple ha creado un nuevo sistema que analizará las fotos que se suban a la nube en busca de imágenes de contenido sexual infantil. Esta novedosa tecnología escaneará las imágenes antes de que se guarden en iCloud para identificar prácticas de abuso sexual a menores.

Aunque el nuevo sistema será automático, en el momento que encontrará una coincidencia o posible imagen sospechosa de abuso, saltaría una alerta y una persona se encargaría de evaluar la imagen e incluso, poner en conocimiento de la policía el caso.

De nuevo otro ataque a la privacidad

Si la semana pasada ya hablábamos del riesgo para nuestra privacidad con las cartas en QR, esta noticia no se queda lejos. Y es que la preocupación que está generando está noticia es alarmante ya que está misma tecnología podría usarse para buscar cualquier tipo de información en nuestros teléfonos. 

nueva medida de apple, revisará tus fotos para prevenir imágenes de abuso infantil

Apple quiere empezar a incorporar esta nueva tecnología llamada NeuralHash a finales de este 2021 en sus dispositivos IOS, watchOS, macOS y iPadOs. En el comunicado explican que tendrán «nuevas aplicaciones de criptografía para ayudar a limitar la propagación de abuso sexual a menores online», mientras se diseña para la privacidad del usuario. La detección de abuso sexual a menores «online» ayudará a Apple a proporcionar información valiosa a las fuerzas del orden sobre las colecciones en iCloud Photos.”

¿Cómo funciona?

NeuralHash compara las fotografías con una base de datos de imágenes de abuso sexual infantil propiedad del Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos. Dichas imágenes se convierten en códigos numéricos que de coincidir con las imágenes escaneadas, generarían la alerta.

En el comunicado podíamos leer que también implementarán otra medida para la seguridad de los niños. La aplicación Mensajes será capaz de detectar imágenes de contenido sexual y además, en el caso de que el usuario sea un niño, difuminarlas alertando al niño del contenido de esa fotografía y a los padres también.

Siri también será “formada” para ayudarnos con las denuncias de abuso sexual a menores. En el caso de que un usuario quiera denunciar un caso, Siri le guiará paso a paso para poder realizar la denuncia.

¿Y a ti, qué te parece la nueva medida de Apple? 

¿Realmente busca únicamente luchar contra el abuso sexual infantil ‘online’ o aprovechará la tesitura como una puerta para robo de información?

Suscríbete a nuestra newsletter para estar al día de todas las novedades

EIP International Business School te informa que los datos del presente formulario serán tratados por Mainjobs Internacional Educativa y Tecnológica, S. A. como responsable de esta web. La finalidad de la recogida y tratamiento de los datos personales es para dar respuesta a la consulta realizada así como para el envío de información de los servicios del responsable del tratamiento. La legitimación es el consentimiento del interesado.
Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en cumplimiento@grupomainjobs.com así como el derecho a presentar una reclamación ante la autoridad de control. Puedes consultar la información adicional y detallada sobre Protección de datos en la Política de Privacidad que encontrarás en nuestra página web
Master Ciberseguridad Máster Profesional

Deja un comentario