Tiempo aproximado de lectura: 2 minutos

Con la intención de ayudar a las autoridades, Apple planea revisar las fotografías que se encuentren en los dispositivos móviles y en la nube, para detectar pornografía infantil.

Apple

Según lo informa Financial Times, Apple creará un sistema llamado “neutralMatch”, que generará una alarma ” a un equipo de revisores humanos si cree que se detectan imágenes ilegales, quienes luego se pondrán en contacto con las autoridades si el material puede ser verificado”. 

La aplicación, neuralMatch fue entrenado con 200 mil imágenes conocidas de abuso sexual infantil las cuales fueron proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados, es decir que ese contenido servirá como base para comparar las fotografías.

Estas funciones iniciarán pruebas el próximo mes en los Estados Unidos y la compañía espera que esta tecnología se expanda y evolucione con el tiempo. “Las propuestas son el intento de Apple de encontrar un compromiso entre su propia promesa de proteger la privacidad de los clientes y las demandas de los gobiernos, las agencias de aplicación de la ley y los defensores de la seguridad infantil para obtener más ayuda en las investigaciones penales, incluido el terrorismo y la pornografía infantil.”

Aunque esta función no se ha lanzado, la preocupación entre los usuarios de Apple crece, pues este sistema no solo podría usarse para proteger a los menores, sino que también “Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y computadoras portátiles ”, dijo Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge.

El profesor y criptógrafo de la Universidad John Hopkins, Matthew Green también se pronunció sobre el tema en sus redes sociales “Estos sistemas se basan en una base de datos de ‘hash de medios problemáticos’ que usted, como consumidor, no puede revisar”.

Seguir Leyendo