Según se informa, Apple escaneará su iPhone en busca de imágenes de abuso infantil

Contenidos

Según informes creíbles, Apple planea comenzar a instalar software en iPhones en los Estados Unidos que escaneará automáticamente las fotos locales en busca de imágenes de abuso infantil. Según los informes, Apple solo escaneará las fotos cargadas en iCloud con esta tecnología, al menos al principio.

Actualizar: Apple ha confirmado gran parte de estos informes en un documento detallado.

¿Qué está haciendo Apple?

Los informes de los planes de Apple se originaron en El Financial Times y profesor de la Universidad Johns Hopkins Matthew Green, ambas fuentes de forma general confiables. De todos modos, hasta que Apple confirme que este es el caso, siempre existe la oportunidad de que esto no suceda. Según los informes, Apple mostró el plan a algunos académicos estadounidenses a principios de esta semana.

Según los informes, Apple utilizará un sistema que llama «neuralMatch» para escanear iPhones estadounidenses en busca de imágenes de abuso infantil.

Simplemente, un sistema automatizado alertaría a un equipo de revisores humanos si cree que se detectan imágenes ilegales. A partir de ahí, un miembro del equipo revisaría las imágenes y se pondría en contacto con la policía.

Técnicamente, esto no es nada nuevo: los sistemas de almacenamiento de fotos basados ​​en la nube y las redes sociales ya realizan este tipo de escaneo. La diferencia aquí es que Apple lo está haciendo a nivel de dispositivo. Según Matthew Green, inicialmente solo escaneará las fotos cargadas en iCloud, pero realizaría ese escaneo en el teléfono del usuario. “Inicialmente” es la keyword allí, puesto que muy bien podría usarse para escanear todas las fotos localmente en alguna vez.

Se supone que esto hace que el sistema sea menos invasivo, puesto que el escaneo se realiza en el teléfono y se envía solo si hay una coincidencia, lo que significa que no todas las fotos que cargue están sujetas a los ojos de extraños.

Según los asistentes a la sesión informativa, a cada foto subida a iCloud se le da un «vale de seguridad», que indica si es sospechosa o no. Cuando una cierta cantidad de imágenes se marcan como sospechosas, Apple las descifrará y las enviará a las autoridades si se encuentra algo que involucre abuso infantil.

¿Cómo diferenciará el sistema entre imágenes de abuso infantil y otras imágenes? Según el reporte, se ha probado en 200.000 imágenes de abusos sexuales recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.

Las imágenes se convierten en una cadena de números a través de hash y posteriormente se comparan con las imágenes de la base de datos.

Después de que salió todo esto, Apple se negó a comentar con Financial Times sobre lo que está sucediendo. A pesar de esto, suponemos que la compañía está trabajando en alguna declaración oficial antes de que los mensajes sobre este movimiento se salgan de control.

Esto sienta un precedente peligroso

Probablemente no necesitemos decirle lo aterrador que podría ser esto. Las personas que abusan de los niños deben ser atrapadas y castigadas, pero es fácil ver cómo algo como esto podría usarse para propósitos mucho más invasivos.

¿Se implementará una tecnología equivalente en otras plataformas, como Mac, PC con Windows y teléfonos Android? ¿Podrían países como China usarlo para detectar imágenes subversivas en los teléfonos de sus ciudadanos? Si llega a ser ampliamente aceptado, ¿podría la industria de los derechos de autor usarlo para comenzar a escanear en busca de contenido pirateado en unos pocos años?

E inclusive si funciona como se anuncia: Will gente inocente permanecer atrapado en el fuego cruzado?

Con suerte, esto no es tan preocupante como parece.

Suscribite a nuestro Newsletter

No te enviaremos correo SPAM. Lo odiamos tanto como tú.