7 agosto,2021 1:32 pm

Reaccionan a nuevo sistema de análisis de fotos de Apple contra el abuso sexual infantil

 

Ciudad de México, 7 de agosto de 2021. Con la finalidad de prevenir que niños caigan en redes de depredadores en línea, Apple implementará una serie de funciones que incluye el análisis de imágenes que sean consideradas como Material de abuso sexual infantil. No obstante, esta iniciativa generó una serie de reacciones en contra por considerarla como un nuevo sistema de vigilancia.

Apple anunció tres funciones de seguridad infantil que entrarán en vigor en el territorio estadunidense. La más criticada fue la revisión de dispositivos para identificar material de abuso sexual infantil (CSAM, por sus siglas en inglés).

Esta maniobra vincula al gobierno estadunidense, pues mediante una base de datos del Centro Nacional de Niños Desaparecidos y Maltratados (NCMEC, por sus siglas en inglés), se logrará un cruce de datos con Apple para detectar a usuarios que pudieran estar ligados con tráfico de menores.

En su blog, Apple afirma que el método de detección de contenido CSAM fue diseñado al tomar en cuenta la privacidad de los usuarios.

“En lugar de escanear las imágenes en la nube, el sistema hace una comparación en el dispositivo usando la base de datos de imágenes CSAM proporcionadas por NCMEC y otras organizaciones de protección infantil”, explicó la compañía de Cupertino California.

Antes de que una imagen sea almacenada en iCloud Fotos, se realiza un proceso en el dispositivo que compara las fotografías con el material CSAM, gracias a la tecnología criptográfica que determina si hay similitudes sin revelar el resultado.

El dispositivo crea un voucher criptográfico de seguridad que codifica el resultado de la comparación con otros datos cifrados acerca de la imagen. Este voucher es subido a iCloud Fotos, una vez que la imagen es almacenada en la nube.

Al respecto, Edward Snowden, activista por los derechos digitales y la libertad de expresión, manifestó su preocupación por esta disposición de Apple, pues afirma que abre una puerta para la vigilancia a nivel mundial.

“No importa lo bien intencionado que sea Apple. Está implementando vigilancia masiva en todo el mundo con esto. No se equivoquen, si pueden escanear en búsqueda de pornografía infantil hoy, pueden buscar cualquier cosa mañana. Convirtieron millones de dispositivos en agentes en cubierto”, alertó.

Denuncian un sistema de vigilancia Will Cathcart, jefe de WhatsApp, se sumó al rechazo pues dijo que Apple construyó un sistema de vigilancia para que pueda revisar todo y también darle oportunidad a los gobiernos de hacer lo mismo.

“Leo la información que Apple difundió ayer y estoy preocupado. Creo que es un movimiento erróneo y un retroceso para la privacidad de las personas en todo el mundo. La gente ha preguntado si adoptaremos este sistema en WhatsApp. La respuesta es no”, dijo Cathcart en un hilo de Twitter.

“En lugar de centrarse en facilitar que las personas informen sobre el contenido que se comparte con ellos, Apple ha creado un software que puede escanear todas las fotos privadas en tu teléfono, incluso fotos que no hayas compartido con nadie. Eso no es privacidad”.

Apple, al tanto de las críticas Luego de las reacciones en contra, Sebastian Marineau-Mes, vicepresidente de Software en Apple, envió un memorándum a su equipo en donde reconoce que hubo malos entendidos y que algunas personas están preocupadas por las implicaciones de la nueva tecnología, según reportes del sitio 9to5 Mac.

“Sabemos que algunas personas cayeron en malentendidos y más que algunos están preocupados por las implicaciones, pero continuaremos explicando y detallando las funciones para que la gente entienda lo que hemos creado”, compartió Marineau-Me.

Además de la revisión de los dispositivos, Apple actualizará la aplicación de Mensajes con tecnología de Machine Learning para alertar a los usuarios cuando reciban o envíen material gráfico sensible que pudiera afectar a niños.

Si un niño recibe una foto sexualmente explícita, automáticamente será cubierta por un filtro que impedirá la previsualización. En caso de que vea el contenido, se alertará a los padres.

Por otro lado, si un menor de edad intenta enviar material sexualmente explícito, se activará un protocolo similar que le advertirá de los riesgos que esto implica y que se notificará a los padres.

La compañía agregará servicios a las apps de Siri y Buscador para que padres de familia y niños accedan información detallada en caso de que se encuentren en situaciones adversas; además, estas aplicaciones intervendrán cuando los usuarios busquen material pornográfico que vincule a niños.

“Este programa es ambicioso y proteger a los niños es una responsabilidad importante. Estos esfuerzos evolucionarán y se expandirán con el tiempo”, aseguró Apple.

Texto: Carlos Flores / Agencia Reforma