En agosto de 2021, Apple reveló sus planes de escanear iPhones en busca de imágenes de abuso sexual infantil. La medida provocó el aplauso de los grupos de protección infantil, pero generó preocupaciones entre los expertos en privacidad y seguridad de que la función podría ser mal utilizada.

Apple inicialmente planeó incluir la tecnología de escaneo de Material de Abuso Sexual Infantil (CSAM) en iOS 15; en cambio, ha retrasado indefinidamente el lanzamiento de la función para solicitar comentarios antes de su lanzamiento completo.

Entonces, ¿por qué la función de detección de CSAM se convirtió en un tema de acalorado debate y qué hizo que Apple pospusiera su implementación?

¿Qué hace la función de escaneo de fotos de Apple?

Apple anunció que implementará la función de escaneo de fotografías con la esperanza de combatir el abuso sexual infantil. Todas las fotos en los dispositivos de los usuarios de Apple serán escaneadas en busca de contenido pedofílico usando el algoritmo "NueralHash" creado por Apple.

instagram viewer

Además, cualquier dispositivo Apple utilizado por niños tendría una función de seguridad que automáticamente difuminar las imágenes de adultos si las recibe un niño, y se advertirá al usuario dos veces si intenta abrir ellos.

Además de minimizar la exposición al contenido para adultos, si los padres registran los dispositivos que son propiedad de sus hijos para seguridad adicional, los padres serán notificados en caso de que el niño reciba contenido explícito de alguien en línea.

Lee mas: Lo que necesita saber sobre las protecciones de seguridad infantil de Apple

En cuanto a los adultos que usan Siri para buscar cualquier cosa que sexualice a los niños, Siri no hará esa búsqueda y sugerirá otras alternativas en su lugar.

Los datos de cualquier dispositivo que contenga 10 o más fotos que los algoritmos consideren sospechosos serán descifrados y sometidos a revisión humana.

Si esas fotos o cualquier otra en el dispositivo resultan coincidir con algo de la base de datos proporcionada por Centro Nacional para Niños Desaparecidos y Explotados, se informará a las autoridades y se suspenderá la cuenta del usuario.

Principales preocupaciones sobre la función de escaneo de fotografías

La función de detección de CSAM se habría activado con el lanzamiento de iOS 15 en septiembre de 2021, pero en la cara de protesta generalizada, Apple decidió tomarse más tiempo para recopilar comentarios y realizar mejoras en este característica. Aquí está Declaración completa de Apple sobre el retraso:

"El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizar herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del abuso sexual infantil Material.

Basándonos en los comentarios de clientes, grupos de defensa, investigadores y otros, hemos decidido dedicar más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de publicar estos temas de seguridad infantil de importancia crítica características".

Casi la mitad de las preocupaciones relacionadas con la función de escaneo de fotos de Apple giran en torno a la privacidad; el resto de los argumentos incluyen la probable inexactitud de los algoritmos y el posible uso indebido del sistema o sus lagunas.

Vamos a dividirlo en cuatro partes.

Posible mal uso

Saber que cualquier material que coincida con pornografía infantil o imágenes conocidas de abuso sexual infantil incluirá un dispositivo en la lista de "sospechosos" puede poner en movimiento a los ciberdelincuentes.

Pueden bombardear intencionalmente a una persona con contenido inapropiado a través de iMessage, WhatsApp o cualquier otro medio y hacer que se suspenda la cuenta de esa persona.

Apple ha asegurado que los usuarios pueden presentar una apelación en caso de que sus cuentas hayan sido suspendidas debido a un malentendido.

Abuso de información privilegiada

Aunque está diseñada para una causa benévola, esta función puede convertirse en un desastre total para ciertas personas si sus dispositivos son registrados en el sistema, con o sin su conocimiento, por familiares interesados ​​en monitorear su comunicación.

Incluso si eso no sucede, Apple ha creado una puerta trasera para que los datos de los usuarios sean accesibles al final del día. Ahora es una cuestión de motivación y determinación que las personas accedan a la información personal de otras personas.

Relacionado: ¿Qué es una puerta trasera y qué hace?

No solo facilita una violación importante de la privacidad, sino que también allana el camino para situaciones abusivas, tóxicas o controladoras. parientes, tutores, amigos, amantes, cuidadores y ex para invadir aún más el espacio personal de alguien o restringir su libertad.

Por un lado, está destinado a combatir el abuso sexual infantil; por el otro, se puede utilizar para perpetuar aún más otros tipos de abuso.

Vigilancia gubernamental

Apple siempre se ha promocionado como una marca más consciente de la privacidad que sus competidores. Pero ahora, podría estar entrando en una pendiente resbaladiza de tener que cumplir con las demandas interminables de transparencia en datos de usuario por gobiernos.

El sistema que ha creado para detectar contenido pedófilo se puede utilizar para detectar cualquier tipo de contenido en los teléfonos. Eso significa que los gobiernos con una mentalidad de culto pueden monitorear a los usuarios a un nivel más personal si lo ponen en sus manos.

Opresiva o no, la participación del gobierno en su vida diaria y personal puede ser desconcertante y es una invasión de su privacidad. La idea de que solo debe preocuparse por tales invasiones si ha hecho algo mal es un pensamiento erróneo y no puede ver la pendiente resbaladiza antes mencionada.

Alarmas falsas

Una de las mayores preocupaciones del uso de algoritmos para hacer coincidir imágenes con la base de datos son las falsas alarmas. Los algoritmos de hash pueden identificar erróneamente dos fotos como coincidencias incluso cuando no son iguales. Estos errores, llamados "colisiones", son especialmente alarmantes en el contexto del contenido de abuso sexual infantil.

Los investigadores encontraron varias colisiones en "NeuralHash" después de que Apple anunciara que usaría el algoritmo para escanear imágenes. Apple respondió las consultas sobre falsas alarmas señalando que el resultado será revisado por un humano al final, por lo que la gente no tiene que preocuparse por eso.

¿La pausa CSAM de Apple es permanente?

Hay muchos pros y contras de la función propuesta por Apple. Cada uno de ellos es genuino y tiene peso. Todavía no está claro qué cambios específicos podría introducir Apple en la función de escaneo CSAM para satisfacer a sus críticos.

Podría limitar el escaneo a álbumes compartidos de iCloud en lugar de involucrar a los dispositivos de los usuarios. Es muy poco probable que Apple abandone estos planes por completo, ya que la empresa no suele estar dispuesta a ceder en sus planes.

Sin embargo, está claro por la reacción generalizada y la demora de Apple en sus planes, que Las empresas deben incorporar a la comunidad investigadora desde el principio, especialmente para un tecnología.

CuotaPíoCorreo electrónico
Seguridad en Internet: más de 50 consejos para mantener seguros a sus hijos en línea

Los niños son los principales objetivos de los depredadores en línea y los ciberacosadores. Estos útiles consejos pueden enseñar a los padres cómo mantenerlos seguros en línea.

Leer siguiente

Temas relacionados
  • Seguridad
  • IPhone
  • Privacidad del teléfono inteligente
  • manzana
  • Privacidad en línea
  • Vigilancia
Sobre el Autor
Fawad Ali (19 Artículos publicados)

Fawad es ingeniero de TI y comunicaciones, aspirante a emprendedor y escritor. Entró en el ámbito de la redacción de contenidos en 2017 y ha trabajado con dos agencias de marketing digital y numerosos clientes B2B y B2C desde entonces. Escribe sobre seguridad y tecnología en MUO, con el objetivo de educar, entretener e involucrar a la audiencia.

Más de Fawad Ali

Suscríbete a nuestro boletín

¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!

Haga clic aquí para suscribirse