Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

Apple anunció planes para escanear su contenido de iCloud en busca de material de abuso sexual infantil (CSAM) en agosto de 2021 para proteger a los niños del abuso de los depredadores.

La compañía planeó lanzar una nueva función de detección de CSAM en iCloud Photos que buscaría dicho contenido e informaría a Apple sobre las imágenes coincidentes, manteniendo la privacidad del usuario.

Sin embargo, la nueva característica fue recibida con reacciones mixtas. Más de un año desde el anuncio inicial, Apple está abandonando oficialmente su plan para escanear fotos de iCloud en busca de CSAM.

Apple abandona su plan para escanear iCloud en busca de material de abuso infantil

Según un informe de CON CABLE, Apple se está alejando de su plan para escanear su iCloud en busca de contenido de abuso infantil. La herramienta escanearía fotos almacenadas en iCloud para encontrar aquellas que coincidan con imágenes conocidas de CSAM identificadas por organizaciones de seguridad infantil. Luego podría denunciar esas imágenes porque la posesión de imágenes CSAM es ilegal en la mayoría de las jurisdicciones, incluido EE. UU.

instagram viewer

Por qué Apple canceló su plan para escanear fotos de iCloud

Después del anuncio inicial en 2021, Apple se enfrentó a una reacción violenta de los clientes, grupos e individuos que abogaban por la privacidad y la seguridad digital en todo el mundo. Los iPhone suelen ofrecer más seguridad que los dispositivos Android, y muchos vieron esto como un paso atrás. Si bien fue una victoria para las organizaciones de seguridad infantil, más de 90 grupos de políticas escribieron una carta abierta a Apple más tarde ese mismo mes, diciéndole a la compañía que cancelara el plan.

La carta argumentaba que si bien la herramienta pretende proteger a los niños del abuso, podría aprovecharse para censurar la libertad de expresión y amenazar la privacidad y la seguridad del usuario. Debido a la creciente presión, Apple detuvo sus planes de lanzamiento para recopilar comentarios y realizar los ajustes necesarios en la función. Sin embargo, los comentarios no favorecieron el plan de Apple para escanear las fotos de iCloud, por lo que la compañía está abandonando oficialmente los planes para siempre.

En un comunicado a WIRED, la compañía dijo:

"Tenemos... decidió no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para nosotros todo."

El nuevo plan de Apple para proteger a los niños

Apple está redirigiendo sus esfuerzos para mejorar las funciones de Communication Safety anunciadas en agosto de 2021 y lanzadas en diciembre del mismo año.

La seguridad de la comunicación es opcional y los padres y tutores pueden usarla para proteger a los niños de enviar y recibir imágenes sexualmente explícitas en iMessage. La función desenfoca automáticamente dichas fotos y se advertirá al niño sobre los peligros involucrados. También advierte a cualquier persona si intenta buscar MASI en dispositivos Apple.

Con los planes para lanzar una herramienta de detección de CSAM cancelados, la compañía espera mejorar aún más la función y expandirla a más aplicaciones de comunicación.