SPUTNIK/ En agosto de este año, Apple anunció que introduciría un sistema para revisar las fotos en los dispositivos de sus clientes con el fin de buscar pornografía infantil.

A pesar de que la compañía estadounidense hizo hincapié en la seguridad de los niños y niñas de todo el mundo, el nuevo sistema generó una oleada de críticas. El principal temor de los usuarios es que su privacidad será violada, puesto que las fotos serían revisadas al ser guardadas en el iCloud.

Estaba previsto que el sistema fuera introducido en septiembre con las versiones actualizadas de los sistemas operativos iOSiPadOSwatchOS y macOS. Sin embargo, basándose en las reacciones de los clientes y de las organizaciones protectoras de derechos, Apple decidió posponer la introducción del nuevo sistema por un tiempo indeterminado.

Apple informó que se tomará «más tiempo a lo largo de los siguientes meses para recolectar información e introducir mejoras antes de lanzar las funciones de seguridad infantil».

El nuevo sistema permite contrastar las fotos guardadas por los usuarios con las que existen en una base de imágenes que fueron confirmadas como pornografía infantil. Apple informó a la hora de anunciar este sistema que harían falta 30 imágenes reconocidas en modo automático para que una cuenta de usuario sea marcada y la revise un humano.