Sábado, 16 De Mayo De 2026 | Puebla

Seguridad

Apple busca proteger a los niños de abusos con nueva herramienta

La noticia despertó preocupación en investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos

Apple busca proteger a los niños de abusos con nueva herramienta

Foto / Agencia Enfoque

Apple presentó el jueves nuevas herramientas que buscan detectar imágenes sexuales de niños almacenadas en su servidor iCloud, los casos serían reportados a las autoridades.

“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, informó el gigante informático.

La noticia despertó preocupación en investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.

La herramienta “neuralMatch” tiene el objetivo de hallar imágenes de abuso sexual infantil previamente identificadas sin comprometer los mensajes de los usuarios.

Te puede interesar:

Morena plagia campaña de Apple y le llueven críticas

Apple también está desarrollando funciones en su asistente de voz digital Siri para intervenir cuando los usuarios busquen material abusivo.

Además, Apple anticipó las tres nuevas funciones el jueves y dijo que estarán disponibles más adelante en 2021.

Si Apple detecta fotos de niños sexualmente explícitas en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa e informadas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) que trabaja con agencias judiciales.

La imagen será revisada por un trabajador, quien notificará a las autoridades si es necesario.

Te puede interesar:

¿Ser accionista de Tesla y Apple por tan sólo 100 pesos?

investigador en criptografía Matthew Green, de la Universidad Johns Hopkins, expresó su preocupación de que esta herramienta sea utilizada para inculpar a personas inocentes, ya que les podrían enviar imágenes inofensivas pero malintencionadas, diseñadas para que aparezcan como coincidentes con las de pornografía infantil.

“Los expertos son capaces de hacerlo con bastante facilidad'”, alertó Green.

TAGS