Especialistas en seguridad alertan de nuevos planes de Apple y Europa para scanear iPhones de usuarios

 

 

Luego de la polémica por la idea de Apple de revisar las fotos de los usuarios de iPhones en búsqueda de imágenes de supuestos abusos infantiles y ante la arremetida de organizaciones civiles que reclamaron con justa razón el procedimiento, sumando una pésima comunicación corporativa, la mala idea fue postergada.

Pero aún no se sabe si los planes seguirán adelante, pues Apple aún no ha anunciado cuándo tiene la intención de introducir sus funciones de protección infantil, más aún cuando un equipo de investigadores ha publicado un informe que dice que planes similares tanto de Apple como de la Unión Europea representan un problema de seguridad nacional.

Según el reporte del influyente diario estadounidense The New York Times, el informe proviene de más de una docena de investigadores en ciberseguridad, que llevaron adelante su estudio incluso antes del anuncio  de Apple, y dicen que están publicando a pesar de la demora de Apple, con el fin de advertir a la UE sobre esta «tecnología peligrosa».

ASI ERA LA (MALA) IDEA

Originalmente, Apple contemplaba un conjunto de herramientas para proteger a los niños de la propagación de material de abuso sexual infantil (CSAM por sus siglas en inglés Child Sexual Abuse Material ) y una parte bloquearía las imágenes sospechosas de ser dañinas que se ven en iMessages y otra escanearía automáticamente las imágenes almacenadas en iCloud.

Organizaciones de DD.HH, Periodistas y usuarios, reclamaron sobre sus derechos de  privacidad y creían que el plan de Apple podría llevar a los gobiernos a exigir que la empresa escanee imágenes con fines políticos.

«Deseamos que esto hubiera salido un poco más claro para todos porque nos sentimos muy positivos y fuertes sobre lo que estamos haciendo, y podemos ver que ha sido ampliamente malentendido y  concedo, en retrospectiva, la introducción de estas dos características al mismo tiempo fue una receta para este tipo de confusión».

Craig Federighi de Apple

En resumen…. la idea se convirtió en un bumeran corporativo para una empresa como Apple, que enarbola varias banderas de DD.HH, igualdad y derechos, pero parece que en China las tiene embaladas y en este caso en particular, hubo una confusión impresentable,  así como muchas objeciones de las organizaciones de privacidad y los gobiernos.

Los autores del nuevo informe creen que la UE planea un sistema similar al de Apple en cómo buscaría imágenes de abuso sexual infantil. El plan de la UE va más allá, ya que también busca la delincuencia organizada y la actividad terrorista.

Please follow and like us:
0
fb-share-icon0
Tweet 44
, , , , , ,