La numérisation controversée des photos Apple CSAM retardée


Apple AirTag avec iPhone arrière

Eric Zeman / Autorité Android

TL;DR

  • La fonction de numérisation de photos Apple CSAM annoncée il y a un mois sera retardée.
  • Apple dit qu’il doit “prendre plus de temps au cours des prochains mois” pour peaufiner la fonctionnalité.
  • La politique verrait les photos des utilisateurs « numérisées » de manière algorithmique à la recherche de preuves de maltraitance d’enfants.

Début août, Pomme annoncé une nouvelle politique très controversée. Dans un effort pour lutter contre l’exploitation des enfants, la société a déclaré qu’elle commencerait à numériser en toute sécurité chaque photo que les gens téléchargent sur iCloud. Bien que cette analyse soit effectuée de manière algorithmique, tous les indicateurs de l’algorithme verraient un suivi d’un humain.

De toute évidence, le matériel d’abus sexuel d’enfants (CSAM) est un énorme problème que presque tout le monde veut combattre. Cependant, la politique CSAM d’Apple a mis beaucoup de gens mal à l’aise en raison de son caractère envahissant pour la vie privée. Maintenant, la société retarde le déploiement de la fonctionnalité (via 9to5Mac).

Voir également: Les meilleurs navigateurs Web de confidentialité pour Android

Apple a promis que son algorithme d’analyse du matériel utilisateur était incroyablement précis, affirmant qu’il y avait “une chance sur un billion par an de signaler de manière incorrecte un compte donné”. Cette promesse n’a pas arrêté le malaise, cependant. La déclaration d’Apple sur le retard le montre assez clairement :

Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la diffusion de matériel d’abus sexuel d’enfants. Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale.

La déclaration suggère qu’Apple ne déploiera pas cela de si tôt. « Au cours des prochains mois » pourrait signifier la fin de cette année ou peut-être jusqu’en 2022. Cela pourrait même être retardé indéfiniment.



Source link