Apple retarde le déploiement de la détection CSAM dans iOS 15 après un contrecoup de la confidentialité – TechCrunch


Apple a retardé le déploiement de sa technologie de détection des abus sexuels sur enfants (CSAM) qu’il annoncé de façon chaotique le mois dernier, citant les commentaires des clients et des groupes de politiques.

Cette rétroaction, si vous vous en souvenez, a été largement négatif. L’Electronic Frontier Foundation a déclaré cette semaine avoir amassé plus de 25 000 signatures de consommateurs. De plus, près de 100 groupes politiques et de défense des droits, dont l’American Civil Liberties Union, ont également appelé sur Apple d’abandonner son projet de déploiement de la technologie.

Dans une déclaration vendredi matin, Apple a déclaré à TechCrunch :

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d’abus sexuel d’enfants. Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale.

La technologie dite NeuralHash d’Apple est conçue pour identifier le CSAM connu sur l’appareil d’un utilisateur sans avoir à posséder l’image ou à connaître le contenu de l’image. Étant donné que les photos d’un utilisateur stockées dans iCloud sont cryptées afin que même Apple ne puisse pas accéder aux données, NeuralHash recherche à la place des CSAM connus sur l’appareil d’un utilisateur, qu’Apple les revendications sont plus respectueuses de la vie privée que l’analyse globale actuelle utilisée par les fournisseurs de cloud.

Mais les experts en sécurité et les défenseurs de la vie privée ont exprimé leur inquiétude quant au fait que le système pourrait être abusé par des acteurs aux ressources considérables, comme les gouvernements, pour impliquer des victimes innocentes ou pour manipuler le système afin de détecter d’autres éléments que les États-nations autoritaires trouvent répréhensibles.

Quelques semaines après l’annonce de la technologie, les chercheurs ont déclaré qu’ils étaient capables de créer des « collisions de hachage » à l’aide de NeuralHash, efficacement tromper le système en pensant que deux images entièrement différentes étaient identiques.

iOS 15 devrait sortir plus tard dans les prochaines semaines.

Ce rapport a été mis à jour avec plus de détails sur NeuralHash et pour clarifier les photos iCloud sont cryptées mais pas cryptées de bout en bout.

Lire la suite:



Source link