Le projet d’Apple de scanner les téléphones pour détecter les abus sur les enfants inquiète les défenseurs de la vie privée


Le projet d'Apple de scanner les téléphones pour détecter les abus sur les enfants inquiète les défenseurs de la vie privée

pomme un annoncé jeudi de
nouvelles fonctionnalités pour iPhone, iPad, Apple Watch et Mac qui
devraient permettre de détecter et de signaler les images illégales d’abus
sexuels sur des enfants tout en préservant la vie privée des utilisateurs.
Elles entreront en action avec les mises à jour
iOS 15, iPad OS 15, MacOS Monterey et WatchOS 8 cet automne aux Etats-Unis.

L’un des systèmes utilisera des hachages cryptographiques pour identifier
les images illégales que les utilisateurs téléchargent sur
iCloud, sans qu’Apple ne fouille directement dans les galeries de photos des
utilisateurs, qui peuvent être chiffrées. L’analyse se fera sur le
terminal, avant que les images ne soient sauvegardées sur iCloud, avec
l’aide de bases de données fournies par le National Center for Missing and
Exploited Children.

Une autre fonctionnalité signalera les photos sexuellement explicites
envoyées via Apple Messages par ou à des utilisateurs possédant un compte
familial. Ce système utilise l’apprentissage automatique sur l’appareil
pour avertir les utilisateurs de contenus potentiellement problématiques.
Si des images abusives sont effectivement détectées, elles seront
transmises à des représentants d’Apple, qui agiront ensuite.

Un dispositif testé aux Etats-Unis

Ces fonctionnalités vont à être déployées immédiatement pour test aux
États-Unis et arriveront dans leur version finale via une mise à jour d’iOS 15.

Si certains observateurs du secteur ont applaudi les efforts d’Apple pour
lutter contre l’exploitation des enfants, ils ont également exprimé leur
crainte qu’une telle technologie ne soit en train de créer un système dont
pourraient abuser des régimes totalitaires. « Même si l’on peut croire
qu’Apple ne permettra pas que ces outils soient utilisés à mauvais escient,
il y a encore beaucoup de raisons de s’inquiéter », a tweeté Matthew Green,
professeur à l’université Johns Hopkins qui a travaillé sur les
technologies cryptographiques.

D’autres entreprises technologiques analysent les photos depuis des années.
Facebook et Twitter ont tous deux collaboré avec le National Center for
Missing and Exploited Children et d’autres organisations pour éradiquer les
images d’abus sexuels d’enfants sur leurs réseaux sociaux. Microsoft et
Google, quant à eux, utilisent une technologie similaire pour identifier
ces photos dans les courriels et les résultats de recherche.


Article de CNET.com adapté par CNETFrance

Image : Pomme



Source link