L’annonce inattendue d’Apple la semaine dernière selon laquelle il ajoutait un tas de fonctionnalités à iOS impliquant du matériel d’abus sexuel d’enfants (CSAM) a généré une réaction tout à fait prévisible. Ou, plus précisément, des réactions. Ceux du côté des forces de l’ordre ont félicité Apple pour son travail, et ceux du côté des libertés civiles ont accusé Apple de transformer les iPhones en appareils de surveillance.
Il n’est pas du tout surprenant que l’annonce d’Apple fasse l’objet d’un examen minutieux. S’il y a quelque chose de surprenant dans toute cette histoire, c’est qu’Apple ne semble pas avoir anticipé tout le recul que son annonce a reçu. L’entreprise a dû poster un fichier Foire Aux Questions en réponse. Si les Q sont en cours d’exécution à la suite de votre annonce, vous avez probablement bâclé votre annonce.
Une telle annonce mérite examen minutieux. Le problème pour ceux qui cherchent à laisser tomber leurs points chauds sur cette question est qu’elle est extrêmement compliquée et qu’il n’y a pas de réponses faciles. Cela ne signifie pas que l’approche d’Apple est fondamentalement bonne ou mauvaise, mais cela signifie qu’Apple a fait des choix qui méritent d’être explorés et débattus.
Le compromis d’Apple
Je ne sais pas trop pourquoi Apple a choisi ce moment pour déployer cette technologie. Le responsable de la confidentialité d’Apple laisse entendre qu’il est parce que c’était prêt, mais c’est un peu une esquive : Apple doit choisir les technologies à privilégier, et elle a donné la priorité à celle-ci. Apple peut anticiper des exigences légales pour rechercher CSAM. Il est possible qu’Apple travaille sur des fonctionnalités de sécurité iCloud accrues qui nécessitent cette approche. Il est également possible qu’Apple ait simplement décidé qu’il devait faire plus pour arrêter la distribution de CSAM.
Le plus grand indice sur les motivations d’Apple est la manière très spécifique dont cette fonctionnalité a été implémentée. je t’épargnerai le longue explication, mais en bref : Apple compare des images à un hacher d’images illégales compilées par le Centre national pour les enfants disparus et exploités. Il numérise de nouvelles images qui vont être synchronisées avec iCloud Photos. Il ne numérise pas toutes les photos de votre appareil et Apple ne numérise pas toutes les photos qu’il stocke sur ses serveurs iCloud.
En bref, Apple a construit un détecteur CSAM qui se trouve à la porte entre votre appareil et iCloud. Si vous ne synchronisez pas les photos avec iCloud, le détecteur ne fonctionne jamais.

Les vérifications CSAM se produisent avec des images téléchargées sur iCloud, pas sur la photothèque de votre iPhone.
IDG
Tout cela me porte à croire qu’il y a une autre chaussure à lâcher ici, celle qui permettra à Apple de rendre ses services cloud Suite sécurisé et privé. Si ce système d’analyse est essentiellement le compromis qui permet à Apple d’offrir plus de confidentialité à ses utilisateurs sans abdiquer son devoir moral d’empêcher la propagation du CSAM, tant mieux. Mais il n’y a aucun moyen de le savoir jusqu’à ce qu’Apple fasse une telle annonce. En attendant, tous ces gains potentiels en matière de confidentialité sont théoriques.
Où est l’espion ?
Ces dernières années, Apple a clairement indiqué qu’il considérait l’analyse des données utilisateur qui se produit sur nos appareils comme fondamentalement plus privée que l’analyse qui s’exécute dans le cloud. Dans le cloud, vos données doivent être décryptées pour être analysées, ce qui les ouvre à pratiquement toutes les formes d’analyse. Tout employé disposant du bon niveau d’accès peut également simplement parcourir vos données. Mais si toute cette analyse se produit sur votre appareil – c’est pourquoi les puces modernes d’Apple ont un puissant composant Neural Engine pour faire le travail – ces données ne quittent jamais la maison.
L’approche d’Apple ici remet tout cela en question, et je soupçonne que c’est la source de certaines des plus grandes critiques de cette annonce. Apple prend des décisions qui, selon lui, amélioreront la confidentialité. Personne chez Apple ne numérise vos photos, et personne chez Apple ne peut même regarder les images CSAM potentielles jusqu’à ce qu’un seuil soit dépassé, ce qui réduit le risque de faux positifs. Seul votre appareil voit vos données. Ce qui est génial, car nos appareils sont sacrés et ils nous appartiennent.
Sauf… qu’il va maintenant y avoir un algorithme fonctionnant sur nos appareils qui est conçu pour observer nos données, et s’il trouve quelque chose qu’il n’aime pas, il se connectera alors à Internet et rapportera ces données à Apple. Bien qu’aujourd’hui, il ait été spécialement conçu pour CSAM et qu’il puisse être désactivé simplement en désactivant la synchronisation de la bibliothèque de photos iCloud, on a toujours l’impression qu’une ligne a été franchie. Nos appareils ne fonctionneront pas seulement pour nous, mais nous surveilleront également à la recherche de signes d’activité illégale et alertent les autorités.
Le risque pour Apple ici est énorme. Il a investi énormément de temps à assimiler les actions sur l’appareil à la confidentialité, et cela risque d’empoisonner tout ce travail avec la perception que nos téléphones ne sont plus nos châteaux.
À bien des égards, il s’agit d’une autre facette du plus grand défi auquel l’industrie technologique est confrontée à cette époque. La technologie est devenue si importante et puissante que chaque nouveau développement a d’énormes implications à l’échelle de la société.
Avec son scanner CSAM sur l’appareil, Apple a construit un outil soigneusement calibré pour protéger la confidentialité des utilisateurs. Si la construction de cet outil a permis à Apple d’offrir enfin un cryptage plus large des données iCloud, cela pourrait même être une nette augmentation de la confidentialité des utilisateurs.
Mais les outils ne sont ni bons ni mauvais. Apple a conçu cet outil pour une bonne raison, mais chaque fois qu’un nouvel outil est créé, nous devons tous imaginer comment il pourrait être utilisé à mauvais escient. Apple semble avoir très soigneusement conçu cette fonctionnalité pour la rendre plus difficile à subvertir, mais cela ne suffit pas toujours.
Imaginez un cas où un organisme d’application de la loi dans un pays étranger vient à Apple et dit qu’il a compilé une base de données d’images illégales et veut qu’elle soit ajoutée au scanner d’Apple. Apple a déclaré sans ambages qu’il refuserait toutes ces demandes. C’est encourageant, et je n’ai aucun doute qu’Apple abandonnerait la plupart des pays s’ils essayaient de faire cette manœuvre.
Mais serait-il capable de dire non à la Chine ? Serait-il capable de dire non au gouvernement américain si les images en question impliquaient des membres d’organisations terroristes ? Et dans une décennie ou deux, des politiques comme celle-ci seront-elles si courantes que lorsque viendra le moment où un gouvernement demandera à Apple ou à ses équivalents de commencer à rechercher du matériel illégal ou subversif, est-ce que quelqu’un le remarquera ? La première mise en œuvre de cette technologie est d’arrêter la CSAM, et personne ne s’opposera à essayer d’arrêter l’exploitation des enfants. Mais y aura-t-il une deuxième implémentation ? Un tiers?

Apple a fait de son mieux pour trouver un compromis entre la violation de la vie privée des utilisateurs et l’arrêt de la distribution de CSAM. La manière très spécifique dont cette fonctionnalité est implémentée le prouve. (Quiconque essaie de vous vendre une histoire simplifiée sur la façon dont Apple veut juste vous espionner est, très franchement, quelqu’un qui ne vaut pas la peine d’être écouté.)
Mais ce n’est pas parce qu’Apple a fait preuve de diligence raisonnable et a fait des choix judicieux afin de mettre en œuvre un outil pour arrêter la propagation de matériel odieux qu’il est tiré d’affaire. En faisant exécuter à nos téléphones un algorithme qui n’est pas destiné à nous servir, mais qui nous surveille, il a franchi une ligne. Peut-être était-il inévitable que la ligne soit franchie. Il est peut-être inévitable que la technologie nous mène vers un monde où tout ce que nous disons, faisons et voyons est analysé par un algorithme d’apprentissage automatique qui sera aussi bienveillant ou malveillant que la société qui l’a mis en œuvre.
Même si le cœur d’Apple est à la bonne place, ma confiance que sa philosophie sera capable de résister aux futurs désirs des forces de l’ordre et des gouvernements autoritaires n’est pas aussi élevée que je le souhaite. Nous pouvons tous être contre CSAM et admirer la manière intelligente dont Apple a essayé d’équilibrer ces deux besoins contradictoires, tout en étant toujours inquiet de ce que cela signifie pour l’avenir.