Suite à l’annonce de cette semaine, certains experts pensent qu’Apple annoncera bientôt qu’iCloud sera crypté. Si iCloud est crypté mais que l’entreprise peut toujours identifier le matériel pédopornographique, transmettre des preuves aux forces de l’ordre et suspendre le contrevenant, cela peut alléger une partie de la pression politique sur les dirigeants d’Apple.

ça ne soulagerait pas tous la pression : la plupart des mêmes gouvernements qui veulent qu’Apple fasse plus contre la maltraitance des enfants veulent également plus d’action sur le contenu lié au terrorisme et à d’autres crimes. Mais la maltraitance des enfants est un problème réel et de taille où les grandes entreprises technologiques ont pour la plupart échoué à ce jour.

« L’approche d’Apple préserve la confidentialité mieux que toute autre à ma connaissance », a déclaré David Forsyth, président du département d’informatique de l’Université de l’Illinois Urbana-Champaign, qui a examiné le système d’Apple. « À mon avis, ce système augmentera probablement considérablement la probabilité que les personnes qui possèdent ou [CSAM] sont trouvés; cela devrait aider à protéger les enfants. Les utilisateurs inoffensifs devraient subir une perte de confidentialité minimale ou nulle, car les dérivés visuels ne sont révélés que s’il y a suffisamment de correspondances avec les images CSAM, et uniquement pour les images qui correspondent aux images CSAM connues. La précision du système de correspondance, combinée au seuil, rend très improbable que des images qui ne sont pas des images CSAM connues soient révélées. »

Et WhatsApp ?

Chaque grande entreprise de technologie est confrontée à la réalité horrible du matériel pédopornographique sur sa plate-forme. Aucun ne l’a approché comme Apple.

Comme iMessage, WhatsApp est une plate-forme de messagerie cryptée de bout en bout avec des milliards d’utilisateurs. Comme toute plate-forme de cette taille, ils sont confrontés à un gros problème d’abus.

« J’ai lu les informations publiées par Apple hier et je suis inquiet », a déclaré Will Cathcart, responsable de WhatsApp. tweeté le vendredi. «Je pense que c’est la mauvaise approche et un revers pour la vie privée des gens partout dans le monde. Les gens ont demandé si nous adopterions ce système pour WhatsApp. La réponse est non. »

WhatsApp inclut des fonctionnalités de signalement afin que tout utilisateur puisse signaler un contenu abusif à WhatsApp. Bien que les capacités soient loin d’être parfaites, WhatsApp a signalé plus de 400 000 cas au NCMEC l’année dernière.

« Il s’agit d’un système de surveillance conçu et exploité par Apple qui pourrait très facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu’ils ou un gouvernement décide de contrôler », a déclaré Cathcart dans ses tweets. « Les pays où les iPhones sont vendus auront des définitions différentes de ce qui est acceptable. Ce système sera-t-il utilisé en Chine ? Quel contenu y considérera-t-il comme illégal et comment le saurons-nous un jour ? Comment vont-ils gérer les demandes des gouvernements du monde entier pour ajouter d’autres types de contenu à la liste à analyser ? »

Dans son briefing avec les journalistes, Apple a souligné que cette nouvelle technologie de numérisation ne sortait jusqu’à présent qu’aux États-Unis. Mais la société a poursuivi en affirmant qu’elle avait des antécédents de lutte pour la protection de la vie privée et s’attend à continuer de le faire. De cette façon, une grande partie de cela se résume à la confiance en Apple.

La société a fait valoir que les nouveaux systèmes ne peuvent pas être détournés facilement par une action gouvernementale et a souligné à plusieurs reprises que se retirer était aussi simple que de désactiver la sauvegarde iCloud.

Bien qu’il s’agisse de l’une des plates-formes de messagerie les plus populaires au monde, iMessage a longtemps été critiqué pour son manque de capacités de rapport qui sont désormais courantes sur l’Internet social. En conséquence, Apple a historiquement signalé une infime fraction des cas au NCMEC que des entreprises comme Facebook font.

Au lieu d’adopter cette solution, Apple a construit quelque chose de complètement différent et les résultats finaux sont une question ouverte et préoccupante pour les défenseurs de la vie privée. Pour d’autres, c’est un changement radical bienvenu.

« La protection étendue d’Apple pour les enfants change la donne », a déclaré John Clark, président du NCMEC, dans un communiqué. « La réalité est que la vie privée et la protection des enfants peuvent coexister. »

Des enjeux élevés

Une optimiste dirait que permettre le cryptage complet des comptes iCloud tout en détectant le matériel d’abus d’enfants est à la fois une victoire contre les abus et la confidentialité – et peut-être même une décision politique habile qui émousse la rhétorique anti-cryptage des responsables américains, européens, indiens et chinois.

Un réaliste s’inquiéterait de la suite des pays les plus puissants du monde. C’est une garantie virtuelle qu’Apple recevra – et a probablement déjà reçu – des appels des capitales alors que les responsables gouvernementaux commencent à imaginer les possibilités de surveillance de cette technologie de numérisation. La pression politique est une chose, la réglementation et le contrôle autoritaire en sont une autre. Mais cette menace n’est pas nouvelle et n’est pas spécifique à ce système. En tant qu’entreprise avec un bilan de compromis tranquille mais profitable avec la Chine, Apple a beaucoup de travail à faire pour convaincre les utilisateurs de sa capacité à résister aux gouvernements draconiens.

Tout ce qui précède peut être vrai. Ce qui vient ensuite définira finalement la nouvelle technologie d’Apple. Si cette fonctionnalité est instrumentalisée par les gouvernements pour élargir la surveillance, alors l’entreprise ne tient clairement pas ses promesses en matière de confidentialité.