Do not follow this hidden link or you will be blocked from this website !

Photo via Unsplash
Flux d'actualités

L’œil d’Apple dans nos iPhones ?

décembre 2021

Les outils développés par Apple pour traquer et signaler automatiquement les images pédopornographiques stockées sur les smartphones de ses utilisateurs soulèvent de nombreuses inquiétudes relatives à la protection des données. Ils sont surtout le symptôme d'une évolution dans les standards de traitement des données par les géants du numérique.

Apple a développé et souhaite introduire prochainement un nouveau système de surveillance électronique sur ses iPhones, permettant la détection automatique de matériel pédopornographique parmi les photos stockées en ligne par l’utilisateur sur l’application iCloud1. Ce système suscite actuellement le scepticisme chez les experts en protection de la vie privée. Nommée provisoirement CSAM Detection (CSAM étant l’acronyme pour « Child Sexual Abuse Material »), la technologie d’Apple compare les photos mises en ligne avec de gigantesques bases de données de photos pédophiles fournies par les associations américaines de lutte contre la pédocriminalité. Si le nombre d’images de l’utilisateur jugées similaires à celles de la base de données dépasse un certain seuil (qui serait d’une trentaine afin d’éviter tout risque de faux positif), ces images sont alors évaluées par un opérateur humain, qui pourra décider de les signaler ou non aux autorités. 

Enjeux éthiques et politiques

Apple emploie ici des procédures cryptographiques subtiles, grâce auxquelles les utilisateurs n’ont accès « en clair » (c’est-à-dire sous une forme humainement interprétable) ni aux images pédopornographiques de référence, ni au nombre d’images en leur possession soupçonnées d’être illégales. Le système de détection, quant à lui, n’a accès « en clair » à aucune information relative au

Lecture réservée aux abonnés : L'indépendance d'Esprit, c'est grâce à vous !