Detección automática de imágenes ilegales de abusos a menores en el iPhone

Apple annule définitivement son projet de scanner les photos d’utilisateurs à la recherche d’enfants maltraités (CSAM)

Apple a décidé d’annuler définitivement ses projets de numérisation de photos téléchargées sur iCloud avec un système de recherche semi-automatique d’images officiellement classées comme maltraitance d’enfants (CSAM). La raison de l’annulation est la grande controverse qu’elle a soulevée au moment de son annonce. Bien qu’il s’agisse d’un système conçu dès le départ pour protéger la vie privée des utilisateurs, sous le contrôle d’agences extérieures à Apple et sans qu’il soit nécessaire de vérifier le contenu des images, mais plutôt en utilisant un algorithme mathématique, le problèmes de confidentialité qui a soulevé chez de nombreux utilisateurs ont entraîné l’annulation de l’ensemble du projet.

L’idée d’Apple a toujours été, et continue d’être, de protéger les enfants contre les abus de toutes sortes. Parler à FilaireApple a déclaré cela autour de l’annulation de ce système.

Après avoir consulté en profondeur des experts sur ce sujet pour obtenir leur point de vue sur ces initiatives de protection de l’enfance, nous approfondissons notre investissement dans une communication sûre. [cifrado de punta a punta] qui est déjà disponible à partir de décembre 2021. Nous avons décidé de ne pas donner suite à notre proposition de détection automatique des images d’abus d’enfants (CSAM) pour les photos iCloud. Les enfants peuvent être protégés sans que les entreprises aient à contrôler les données personnelles de leurs utilisateurs. Nous continuerons à travailler avec les gouvernements, les agences de protection de l’enfance et d’autres entreprises pour aider à protéger les plus jeunes, préserver leur droit à la vie privée et faire d’Internet un endroit plus sûr pour nous tous.

Ce système de détection d’images d’abus d’enfants fonctionnait comme suit ; Un programme a examiné les fichiers image qui ont été téléchargés automatiquement sur iCloud et, à l’aide d’une formule mathématique, a attribué un numéro (en fait un code alphanumérique) à chacun d’eux. Ce numéro est unique et n’est attribué qu’à cette image, en fonction de son contenu. Jusqu’à présent, personne n’a vu d’image d’un utilisateur, et ce nombre ne permet pas de recréer cette image, bien qu’il permette de la différencier de toutes les autres. Le gouvernement américain (et d’autres) fait de même pour les images connues d’abus d’enfants qui sont stockées dans une base de données d’un organisme gouvernemental. Ainsi, nous obtenons une liste de hacher (codes alphanumériques) qui identifient de manière unique ces images. Si les codes stockés par iCloud et ceux de cette base de données d’images d’agressions sexuelles connues correspondent, nous avons un résultat positif. S’il y a plusieurs cas de positifs consécutifs (car il est très probable qu’un pédophile, par exemple, stocke plus d’une image), une alarme se déclenche et une personne de vérité examiner uniquement ces images. Ce n’est que dans ce cas, et seules les images dont le code alphanumérique unique correspond à celui des images interdites, que ces photos sont examinées, essentiellement pour s’assurer qu’elles faux positif, une possibilité incroyablement longue et improbable, mais une possibilité néanmoins. Ce n’est que lorsqu’une personne confirme que ces photos sont effectivement des abus d’enfants qu’Apple contacte la police pour prendre des mesures à ce sujet.

Malgré toutes les garanties dont disposait le système et qu’il est mathématiquement prouvé qu’il est incroyablement difficile qu’il y ait de faux positifs, le fait qu’une personne puisse enfin voir l’une des images que nous avons dans iCloud a inquiété de nombreux utilisateurs. Apple a d’abord mis le projet en pause, et plus d’un an plus tard, il a été définitivement annulé en raison de la polémique suscitée.


A lire également