CSAM

Apple abandonne le projet de numérisation des photos iCloud à la recherche de matériel pédopornographique pédopornographique

L’arrivée d’iOS 15 a apporté un large répertoire de nouveautés pour protéger les enfants des gros problèmes d’aujourd’hui. En fait, trois grands groupes de fonctionnalités ont été présentés. Les deux qui sont disponibles aujourd’hui sont la sécurité des communications dans iMessages et, d’autre part, les avertissements concernant ces problèmes dans Siri, Spotlight et Safari. Cependant, la fonctionnalité phare d’Apple était numériser les photos iCloud des utilisateurs dans le but de trouver de la pornographie juvénile. Après plusieurs mois de report, le projet a été abandonné par Apple.

Scanner photo à la recherche de CSAM, le projet Apple

L’outil vedette Manzana il était connu pour son dilemme éthique et de confidentialité qu’il a soulevé lors de son dépôt il y a plus d’un an. Le but de l’outil Apple était analyser les photos iCloud des utilisateurs à la recherche de pornographie juvénile. Ce terme n’est pas utilisé officiellement mais le terme utilisé était CSAM (Matériel d’abus sexuel d’enfants ou Matériel d’abus sexuel d’enfants).


la sécurité des enfants

Pour ce faire, ceux de Cupertino se sont alliés aux NCMEC, le National Center for Missing & Exploited Children, États-Unis. Ce centre dispose d’une grande base de données avec des images pédopornographiques ou CSAM. chacune de ces photos porte une signature ou hacher ça ne varie pas Autrement dit, si une image avec un contenu sensible a la même signature que celle de l’utilisateur, les alarmes se déclencheront.

Avant qu’une image ne soit stockée dans iCloud Photos, cette image est vérifiée par rapport à l’ensemble illisible de signatures CSAM connues sur l’appareil. Ce processus de correspondance est basé sur une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat. Private Set Intersection (PSI) permet à Apple de savoir si un hachage d’image correspond à des hachages d’image CSAM connus, sans rien savoir des hachages d’image incompatibles. PSI empêche également l’utilisateur de savoir s’il y a correspondance.


Article associé:

Comment fonctionne le nouveau système anti-pornographie juvénile d’Apple (et comment il ne fonctionne pas)

Apple a assuré que la probabilité qu’une fausse alerte soit donnée était minime puisque il fallait avoir plus de 30 photos dont les signatures ou hacher étaient identiques à la base de données CSAM pour qu’Apple intervienne. Cependant, tant la communauté technologique, éthique et de sécurité que les employés d’Apple eux-mêmes ont provoqué une avalanche de critiques qui ont fait que la fonction a été reportée et n’a pas vu le jour dans iOS 15.

Le projet de numérisation de photos à la recherche de pédopornographie est arrêté

Il y a quelques heures, un communiqué d’Apple a été publié dans FILAIREa annoncé l’abandon du développement de ce scanner photo iCloud pour pédopornographie :

Suite à une vaste consultation d’experts pour recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonctionnalité de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. De plus, nous avons décidé de ne pas aller de l’avant avec notre CSAM précédemment proposé. outil de détection pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne suivent leurs données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, préserver leur droit à la vie privée et faire d’Internet un endroit plus sûr pour les enfants et pour tous. de nous.

Donc, Apple abandonne un projet commencé il y a un peu plus d’un an. Tout cela causé par le déluge de problèmes de sécurité et de critiques que la mesure a eu depuis sa présentation. En fait, maintenant ceux de Cupertino essaient de blanchir les problèmes en essayant de Investir à la source, essayer d’empêcher la production de pédopornographie investir dans d’autres types de mesures telles que la fonction de sécurité des communications d’iMessage.

A lire également