CSAM

Apple explique pourquoi il a abandonné le développement du détecteur de pédopornographie dans iCloud

Il y a un an, Apple a annoncé l’annulation de l’un des projets les plus ambitieux d’iCloud. Il s’agissait d’un scanner permettant de détecter la pédopornographie dans le contenu stocké dans le cloud de Big Apple. Cette décision était totalement inattendue et sans aucune explication de la part de la société. Cependant, il y a quelques heures, une note a été publiée dans laquelle Apple expliquait que l’entrée dans l’analyse des fichiers multimédias dans iCloud a ouvert la porte à des comportements malveillants et qu’ils ont dû arrêter de développer l’outil.

La vie privée, l’axe de l’arrêt dans le développement de la détection CSAM

Le scanner de photos iCloud des utilisateurs d’Apple pour la pédopornographie a été l’un des projets les plus importants du nouvelle ère de protection des services de Big Apple. Le terme effectivement utilisé était CSAM (Child Sexual Abuse Material). Et ce n’était ni plus ni moins qu’un outil pour détecter les utilisateurs qui ont stocké ces informations dans le cloud Apple et informer les autorités compétentes. Vous pouvez en savoir plus sur le fonctionnement du scanner dans cet article où nous annoncions également l’annulation du développement par Apple.

CSAM

Apple abandonne le projet de scanner les photos iCloud à la recherche de pornographie juvénile

Dans une nouvelle note publiée dans FilaireManzana donne les raisons pour lesquelles le développement de ce scanner de pédopornographie a été abandonné. Ces déclarations proviennent d’Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants de l’entreprise :

L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter. Cela injecterait également la possibilité d’un avalanche de conséquences inattendues. L’analyse d’un type de contenu, par exemple, ouvre la porte à une surveillance de masse et pourrait susciter l’envie de rechercher d’autres systèmes de messagerie cryptés sur tous les types de contenu.

L’esprit d’Apple reste présent s’engager à briser la chaîne de la pornographie et du trafic de ce type de données. Cependant, après avoir mené des recherches approfondies sur la confidentialité et la sécurité avec des équipes d’experts en droits numériques et de défenseurs de la sécurité des enfants, ils ont réalisé que l’analyse des fichiers multimédias dans iCloud Cela ouvrirait un scénario jamais vu auparavant.

Peut-être qu’à l’avenir Apple reprendra ce projet, mais pour l’instant les déclarations semblent être cohérentes avec la décision prise il y a un an de mettre fin au projet, même si l’idée du début était très bonne.

A lire également