Une nouvelle campagne publicitaire reproche à Apple d’avoir abandonné son système CSAM de détection automatique des images d’abus sur enfants
En août 2021, Apple a annoncé un nouveau système automatique et totalement privé qui vérifierait le contenu de certaines images d’abus sur enfants pour les signaler s’il en trouvait un nombre élevé de correspondances dans le même compte Apple, à travers des photos et des vidéos stockées dans iCloud. El sistema funciona de tal manera que comprueba si una imagen es la misma que existe en una base de datos de este tipo de deleznables imágenes de abusos infantiles, y si esto ocurre muchas veces en la misma cuenta, una persona verifica entonces que efectivamente son esas images. Ce n’est qu’à ce moment-là que la vérification devient manuelle, car même si un nombre élevé de faux positifs provenant de ce système est extrêmement improbable, on ne peut jamais manquer de prendre en compte cette possibilité face à une accusation aussi grave. Ce système s’appelle CSAM et il est vraiment intelligent.
Cependant, ce système a soulevé de nombreux utilisateurs et organisations qui accusaient Apple d’espionner ses clients, dans la plupart des cas sans comprendre comment fonctionne réellement ce système, en utilisant un algorithme mathématique qui n’inclut aucun type de reconnaissance d’image à aucun moment. Il est incroyablement respectueux de la vie privée des utilisateurs et tente de résoudre un problème très grave qui est le fléau des personnes qui recherchent des images d’abus sur des enfants parce qu’elles souffrent de maladie mentale. Apple, de par sa position, a la possibilité de détecter ces personnes et de faire quelque chose, afin que ces images et abus ne puissent pas utiliser iCloud comme moyen de diffusion.
Pour cette raison, Apple a décidé de faire marche arrière, de réévaluer la situation au point de arrêter complètement le projet. Cela a amené une organisation qui investit des millions de dollars dans la promotion de l’installation de ce type de systèmes de vérification pour réduire la diffusion d’images d’abus sur des enfants, à accuser directement Apple d’avoir permis qu’iCloud soit utilisé à cette fin maléfique.
Dans cette campagne, ils ont publié ce site Web où ils attaquent directement Apple pour essayer de les faire changer d’avis et enfin mettre en œuvre le système CSAM qu’ils ont promis et aider à arrêter la distribution d’images d’abus d’enfants.
![Apple accusé d'avoir autorisé des images d'abus d'enfants sur iCloud](https://www.generationiphone.fr/wp-content/uploads/2023/09/Une-nouvelle-campagne-publicitaire-reproche-a-Apple-davoir-abandonne-son.jpg)
Sur ce site Web, il y a un bouton pour envoyer un e-mail à l’ensemble du conseil d’administration d’Apple à partir d’un formulaire de contact, dans lequel ils demandent expressément à Apple de mettre en œuvre le système CSAM promis. La liste complète des adresses e-mail du conseil d’administration d’Apple apparaît.
![Tous les e-mails du conseil d'administration d'Apple](https://www.generationiphone.fr/wp-content/uploads/2023/09/1693611033_794_Une-nouvelle-campagne-publicitaire-reproche-a-Apple-davoir-abandonne-son.jpg)
Bien sûr, cette question est assez controversée et beaucoup de gens sont à la fois pour et contre, mais ce qui dérange le plus dans tout cela, c’est que la majorité des utilisateurs ne comprennent pas complètement comment cela fonctionne, comment il est possible de trouver des images de ce type sans briser la confidentialité maximale des utilisateurs. Si quelqu’un qui sait vraiment comment cela fonctionne et comprend à quel point il est incroyablement improbable que quelque chose se passe mal décide de ne pas soutenir le système, très bien. Mais ce qui est vraiment triste, c’est que dès qu’on évoque la détection d’images interdites dans iCloud, des alarmes de surveillance inacceptable se déclenchent, Edward Snowden ouvre à nouveau la bouche pour promouvoir la peur de cette fonction, et Apple est accusé de ne pas protéger la vie privée de ses utilisateurs. La vérité est qu’il y a des utilisateurs d’Apple qui en profitent malheureusement pour nuire à des enfants qui, dans de nombreux cas, se retrouveront avec des séquelles insurmontables à vie, et c’est ce que réellement inacceptable. Snowden a deux enfants, un né en 2020 et un autre en 2022, alors peut-être qu’un jour il changera d’avis.