L'Union européenne prévient Elon Musk qu'elle pourrait interdire Twitter s'il ne garantit pas la modération du contenu

Le gouvernement espagnol veut interdire le chiffrement de bout en bout selon un document divulgué de l’Union européenne

Ce n’est pas agréable de voir l’Espagne se démarquer dans les médias étrangers pour quelque chose comme ça. Un document divulgué signé par les 20 pays de l’Union européenne montre les positions de chaque pays sur le problème de CSAM, c’est-à-dire la détection automatique de contenus méprisables tels que des images ou des vidéos d’abus d’enfants. Tous les pays veulent faire quelque chose pour arrêter ou éliminer ce problème, bien sûr, mais parmi eux, l’Espagne est le pays qui a la position la plus extrême et la plus radicale sur la façon de le traiter ; interdire le cryptage des données de pourboire Un pourboire dans tous les services.

Dans le document, le gouvernement espagnol indique que ce serait la solution idéale. Afin d’utiliser des systèmes de reconnaissance automatique d’images qui détectent un contenu CSAM, il est nécessaire de pouvoir accéder à ce contenu. Si le contenu, par exemple une photo, est crypté pour que seul l’utilisateur qui l’envoie et celui qui la reçoit puissent voir l’image, il est impossible de les contrôler pour vérifier s’il s’agit bien de l’une de ces images… ni automatiquement ni avec l’intervention d’une personne. Il est tout simplement impossible d’utiliser ces données. Les personnes qui les envoient et les reçoivent bénéficient d’une protection totale grâce à ce cryptage. C’est une mauvaise chose, certes, mais c’est précisément ce cryptage qui garantit l’anonymat de tous les utilisateurs du service, à la fois les quelques dégénérés qui s’envoient des images d’abus d’enfants et tous les autres utilisateurs qui ne le font pas.

La confidentialité fonctionne comme ça. Soit il y en a pour tout le monde, soit il n’y en a pour personne. C’est précisément ce que le gouvernement espagnol semble penser idéalselon les mots de ce document divulgué qui vous pouvez vérifier ici (via Filaire).

Le gouvernement espagnol pense que l'interdiction du chiffrement des données de bout en bout est idéale

Dans le texte, comme vous pouvez le lire ci-dessus, ils indiquent qu’il pourrait y avoir un serveur intermédiaire qui déchiffre les messages entre deux utilisateurs automatiquement et sans intervention humaine s’il y a une exigence des forces de l’ordre, et si tel est le cas, il est signalé aux utilisateurs que leur message a été lu.

Ceci est évidemment écrit par quelqu’un qui ne comprend pas de quoi il s’agit. Ils ne comprennent tout simplement pas. Le cryptage des données de bout en bout existe et est mis en œuvre précisément pour qu’aucune clé ne permette le décryptage du contenu. Ni un serveur intermédiaire, ni une personne, ni l’entreprise qui offre le service (par exemple, WhatsApp) ni le fournisseur d’accès à Internet, ni personne, à l’exception de la personne qui envoie l’information et de la personne qui la reçoit, ne peut décrypter ces données. Le système est conçu pour rendre techniquement impossibleDu moins avec les moyens dont nous disposons aujourd’hui. Pourquoi est-ce fait comme ça? – c’est totalement délibéré, et c’est fait parce que, encore une fois, s’il n’y a pas d’intimité pour tout le monde, il n’y a d’intimité pour personne. S’il existe un système de décryptage à un moment donné de l’ensemble du processus, sera abusé et exposé par mauvais acteurs dans le futur. Sans aucun doute.

Apple a introduit un système de vérification automatique des images et des vidéos qui a été largement rejeté. Ce système fonctionnait sur l’iPhone, avant que les informations ne soient téléchargées n’importe où, analysant la bobine d’images et de vidéos, toujours sans envoyer d’informations nulle part, et mathématiquement, en utilisant un algorithme qui vérifie les empreintes digitales des images avec une base de données d’images connue sous le nom de CSAM. Il était prévu qu’une personne n’intervienne que lorsqu’il y avait beaucoup de positifs dans un appareil, excluant ainsi tout éventuel faux négatif, qui dans tous les cas serait à nouveau prouvé être un faux négatif par une personne dans tous les cas. Apple a dû revenir en arrière et annuler l’ensemble du projet précisément en raison de préoccupations concernant le manque de confidentialité totale.

A lire également