Des milliers d'utilisateurs partagent des informations très privées dans des questions à l'objectif de l'IA sans réaliser
Pour une raison quelconque, des milliers d'utilisateurs du modèle LLM, GOST IA, partagent toutes sortes de questions avec des données privées très spécifiques, et toutes associées à leur nom, sans sembler réaliser que tout ce qu'ils écrivent ou les audios qu'ils envoient, sont publiés pour tout le monde.
Selon le chercheur de Cyberseguridad Rachel Tobac dans ce fil de X, de nombreux utilisateurs demandent des choses sur leurs maladies, parfois très sérieuses, d'autres fois sur sa vie amoureuse ou une fraude qui semblent commettre et demander des conseils à cette IA mal appelée. Pour une raison quelconque, ces questions sont partagées publiquement, peut-être parce qu'elles appuyent sur le bouton de partage sans réaliser ce que cela signifie vraiment.
Dans le fil, vous pouvez voir des captures d'écran de toutes sortes d'exemples de ces conversations, avec des noms et photographies censurés pour éviter un plus grand mal. C'est quelque chose que l'objectif doit résoudre le plus tôt possible. En fait, lorsque ce spécialiste demande au but de ce que cette affaire lui semble, il s'annonce simplement que Certains ne lisent jamais la petite impression.
Sur le site Web de TechCrunch, ont également fait cette catastrophe de confidentialité qui se produit en ce moment.

Dans la ligne d'arrivée, ils doivent résoudre ce problème dès que possible, identifiant d'abord la raison pour laquelle ces utilisateurs ne sont pas conscients de partager tout cela, puis de le réparer immédiatement.
