L' algorithme Instagram permet de connecter et de promouvoir un vaste réseau de comptes dédiés à la pédophilie et à l'achat de contenus sexuels de mineurs, selon une enquête conjointe du Wall Street Journal (WSJ) et de chercheurs de l'université de Stanford et de l' université Massachusetts Amherst.
Instagram, le réseau social le plus populaire chez les adolescents, héberge non seulement ces activités, mais ses algorithmes les promeuvent, selon la recherche.
Les systèmes de recommandation de ce réseau social qui fait partie de Meta ont pour objectif de mettre en relation ceux qui partagent des intérêts de niche et grâce à cet algorithme les pédophiles trouvent facilement des vendeurs de contenus sexuels de mineurs .
Selon l'analyse du WSJ , plus de 90 % des comptes vendant du matériel illégal sont connectés les uns aux autres grâce à ces recommandations. De plus, 75 % de ces comptes suivent également ou sont suivis par des utilisateurs qui publient des images ou des vidéos sexuellement explicites d'enfants ou d'adolescents.
Les chercheurs ont découvert qu'Instagram - qui compte plus de 1,3 milliard d'utilisateurs - permettait aux gens de rechercher des balises explicites et parfois même des émoticônes qui les reliaient à des comptes qui utilisaient les termes pour annoncer la vente de matériel sexuel impliquant des enfants et des "rencontres" avec des mineurs. .
Les responsables des comptes de ce réseau social qui vendent du matériel sexuel illicite ne le font pas ouvertement, mais proposent plutôt des « menus » de contenu. Certains de ces utilisateurs permettent aux acheteurs de demander des "actes spécifiques", note la recherche. Parmi les menus figurent des prix pour des vidéos d'enfants se faisant du mal et "des images de mineurs se livrant à des actes sexuels avec des animaux", a déclaré l'Observatoire Internet de Stanford.
"Le problème d'Instagram se résume aux fonctionnalités de découverte de contenu, à la manière dont les sujets sont recommandés et à la mesure dans laquelle la plate-forme s'appuie sur la recherche et les liens entre comptes", a déclaré David Thiel, technologue en chef de Stanford.
Selon le WSJ , Instagram a permis aux utilisateurs de rechercher des termes dont ses propres algorithmes savent qu'ils peuvent être associés à du matériel illégal . Dans de tels cas, un écran contextuel pour les utilisateurs avertit que "ces résultats peuvent contenir des images d'abus sexuels sur des enfants", notant que la production et la consommation de ce matériel causent "un préjudice extrême" aux enfants. L'écran proposait deux options : "Obtenir des ressources" et "Voir les résultats quand même".
Devant l'insistance du journal américain face à cette faille de sécurité du réseau social, Instagram a supprimé la possibilité pour les utilisateurs de voir les résultats de recherche des termes qui produisent probablement des images illégales. La société a refusé de dire pourquoi elle offrait cette option.
La promotion de contenus sexuels de mineurs viole les règles établies par Meta, ainsi que les lois américaines.
Meta a reconnu les problèmes au sein de ses opérations de conformité et a assuré au WSJ qu'il avait mis en place un groupe de travail interne pour résoudre les problèmes soulevés.
"Le travail des enfants est un crime horrible" , a déclaré l'entreprise, ajoutant qu'elle "continue à rechercher des moyens de se défendre activement contre ce comportement" .
Cependant, Instagram a également admis que ses systèmes ne sont pas parfaits et qu'il s'appuie fortement sur les plaintes des utilisateurs pour agir.
Meta - qui compte plus de 3 000 millions d'utilisateurs dans ses applications, dont Instagram, Facebook et WhatsApp - a assuré qu'au cours des deux dernières années, il a éliminé 27 réseaux pédophiles .
La plate-forme a également ajouté qu'elle bloquait des milliers d'étiquettes qui sexualisent les enfants, certaines avec des millions de messages, et qu'elle restreignait les systèmes qui recommandent aux utilisateurs de rechercher des termes connus pour être associés à des abus sexuels.
Les employés actuels et anciens de Meta qui ont été impliqués dans les initiatives de sécurité des enfants d'Instagram estiment que le nombre de comptes qui existent principalement pour suivre ce contenu se compte en centaines de milliers.
Dans ses recherches, l' Observatoire Internet de Stanford a utilisé des étiquettes associées aux relations sexuelles avec des mineurs et a trouvé 405 vendeurs.
Les chercheurs de Stanford ont trouvé une activité d'exploitation sexuelle similaire sur d'autres réseaux sociaux plus petits, mais ont déclaré que le problème sur Instagram est particulièrement grave.
"La plate-forme la plus importante pour ces réseaux d'acheteurs et de vendeurs semble être Instagram" , ont écrit les experts dans un rapport publié mercredi.
Alex Stamos, qui est à la tête de l'Observatoire Internet de Stanford et a précédemment occupé le poste de directeur de la sécurité chez Meta, a déclaré que la lutte contre les abus évidents sur Instagram nécessitera un effort continu.
Selon Stamos, le fait qu'une équipe universitaire de trois personnes avec un accès limité ait pu découvrir un réseau aussi étendu de pédophiles devrait préoccuper Meta.
En outre, il a noté que l'entreprise dispose d'outils beaucoup plus efficaces que les étrangers pour suivre et cartographier son réseau de maltraitance d'enfants. Stamos a exprimé l'espoir que l'entreprise investira à nouveau dans des chercheurs humains pour lutter plus efficacement contre ce problème.
L'équipe de Stamos a trouvé 128 comptes proposant de vendre du matériel d'abus sexuel d'enfants sur Twitter, moins d'un tiers du nombre qu'ils ont trouvé sur Instagram, qui a une base d'utilisateurs beaucoup plus large que le réseau social du birdie.
Selon l'étude, Twitter ne recommandait pas ces types de comptes dans la même mesure qu'Instagram, et ces plateformes les supprimaient également beaucoup plus rapidement.
"L'incapacité à détecter ce réseau d'abus sexuels met en évidence la nécessité pour les plateformes de donner la priorité à la sécurité des utilisateurs et l'importance des efforts d'enquête collaboratifs pour atténuer et contrer de manière proactive l'exploitation des enfants en ligne", déclarent les chercheurs dans leur étude.
Dans le cas de Twitter, l'étude a révélé que, du 12 mars au 20 mai, ce réseau social a hébergé plus de 40 images qui avaient auparavant été étiquetées comme du matériel pédopornographique et qu'ils ont trouvées après avoir enquêté sur environ 100 000 tweets.
Les chercheurs ont utilisé un outil appelé PhotoDNA pour détecter ce contenu, le même que la plateforme a admis utiliser pour détecter et supprimer le matériel lié à la pédophilie.
En janvier, la plateforme détenue par Elon Musk a affirmé avoir suspendu environ 404 000 comptes liés au matériel pour enfants, ce qui représente une augmentation de 112 % du blocage de comptes depuis novembre.
En raison de l'augmentation des niveaux d'accès à son interface de programmation d'application (API), de nombreux chercheurs s'accordent à dire qu'il deviendra de plus en plus difficile de détecter des erreurs comme celle-ci, ce qui entravera les investigations futures.
En fait, l'Observatoire Internet de Stanford a admis avoir cessé d'utiliser l'API de niveau entreprise de Twitter - dont le prix est d'environ 4 600 euros - en raison de nouveaux coûts.
(Avec des informations d'EFE et d'Europa Press)
Continuer à lire:
Avec l'effervescence de la Copa América, plusieurs fans recherchent la meilleure façon de regarder les matchs sur leur Smart TV. L’une des meilleures alternatives est le mode football ou le mode sport.
WhatsApp a réuni une partie du casting de Modern Family pour jouer dans une nouvelle publicité axée sur la promotion de groupes entre familles utilisant à la fois des appareils iPhone et Android.
Au cours des dernières décennies, la technologie est non seulement devenue un outil de base, mais elle fait également partie de notre vie quotidienne, au point qu’il est presque impossible d’imaginer ce que serait d’accomplir des tâches sans elle.
Tether, la cryptomonnaie de type stablecoin qui prétend que chacun de ses tokens est adossé à un dollar américain, est émise par la société Tether Limited et depuis ses origines a été impliquée dans diverses controverses.
Pour les utilisateurs de WhatsApp souhaitant personnaliser leur expérience, l’activation du « mode cœur noir » est une excellente option. Ce mode remplace l’icône d’appel téléphonique standard (qui est généralement blanche) par l’emoji cœur noir.