Facebook a supprimé 3,2 milliards de faux comptes au deuxième et troisième trimestre 2019
Facebook

Facebook a supprimé 3,2 milliards de faux comptes au deuxième et troisième trimestre 2019

Juil 4, 2024

Le géant des médias sociaux Facebook a publié la quatrième édition de son rapport sur l'application des normes communautaires détaillant les mesures qu'il a prises au cours des deux trimestres précédents de l'année pour garantir que le contenu qui viole ses normes communautaires ne reste pas sur le site.

Dans le rapport, l'entreprise souligne qu'elle supprimé pas moins de 3,2 milliards de faux comptes au cours des deux derniers trimestres, c'est-à-dire d'avril à septembre de cette année. Ces comptes ont été détectés avant d'être activés sur Facebook, c'est pourquoi ils ne se reflètent pas dans les chiffres d'utilisateurs rapportés par l'entreprise. L'entreprise estime que environ 5 % de sa base massive de 2,45 milliards d'utilisateurs est composée de faux comptes.

L’entreprise a également, pour la première fois, inclus des données d’Instagram dans son rapport sur les normes communautaires. Le rapport mentionne que l'entreprise supprimé plus de 4,5 millions d'éléments de contenu liés à l'automutilation et au suicide de Facebook. Sur Instagram, la société a supprimé un total de 1,68 million de contenus incitant à l’automutilation ou au suicide.

Facebook aussi supprimé 11,6 millions de contenus liés à la maltraitance des enfants et la pornographie juvénile depuis sa plateforme, contre 5,8 millions au premier trimestre 2019. La société affirme également que il a pu découvrir et supprimer de manière proactive 99% des messages relatifs à la maltraitance et à l'exploitation des enfants. Sur Instagram, la société a supprimé 1,26 million de contenus liés à la nudité d'enfants et aux violations sexuelles d'enfants.

En outre, la société a déclaré qu'au cours des deux dernières années, elle avait investi dans des technologies capables de détecter de manière proactive les discours de haine sur sa plateforme, permettant à Facebook de supprimer un tel contenu sans que personne n'ait à le signaler et, dans de nombreux cas, affirme Facebook, avant même que quiconque puisse voir ce contenu. Pour ce faire, Facebook est «identifier les images et les chaînes de texte identiques qui ont déjà été supprimées en tant que discours de haine, et les classificateurs d'apprentissage automatique qui examinent des éléments tels que la langue, ainsi que les réactions et les commentaires à une publication, pour évaluer dans quelle mesure ils correspondent à des expressions et des modèles courants. et des attaques que nous avons déjà vues dans des contenus qui enfreignent nos politiques contre la haine.

Lire  Les salles de messagerie sont désormais disponibles pour tous les utilisateurs de Facebook en Amérique du Nord

Laisser un Commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *