Modération : Facebook revendique supprimer davantage de contenus en infraction

Facebook

Facebook a publié son cinquième rapport sur l'application des standards de la communauté, qui mesure la manière dont l’entreprise applique ses règles en matière de contenu d’octobre 2019 à mars 2020. Facebook y inclut désormais des indicateurs concernant douze politiques différentes sur Facebook et dix politiques sur Instagram. Le rapport présente pour la première fois des données sur quatre catégories de contenus Instagram : discours haineux, nudité adulte et activité sexuelle, contenu explicite et violent, et intimidation et harcèlement.

« Pour la première fois, nous partageons également des informations sur le nombre de procédures en appel qui ont fait réponse à nos décisions sur Instagram et sur le nombre de décisions que nous avons annulées, soit à la suite de ces appels, soit de façon proactive. Nous avons également ajouté des données sur nos efforts de lutte contre les organisations haineuses sur Facebook et sur Instagram », indique le réseau.

Facebook revendique avoir amélioré les technologies qui identifient les contenus en infraction de manière proactive, « ce qui nous a aidé à en supprimer plus, donc à mieux limiter leur visibilité ». Sur son réseau principale Facebook, l’entreprise estime avoir augmenté son taux de proactivité pour la détection de discours haineux de plus de 8 points au cours des deux derniers trimestres, soit près de 20 points d’augmentation sur 12 mois ; et doublé le nombre de contenus liés à la drogue supprimés pendant le T4 2019, supprimant ainsi 8,8 millions de contenus.

Sur Instagram, les technologies de l’entreprise peuvent trouver plus de contenus en rapport avec le suicide et l’automutilation. « Nous avons donc pu agir sur 40 % de contenus en plus qu’au dernier rapport, et notre taux de proactivité a augmenté de plus de 12 points », indique Facebook.

Pour découvrir le rapport, c’est par ici.

À lire aussi

Filtrer par