Constamment égratigné par la société civile sur le problème des appels à la haine et autres contenus racistes et insultants, Facebook a récemment concentré ses efforts de modération des contenus sur ces sujets, et s’est félicité jeudi de ses progrès en détection automatique.
Le géant des réseaux sociaux a ajouté un indice à sa batterie de statistiques: la fréquence des contenus qui enfreignent ses règles.
“De juillet à septembre, la prévalence des contenus haineux a été comprise entre 0,1 et 0,11%”, a déclaré Guy Rosen, le vice-président du groupe en charge de l’intégrité, lors d’une conférence de presse. “En d’autres termes, sur 10.000 contenus vus sur Facebook, en moyenne, entre 10 et 11 comportaient des discours de haine”.
“C’est comme un test sur la qualité de l’air pour déterminer la concentration de la pollution”, a-t-il ajouté.
Cet été, Facebook a retiré plus de 22 millions de contenus haineux et Instagram, 6,5 millions, le double du trimestre précédent.
L’entreprise maîtrise depuis des années le retrait automatique de certains contenus, liés à la pornographie ou au terrorisme par exemple.
La propagation de la haine est plus compliquée à gérer, les machines ayant du mal à faire la différence entre les informations, l’humour, les parodies, les rumeurs et les insultes.
Les dirigeants se sont donc réjouis des progrès accomplis en intelligence artificielle (IA). Selon Guy Rosen, en 2017, le taux de détection automatique des discours haineux – retirés avant tout signalement par un utilisateur – était de 23,6%. “Aujourd’hui il est de 95%”, a-t-il indiqué.
Le réseau social n’envisage pourtant pas à court ou même long termes de réduire ses équipes de modérateurs. Elles sont constituées de 35.000 personnes chargées de la sécurité en général, dont 15.000, principalement employées par des sous-traitants, concentrées sur la modération des contenus.
Les progrès de l’IA permettent d’aller “plus vite”, de systématiser les décisions des humains pour leur éviter de se répéter, et de consacrer “plus de temps et d’énergie aux sujets plus compliqués”, a fait valoir Mike Schroepfer, directeur de la technologie du groupe californien.
Ces annonces interviennent au moment où des modérateurs expriment leur mécontentement vis-à-vis du groupe.
Mercredi, plus de 200 modérateurs de Facebook ont en effet signé une lettre ouverte où ils reprochent à la société de les “forcer” à revenir au bureau malgré la pandémie, mais aussi le recours précipité, selon eux, à l’IA.
“Des messages importants ont été broyés par le filtre de Facebook et des contenus dangereux, comme les blessures auto-infligées, sont passées”, accusent-ils.
Facebook a réagi en assurant que les conditions sanitaires des employés de retour au bureau étaient optimales.