Sur le réseau social, des gens peuvent se réunir dans des "groupes privés" où ils peuvent discuter et échanger des contenus en toute discrétion. Mais jusqu'où peuvent-ils aller? Sous prétexte que ces groupes ne sont pas visibles de tous, ont-ils le droit de publier des contenus à caractère sexuel par exemple? Facebook nous éclaire et nous explique sa politique de modération.
Elodie (prénom d'emprunt) est étudiante en psychologie dans la province de Namur. Il y a quelques jours, connectée sur son compte Facebook, elle reçoit des demandes de plusieurs amis. Ils lui demandent de signaler un groupe qui va à l'encontre des règles établies par le réseau social. Ses amis lui rapportent que ce groupe dévoile des photos dénudées de femmes sans leur consentement. Elodie décide donc d'infiltrer le groupe en question. Elle se dit que, si elle parvient à intégrer cette page douteuse, il lui sera plus facile d'alerter Facebook sur les agissements de ses membres.
"J'ai fait la demande et en quelques secondes, mon adhésion a été acceptée", se rappelle-t-elle. Désormais membre du groupe, elle découvre alors les nombreuses publications qui alimentent cette page. "Des femmes posaient nues, on voyait des fesses, des seins. Et parfois, ce sont des hommes qui postaient les photos de leur compagne. Je l'ai découvert en lisant les commentaires dégueulasses car ils s'expliquaient. Je me souviens d'un homme qui avait posté une photo montrant les fesses de sa copine. Il écrivait 'C'est ma copine, à souiller'. Ça m'a dégoûtée", nous confie-t-elle.
Étrangement, seulement quelques-uns des contenus signalés ont été supprimés
Face à cela, Elodie décide de signaler toutes les publications. Pour rappel, sur Facebook, le fait de "signaler" un contenu consiste à prévenir le réseau social que ce dernier va à l'encontre des règles érigées. Cela concerne notamment les contenus haineux, racistes, violents, etc. "Étrangement, seulement quelques-uns de mes contenus signalés ont été supprimés", s'interroge-t-elle. Quelques jours plus tard, le groupe a finalement été supprimé par le réseau social.
Quelle est la politique de Facebook face aux contenus signalés par les utilisateurs? Sont-ils systématiquement consultés afin de déterminer s'ils vont à l'encontre, ou non, des règles de la plateforme?
Le porte-parole de Facebook Belgique nous explique qu’il est impossible de nous transmettre des informations spécifiques quant au groupe privé que nous évoquons. Il accepte cependant de nous en dire davantage sur les règles appliquées par le réseau social.
Les règles qui valent pour les groupes publics valent AUSSI pour les groupes privés
"Nos politiques sont valables sur l'ensemble de notre plateforme, y compris au sein des groupes privés. Nous supprimons invariablement les images sexuelles pour empêcher tout partage non autorisé, mais aussi pour protéger les mineurs. En outre, nous interdisons et supprimons également les contenus qui facilitent, encouragent ou coordonnent les contacts sexuels entre adulte", nous explique-t-on. De le même façon, la plateforme n’autorise pas le "langage sexuellement explicite qui peut inviter au contact sexuel".
Comment le réseau social fonctionne-t-il concrètement pour repérer puis supprimer ces contenus interdits?
Deux méthodes sont déployées comme nous l’explique son porte-parole.
le signalement via les utilisateurs : une fonction permet aux usagers de Facebook de signaler eux-mêmes un contenu qu’ils estiment inappropriés. "Lorsqu’un contenu est signalé, nous le vérifions et supprimons tout ce qui viole les directives de la communauté", nous explique la firme.
le recours à l’intelligence artificielle : Facebook utilise des techniques de "machine learning" (traduction: apprentissage par la machine). En clair, l’objectif est de détecter de manière proactive les images intimes partagées. "Cela signifie que nous les détectons avant que quelqu'un ne les signale. Si l'image ou la vidéo viole nos normes communautaires, nous la supprimerons et, dans la plupart des cas, nous bloquerons également le compte qui a partagé un contenu intime sans autorisation", nous précise-t-on.
On nous explique qu’un système évaluant les priorités a été établi. En clair, grâce au système d’intelligence artificielle, les équipes de Facebook identifieraient rapidement les contenus qu’ils faut vérifier en priorité. Cela se base notamment sur la viralité du post (plus il est exposé, plus Facebook le définit comme une priorité ou encore sur l’éventuel préjudice occasionné par sa diffusion. Ces différentes techniques de modérations s’appliquent tant sur les contenus postés dans des groupes et pages publics que dans des groupes privés.
Au cours des dernières années, 30.000 personnes ont été engagées au sein de l’entreprise afin de s’assurer de la sûreté des contenus publiés par les utilisateurs.
Le réseau social met également en place une procédure de recours si un usager estime qu’un contenu a été supprimé sans raison valable.
Comment décider si un groupe privé doit être supprimé?
1. La firme analyse également l’action des modérateurs et administrateurs du groupe. Dans chaque groupe, des membres se sont désignés comme garants de celui-ci. Si ces derniers enfreignent les règles, Facebook peut décider de destituer le groupe.
2. Si les règles sont enfreintes par les membres, le réseau social peut demander aux membres administrateurs de contrôler les contenus avant leur publication.
3. Si après cela, il se trouve que les membres administrateurs approuvent tout de même des posts allant à l’encontre des directives, Facebook peut décider de supprimer le groupe.
Des exceptions quant aux images liées à la nudité
Le réseau social veille à ce que les groupes, publics comme privés, puissent s’exprimer dans la mesure où les règles érigées sont respectées.
À noter qu’au fil du temps, Facebook a revu sa position en matière d’images liées à la nudité. "Nous comprenons que les contenus montrant des scènes de nudité peuvent être partagés pour diverses raisons, notamment dans le cadre d’une protestation, pour sensibiliser à une cause, ou à des fins pédagogiques ou sanitaires. Par conséquent, nous acceptons les contenus respectant de tels motifs", détaille la firme dans une convention basée sur les standards de la communauté. Les photos de peintures ou sculpture illustrant des corps nus sont acceptés tout comme les clichés illustrant l’allaitement d’une mère à son enfant.
Entre juillet et septembre 2020, Facebook a supprimé 36,7 millions de contenus à caractère sexuel. "98,2% de ce type de contenu a été détecté avant même qu'un utilisateur ne le signale", nous précise-t-on.
Vos commentaires