Les règles de modération de Facebook deviennent moins floues

Consulter toutes les actualités

Facebook a (enfin) décidé de rendre publiques ses « directives internes », ces règles qui régissent la modération des contenus publiés sur le réseau social.

Cette publication soudaine, après des années d’opacité totale, s’inscrit dans une démarche de reconquête des utilisateurs mais aussi de transparence et d’amélioration du service.

La vice-présidente chargée de la politique de gestion des contenus, Monika Bickert, a annoncé que « ces règles aideront les gens à comprendre où est-ce que nous traçons la limite sur des problèmes nuancés ».

En effet, pour Facebook « donner ces détails facilite la possibilité pour tous, y compris des experts de différents champs, de nous faire des retours pour que nous puissions améliorer ces règles ». L’objectif est donc bel et bien double.

Redorer le blason de Facebook

Facebook a de nombreuses fois été accusé de laisser prospérer des contenus haineux ou au contraire d’exercer une censure arbitraire sur sa plateforme.

Et la façon dont la multinationale gère les contenus a toujours été un secret bien gardé, qui en a intrigué plus d’un, bien qu’il y ait eu une fuite partielle de ces règles dans la presse dans le journal The Guardian (journal social-libéraliste britannique) en mai 2017, ou encore dans la Süddeutsche Zeitung (journal libéral de gauche allemand) ou ProPublica (organisme sans but lucratif New Yorkais).

Ce code de modération comporte 6 grandes rubriques : violence et comportement criminel, sécurité, contenu répréhensible, intégrité et authenticité, respect de la propriété intellectuelle et données relatives aux contenus.

Des contenus extrêmement contrôlés

Menace

Facebook prend les menaces proférées sur sa plateforme très au sérieux et affirme que ses algorithmes sont en mesure de juger si une menace de violence est « crédible » (cible, lieu, date, méthode, mention d’une arme spécifique…) ou non.

Groupe protégé

Le réseau social aux 2 milliards d’utilisateurs a défini une catégorie de personnes dites « vulnérables ». Ces utilisateurs sont plus protégés car plus exposés, cette catégorie comprend par exemple les chefs d’Etat, les témoins et sources, les militants ou les journalistes.

On retrouve également des « caractéristiques protégées » contre les propos haineux : « La race, l’ethnie, le pays d’origine, la religion, l’orientation sexuelle, le sexe, le genre, l’identité de genre, le handicap ou la maladie. »

Discours haineux

Les attaques haineuses sont séparées en 3 degrés de gravité : le discours « déshumanisant », consistant par exemple à comparer une personne ou un groupe à de la saleté ou des déjections, les déclarations d’« infériorité physique, mentale ou morale » ou des expressions comme « je hais » ou « ce sont les pires » et enfin les « appels à l’exclusion ou à la ségrégation »

Harcèlement

Le réseau social souhaite protéger davantage les mineurs : par exemple, certains options de la plateforme ne leur sont pas accessibles, comme la définition d’une situation amoureuse.

En revanche, les règles liées au harcèlement sont moins protectrices pour les personnalités publiques. Facebook se justifie ainsi : « Nous voulons permettre les échanges, qui incluent souvent des propos critiques sur les personnes qui apparaissent dans l’actualité ».

Des personnalités controversées telles que Donald Trump génèrent à la seule mention de leurs noms des torrents de messages plus ou moins vindicatifs, qui ne sont pas modérés par Facebook.

AgencePulsi.com communication Facebook règles modération contenus

Nudité

Elle est acceptée dans le cadre d’« une manifestation, pour sensibiliser à une cause, ou pour des raisons pédagogiques ou médicales ». Les photos d’allaitement ou de post-mastectomie par exemple, ne sont pas interdites.

Facebook déclare aussi autoriser « les photos de peintures, sculptures et autres œuvres d’art ». Ce qui est assez drôle lorsqu’on se rappelle la polémique provoquée par la censure du tableau « l’Origine du monde » de Gustave Courbet, représentant un sexe féminin, ou plus récemment la statuette de la Vénus paléolithique.

Tout ce qui concerne la nudité des enfants est en revanche totalement prohibée.

En 2016, Facebook avait ainsi censuré une célèbre photographie historique montrant une enfant nue fuyant un bombardement au napalm au Vietnam, avant de se rétracter pour des causes évidentes.

Suicide

La promotion ainsi que les images concernant le suicide sont absolument interdites.

Encore une fois, il y a des exceptions : s’il s’agit d’un fait d’actualité ou d’une euthanasie « dans un cadre médical ». Dans ce contexte précis, les contenus sont autorisés à rester en ligne mais ils sont identifiés grâce à un avertissement.

Violence graphique

Promouvoir de telles images est interdit, mais en utiliser pour les dénoncer est toléré, avec avertissement évidemment.

Facebook nous livre une liste des contenus acceptés mais accompagnés d’avertissement : des images de corps démembrés « dans un environnement médical », de « personnes en feu », de torture contre les animaux ou d’un enfant « étranglé par un adulte ».

 

Certes Facebook s’ouvre un peu plus à ses utilisateurs, mais la responsable de la politique des contenus, Siobhan Cummiskey, reconnaît que « quelques petits détails » n’ont pas été rendus publics, « afin d’empêcher les gens de contourner le système ».

Facebook : une police du web

Aujourd’hui, on compte 7 500 « vérificateurs de contenu », soit 40% de plus qu’en 2017. Ces modérateurs sont « une combinaison d’intelligence artificielle et de signalements », ce qui permet de mêler logiciel et humain pour une plus grande efficacité.

Dorénavant, l’utilisation d’algorithmes ne se limite plus à la détection de contenus couverts par un droit de propriété intellectuelle ou aux images pédopornographiques, mais s’est étendue à l’apologie du terrorisme et même, désormais, aux fausses informations (fake news).

Mais Facebook offre la possibilité pour ses utilisateurs de « faire appel » d’une décision de suppression d’un contenu (nudité, activité sexuelle, discours de haine ou violence graphique) : ils pourront demander « un deuxième avis ». C’est-à-dire que le contenu sera analysé de nouveau par les équipes de modération dans les 24h et restauré si nécessaire.