Facebook Workers Ponturecarga

 

Si vous vous êtes déjà demandé quel genre de choses Facebook ne veut pas sur votre site, vous avez de la chance. Le réseau social publie en 27 pages avec des directives détaillées sur ce qui peut et ne peut pas apparaître sur son site web, pour la première fois dans son histoire.

Donc, si vous ne voulez pas en subir les conséquences, ne faites pas de menaces violentes crédibles et ne vous livrez pas à des violences sexuelles; ne pas promouvoir le terrorisme ou le braconnage d'espèces menacées; n'essayez pas d'acheter de la marijuana, de vendre des armes à feu ou de publier les prix de vente des médicaments d'ordonnance; ne publie pas d'instructions d'automutilation; Ne montrez pas les mineurs dans un contexte sexuel ou commettez des homicides multiples à des moments ou à des endroits différents.

Facebook avait déjà mis son veto à la plupart de ces actions sur sa page précédente «normes communautaires», qui décrit à peu près les normes du réseau social. Mais le document publié mardi contient des détails parfois sanglants.

Les lignes directrices mises à jour reflètent les critères utilisés par ses 7 600 modérateurs pour examiner les publications douteuses et décider si elles sont éliminées ou non, et, à l'occasion, alerter les autorités.

Les critères eux-mêmes ne changent pas, mais les détails révèlent des informations intéressantes. Les photos de sinus sont autorisées dans certains cas. Ex: Dans des images d'allaitement ou dans des peintures - mais pas dans d'autres. Le document détaille ce qu'il considère comme l'exploitation sexuelle des adultes ou des mineurs, mais laisse la place à l'interdiction d'autres formes d'abus si elles surviennent.

Puisque Facebook ne permet pas la présence de tueurs en série, les nouvelles lignes directrices définissent le terme: quiconque a commis deux meurtres ou plus dans des «multiples ou des lieux indécents». Les personnes qui ont commis un seul homicide ne seront pas exclues. Après tout, ça aurait pu être en autodéfense.

L'examen des lignes directrices donne une idée de la difficulté du travail d'un modérateur Facebook. Ces personnes doivent lire et observer des documents douteux de toutes sortes et prendre des décisions compliquées comme si la vidéo fait des excuses pour les troubles de l'alimentation ou simplement cherche à aider les gens. Ou lorsque la ligne entre la blague et le harcèlement est franchie ou que l'on passe d'une réflexion théorique à une menace directe, et ainsi de suite.

Les modérateurs opèrent dans 40 langues différentes. L'objectif de Facebook est de répondre aux rapports sur les contenus douteux dans un délai de 24 heures, bien qu'il indique qu'il n'impose pas de quotas ni de limites de temps aux revues.

Le réseau social a fait plusieurs erreurs retentissantes ces dernières années. Par exemple, les groupes de défense des droits humains disent que Facebook a donné une réponse inadéquate au discours de haine et à l'incitation à la violence contre les minorités musulmanes au Myanmar.

En 2016, Facebook s'est rétracté après avoir enlevé une photo emblématique de 1972 de l'Associated Press dans laquelle une fille apparaît nue et hurlant après une attaque au napalm au Vietnam. Au début, l'entreprise a insisté sur le fait qu'elle ne pouvait pas créer une exception pour une photo particulière d'une mineure nue, mais s'est rétractée rapidement en soulignant que l'image avait une grande "importance mondiale"