Photo : Meta © CNET
Meta, la société mère de Facebook, n’a pas mis en place les mêmes processus pour modérer les contenus en hébreu et en arabe, ce qui pourrait entraîner un biais dans l’application des règles sur les contenus en langue arabe, alors que les contenus en hébreu sont moins pénalisés.
Des documents récemment révélés et un ancien employé de Meta qui s’est entretenu avec le Guardian montrent que les directives internes régissant les discours de haine liés à la Palestine et à Israël ne sont pas égales ou normalisées, ce que les activistes et les défenseurs des droits numériques soutiennent depuis longtemps.
Meta, qui possède Facebook, WhatsApp et Instagram, est depuis longtemps critiquée pour ses politiques concernant le langage utilisé en relation avec la guerre israélienne en cours à Gaza.
Des documents d’orientation internes publiés après le début de la guerre, le 7 octobre, ont montré une disparité dans la manière dont Meta modérait les contenus.
Un exemple en est la politique exigeant la suppression de déclarations telles que "boycott des magasins juifs" et "boycott des magasins musulmans", mais autorisant la déclaration "boycott des magasins arabes".
L’ancien employé et les documents ont également révélé que si Meta dispose d’un système permettant de suivre la précision de l’application du contenu dans de nombreuses langues, qui fait appel à des experts humains, pour une partie des décisions relatives au contenu en hébreu, la notation a été jugée "irréalisable" en raison de l’absence de traduction.
L’ancien employé, qui n’a pas été nommé par le Guardian par crainte de représailles, a déclaré que l’hébreu était examiné sur une base "ad hoc", contrairement à l’arabe, parce qu’il n’était pas intégré dans le système.
Cette différence suggère qu’il y a un "biais dans la façon dont ils appliquent le contenu", puisque Meta examine l’hébreu moins systématiquement que l’arabe, a déclaré l’ancien employé.
Les activistes affirment depuis longtemps qu’il faut accorder plus d’attention au contenu hébreu sur les réseaux sociaux, après qu’une analyse indépendante commandée par Meta en 2022 a montré que les arabophones étaient pénalisés plus souvent que les hébreophones lors de l’assaut israélien de 2021 contre Gaza.
À l’époque, le système de Meta signalait automatiquement les contenus en langue arabe à un taux plus élevé que les contenus en hébreu en raison des politiques incohérentes de l’entreprise, ce qui "peut avoir entraîné un biais involontaire", selon le rapport.
Cela est dû au fait que Meta a installé un "classificateur de discours hostiles" en arabe qui détecte automatiquement les discours haineux, mais ne fait pas la même chose pour les contenus en hébreu.
Le contenu arabe a donc été supprimé plus fréquemment que le contenu hébreu.
Banques d’images et algorithmes
Les images, les phrases et les vidéos téléchargées par Meta pour permettre à ses outils d’apprentissage automatique de signaler et de supprimer les messages qui enfreignent la politique ont également suscité des inquiétudes.
Les contenus considérés comme enfreignant les règles de Meta sont téléchargés dans des banques de contenus, qui sont mis en correspondance avec les contenus publiés sur les réseaux sociaux par des modérateurs algorithmiques.
Cependant, l’ancien employé a déclaré que le personnel avait téléchargé par erreur certaines images sur la banque après le 7 octobre et qu’il n’y avait "aucune procédure" pour supprimer ces images, ce qui pourrait également conduire à l’application excessive de contenus liés à la guerre contre Gaza.
Meta a depuis contesté ces propos, affirmant qu’il est "relativement facile de retirer un élément d’une banque s’il a été ajouté par erreur", malgré des documents montrant qu’il n’existait à l’époque aucune procédure pour retirer les "clusters non violents après que des appels relatifs à la politique aient été faits qui rendent bénin le contenu précédemment mis en banque".
L’attention accrue portée aux décisions et aux politiques de Meta depuis le début de la guerre a amené certains employés à craindre des représailles ou d’être considérés comme "antisémites" s’ils soulevaient la question de l’application excessive du contenu arabe et pro-palestinien, a déclaré l’ancien employé.
La disparité dans la modération du langage et du contenu par Meta a suscité de nombreuses critiques ces derniers mois, alors que la guerre contre l’enclave assiégée fait rage et que le nombre de morts à Gaza s’élève à plus de 40 000.
"Lorsque les voix palestiniennes sont réduites au silence sur les plateformes Meta, cela a des conséquences très directes sur la vie des Palestiniens", a déclaré Cat Knarr, qui travaille pour la Campagne américaine pour les droits des Palestiniens.
"Les gens n’entendent pas parler de ce qui se passe en Palestine, mais ils entendent une propagande qui déshumanise les Palestiniens. Les conséquences sont très dangereuses et très réelles", a ajouté Mme Cat.
En décembre, Human Rights Watch a déclaré que les politiques et les pratiques de Meta "ont réduit au silence les voix qui soutiennent la Palestine et les droits humains des Palestiniens", affirmant qu’il y avait une augmentation de la "censure en ligne systématique qui s’est développée dans le contexte d’une violence sans précédent...".
Le groupe de défense des droits a ajouté qu’entre octobre et novembre 2023, il a documenté plus de 1 050 suppressions et autres suppressions de contenus publiés par les Palestiniens et leurs partisans sur Instagram et Facebook, y compris sur les violations des droits humains.
Traduction : AFPS