Une faille de modération de Twitter a-t-elle rendu possible le maintien en ligne de messages niant l’Holocauste ?

Moderator: Moderator

User avatar
phdnm
Valuable asset
Valuable asset
Posts: 4533
Joined: Tue Jun 05, 2012 12:11 pm

Une faille de modération de Twitter a-t-elle rendu possible le maintien en ligne de messages niant l’Holocauste ?

Postby phdnm » 7 months 1 day ago (Tue Nov 08, 2022 12:15 am)

Une faille de modération de Twitter a-t-elle rendu possible le maintien en ligne de messages niant l’Holocauste ?

Deux tweets d’un ancien joueur de football américain niant la réalité de l’Holocauste sont restés en ligne plusieurs heures en fin de semaine dernière. Certains internautes lient ce défaut de modération à l’arrivée d’Elon Musk.

7 novembre 2022

Au nom de la liberté d’expression, la modération sur Twitter va-t-elle passer à la trappe ? L’inquiétude règne depuis le rachat du réseau social par le milliardaire libertarien Elon Musk, le 28 octobre, suivi une semaine plus tard d’annonces concernant le licenciement de la moitié du personnel de la société américaine. Dans la foulée, un cas d’école est venu conforter ces craintes : il a fallu près d’une journée à Twitter pour retirer un tweet niant la réalité de l’Holocauste.

«L’Holocauste n’a jamais eu lieu, ce ne sont que des fake news pour édulcorer ce qu’ils ont fait à nos ancêtres», a écrit sur la plateforme l’ancien joueur de football américain Junior Galette, vendredi dans la matinée. Plusieurs internautes ont dénoncé, dans la soirée, la présence en ligne de ce contenu, des longues heures après sa publication, et fait le lien avec les coupes dans les effectifs de Twitter décidées par Elon Musk. «Négationnisme par des comptes certifiés, quelques heures après qu’Elon Musk a licencié la plupart des équipes de modération de contenu de Twitter», a déploré l’un d’eux dans un tweet (en anglais) aimé plus de 38 000 fois. Un reproche ensuite repris par d’autres, à l’instar du créateur de contenus sur Twitch québécois TheLeoVinci.

Image


Ce tweet de Junior Galette a été suivi d’un autre, posté en fin de journée. L’ex-joueur de football y réagissait à des photos prises dans les camps de concentration et d’extermination mis en place par l’Allemagne nazie : «Mort de rire. Où sont ces personnes inventées ? Laissez-moi deviner, vous avez aussi des vidéos de l’alunissage ?» Avant d’être supprimée, cette publication est, elle aussi, restée en ligne un bon moment : la dernière fois que CheckNews l’a consultée, cela faisait dix-sept heures qu’elle figurait sur le compte.

Ces deux contenus ont finalement été retirés de la plateforme. Et le compte de Junior Galette n’a plus rien publié, ni liké ou commenté, depuis vendredi.
«Philosophie» de modération de Twitter

Ce silence pourrait être la conséquence de l’application de la politique habituelle de Twitter en matière de «conduite haineuse», qui n’a pas (pour le moment du moins) bougé. De fait, le réseau social explique, dans son centre d’assistance, interdire «le ciblage de personnes ou de groupes de personnes avec du contenu faisant référence à des formes de violence ou à des événements violents dont une catégorie protégée a été la cible ou victime principale, cela dans le but de les harceler. Cela inclut, mais sans s’y limiter, les médias ou les textes qui font référence ou décrivent : les génocides (par exemple, l’Holocauste) ; les lynchages».

En conséquence, Twitter peut notamment «exiger qu’une personne supprime le contenu en infraction et lui imposer d’utiliser son compte en mode lecture seule pendant une certaine période avant de pouvoir tweeter de nouveau». Si l’utilisateur récidive, ses infractions «pourront entraîner des périodes plus longues de mode lecture seule, avant une éventuelle suspension définitive du compte». En outre, dans les cas où le compte incriminé «présente principalement des comportements inappropriés», ou encore si l’un de ses contenus constitue «une menace violente», il pourra être définitivement suspendu dès le premier signalement examiné par Twitter.

La «philosophie» de modération de Twitter permet à certains contenus de rester en ligne quand bien même ils enfreignent les règles édictées. Les tweets portant sur «un sujet d’intérêt public légitime», d’autant plus s’ils émanent des comptes des représentants politiques et des institutions d’un pays, sont notamment concernés.

Posts haineux partagés par des centaines de personnes

S’agissant des comptes certifiés (dont le badge bleu indique que leur identité a été vérifiée) comme celui de Junior Galette, cette certification peut leur être retirée s’ils «commettent des infractions graves ou répétées aux règles de Twitter». Parmi ces infractions, figurent toutes les violations qui relèvent de la «conduite haineuse». «La suppression du badge à la suite d’infractions répétées est étudiée au cas par cas et n’est pas automatique», précise Twitter. Pour sa part, Galette a donc, pour le moment, été épargné.

Si ses deux tweets niant la réalité de l’Holocauste ont bien fini par disparaître du réseau social, doit-on s’étonner qu’ils aient pu subsister aussi longtemps – et au passage être partagés par des centaines de personnes ? Pour les internautes cités plus haut, la responsabilité est à trouver du côté d’effectifs réduits, du fait des décisions d’Elon Musk, et donc incapables d’assurer un travail de modération satisfaisant. Depuis que le fondateur de Tesla a pris le contrôle du site, 50 % du personnel a été remercié, avec en première ligne les départements du marketing et du design, et les manageurs.

La direction s’est voulue rassurante sur ce point. «Nos principales capacités de modération restent en place», a défendu le chef de la sûreté et de l’intégrité de la plateforme, Yoel Roth, dans un tweet publié vendredi. Précisant que la réduction d’effectifs «a touché environ 15 %» de son service Trust & Safety, et que le «personnel de modération de première ligne» est le plus préservé. D’ailleurs, insiste-t-il, «le volume quotidien d’actions de modération que nous prenons est resté stable» depuis le changement de propriétaire.

«Engagement ferme et inchangé»

Le même jour, Elon Musk martelait que «l’engagement ferme de Twitter en faveur de la modération du contenu reste absolument inchangé». Et se félicitait du fait que ses équipes aient «parfois constaté cette semaine que les discours haineux se situaient en dessous des niveaux antérieurs». Le nouveau patron, réputé pour prôner une vision absolutiste de la liberté d’expression, répète qu’il ne veut pas radicalement assouplir la modération des contenus, et compte former un conseil de modération, composé «de représentants aux opinions très divergentes». Par ailleurs, Musk a affirmé avoir discuté avec plusieurs responsables d’associations de défense des droits des minorités sur «comment Twitter continuerait à lutter contre la haine et le harcèlement, et à appliquer son règlement sur l’intégrité des élections».

C’est que ce système de modération, au-delà des interventions «humaines», repose essentiellement sur des logiciels détectant certains mots, expressions ou images. Cette modération automatique est opérationnelle depuis 2017. Licenciements ou non, les tweets de Junior Galette auraient ainsi pu – ou dû – être supprimés. Mais la modération sur Twitter, face aux millions de contenus quotidiennement publiés, souffre de nombreuses failles. Et ça ne date pas de l’époque Musk, comme l’ont mis en évidence plusieurs enquêtes successives.

Les contenus négationnistes pas traités et modérés en priorité

En mai 2020, quatre associations françaises (SOS Racisme, l’Union des étudiants juifs de France, SOS Homophobie et J’accuse) avaient ainsi assigné Twitter en justice en raison des «défaillances chroniques» de la plateforme en matière de traitement des signalements de contenus illicites. Les organisations requérantes s’appuyaient sur un test mené du 17 mars au 5 mai de cette année-là, dont il ressortait que sur plus de 1 100 tweets racistes, antisémites et homophobes signalés, 12 % seulement avaient été supprimés de la plateforme sous cinq jours.

S’agissant plus particulièrement des contenus négationnistes, l’ancien PDG Jack Dorsey avait indiqué, au cours d’une audition devant le Sénat américain en octobre 2020, qu’ils n’étaient pas traités et modérés en priorité puisque n’étant pas considérés par Twitter comme des fausses informations (au même titre que ceux niant la gravité de la pandémie de Covid-19 par exemple). Et ce, bien que la société martelait dans le même temps vouloir sanctionner les publications qui «nient ou diminuent» les événements violents, y compris l’Holocauste.

Pourtant, les besoins existent : une étude commandée aux chercheurs de l’Oxford Internet Institute par l’UNESCO et l’ONU, dont les résultats ont été dévoilés en juillet, établit que 19 % des contenus liés à l’Holocauste sur Twitter contiennent des déformations et des inexactitudes. Mais sur les 137 posts antisémites signalés de mai à juin 2021 par l’ONG britannique Center for Countering Digital Hatred (Centre de lutte contre la haine numérique) – car relevant du négationnisme, ou alors des théories conspirationnistes –, Twitter n’en a supprimé que 11 %. Ce taux descendait même à 5 % dans le cadre d’une enquête de l’Anti-Defamation League, principale organisation anti-haine à travers le monde, qui a signalé 225 tweets du 18 février au 21 avril 2022.


https://www.liberation.fr/checknews/une ... IUYZH2D6Y/

Return to “Forum Révisionniste en Français”

Who is online

Users browsing this forum: No registered users and 1 guest