Avec son concurrent X comme modèle, Meta sur la pente dangereuse de la désinformation

Mark Zuckerberg, le patron de Meta, sur la vidéo diffusée le 7 janvier 2025, annonçant la fin du programme de fact-checking sur l'ensemble des plateformes du groupe.

Le projet de Meta de supprimer son programme de fact-checking aux États-Unis fait craindre aux experts de la désinformation que des plateformes comme Facebook et Instagram soient inondées par les infox, à l’instar du réseau social X d’Elon Musk.

Le 09/01/2025 à 08h30

Le patron du groupe Meta, Mark Zuckerberg, a annoncé mardi, à quelques jours de l’investiture de Donald Trump, que le recours à des spécialistes externes du fact-checking pour lutter contre les fausses nouvelles sur les réseaux sociaux serait remplacé par un système de notes confié à tous les utilisateurs.

La lutte contre la désinformation est depuis longtemps un sujet clivant du débat politique aux États-Unis, la droite radicale l’accusant d’être un outil de restriction de la liberté d’expression et de censure. Et c’est justement au nom de la «liberté d’expression» que Mark Zuckerberg a justifié ce tournant, reconnaissant que ses réseaux vont «épingler moins de mauvais contenus».

Échec du fact-checking participatif

Après avoir racheté Twitter en 2022, rebaptisé X, Elon Musk a supprimé les équipes chargées de lutter contre la désinformation et a introduit les «Community Notes», ou notes de contexte, un outil participatif, dont chaque utilisateur peut s’emparer.

«L’abandon de la vérification formelle des faits au profit d’outils participatifs comme “Community Notes” (sur le réseau social X) a été un échec», explique Nora Benavidez, experte au sein de l’organisation Free Press. X «a essayé et ne peut pas résister au volume de fausses informations et de contenus violents», a-t-elle ajouté.

Pour des chercheurs, l’affaiblissement des garde-fous et la réintégration de comptes autrefois interdits ont transformé la plateforme en refuge pour les propagateurs d’infox. Des études ont même montré que les notes de contexte peuvent contribuer à répandre de fausses informations.

«La vérification des faits par la foule peut être efficace lorsqu’elle est effectuée correctement, mais elle est destinée à compléter la vérification des faits par des professionnels, et non à la remplacer», déclare Gordon Pennycook, de l’université Cornell. «Dans un écosystème où la désinformation a une grande influence, une vérification des faits participative ne fera que refléter les croyances erronées de la majorité», ajoute-t-il.

«Les utilisateurs des notes de contexte sont souvent motivés par des raisons partisanes et ont tendance à privilégier leurs adversaires politiques», ajoute Alexios Mantzarlis, directeur de la Security, Trust, and Safety Initiative à Cornell Tech.

Meta drops fact-checking and loosens its content moderation rules

[image or embed]

— TechCrunch (@techcrunch.com) 7 janvier 2025 à 13:40

Une étude publiée en septembre dernier dans la revue Nature Human Behavior a montré que les avertissements issus de fact-checkers professionnels réduisent la croyance dans les fausses informations et leur partage, même chez les personnes «les plus méfiantes» à l’égard de la lutte contre la désinformation.

Premier pas

Certains craignent que la décision prise par Marc Zuckerberg ne soit qu’un premier pas. «S’il adhère totalement à la stratégie de Musk, la prochaine étape consistera à réduire encore le nombre des modérateurs de contenu, y compris ceux qui suppriment les contenus violents et les discours haineux», met en garde Rosa Curling, co-directrice exécutive de Foxglove, une société d’activisme légal basée au Royaume-Uni.

Meta a également annoncé qu’elle allait transférer ses équipes chargées de modérer les contenus de la Californie vers le Texas, un État plus «conservateur», et l’introduction de changements dans ses politiques de modération, une démarche qui fait craindre un recul pour la lutte contre les discours de haine ou de harcèlement des minorités.

Ainsi, la dernière version des règles de la communauté de Meta indique que ses plateformes autorisent les allégations de «maladie mentale ou d’anormalité» lorsqu’elles sont fondées sur le genre ou l’orientation sexuelle. «Meta donne le feu vert à des personnes pour cibler les personnes LGBTQ, les femmes, les immigrés et d’autres groupes marginalisés avec violence, virulence et des récits déshumanisants» , a réagi Sarah Kate Ellis, présidente de l’association de défense des droits GLAAD.

Par Le360 (avec AFP)
Le 09/01/2025 à 08h30