Interview Wazemmes
Wikipédia, la fiabilité de l’information se construit
Rémy est directeur exécutif de l’association Wikimedia France depuis 2018, il a notamment lancé le projet Lingua libre pour contribuer à l’oral. L'outil vient de passer le million d’enregistrements...
Malgré ses promesses, le numérique est plus souvent associé à la propagation des fake news (fausses nouvelles) qu’à l’avènement d’un âge de l’accès à l’information juste et de qualité pour toutes et tous. Encyclopédie numérique emblématique, Wikipédia est au cœur des débats sur la fiabilité du web. Rémy Gerbet, directeur de l’association Wikimédia France, nous parle des mécanismes encadrant la rigueur des contributions, en particulier dans le contexte de la crise sanitaire. Rémy est directeur exécutif de l’association Wikimedia France depuis 2018. Il est embauché en 2015 en tant que volontaire en service civique avec pour objectif de soutenir le développement des langues minoritaires en France dans l’association. Il a notamment lancé avec d’autres contributeurs le projet Lingua libre pour contribuer à l’oral. L’outil vient de passer le million !
RÉMY, AUSSI LONGTEMPS QUE JE M’EN SOUVIENNE, MES PROFS M’ONT TOUJOURS DIT QU’ON NE POUVAIT PAS AVOIR CONFIANCE EN WIKIPÉDIA PARCE QUE N’IMPORTE QUI POUVAIT Y AJOUTER N’IMPORTE QUOI, OÙ EN EST-ON LÀ-DESSUS ?
C’est vrai qu’il y a encore des professeurs qui sont en défiance face à Wikipédia, mais c’est en train de changer. La communauté éducative s’est largement approprié l’outil et les mécanismes de contribution, la confiance augmente. De toute façon, ce n’est pas véritablement un problème, nous encourageons nous-même à garder un esprit critique sur ce que l’on peut trouver sur Internet, comme sur n’importe quelle source d’information d’ailleurs. Cela s’applique aussi à Wikipédia ! En revanche, être particulièrement en défiance face à Wikipédia parce que tout le monde peut y contribuer est une erreur. Au contraire, plus il y a de contributeurs, plus il y a de vigilance quant à la véracité des informations qui s’y trouvent. Les protocoles de contributions sont très stricts et les informations doivent renvoyer à des sources et des documents pour être vérifiées. Quand ce n’est pas le cas, il est très clairement indiqué par des bandeaux que l’information disponible sur la page est à prendre avec des pincettes. Par ailleurs, il ne serait pas juste de dire que “n’importe qui” peut contribuer. Tout le monde peut se créer un compte et proposer des modifications de l’encyclopédie effectivement, mais ces modifications sont revues par des membres de la communauté qui ont un haut niveau de connaissance des mécanismes de contribution. Il est bon de se méfier et de chercher à comprendre comment fonctionne l’outil, qui est très transparent sur ses mécanismes. Certaines études ont montré qu’il y avait moins d’erreurs sur Wikipédia que sur d’autres encyclopédies réputées, tout simplement parce qu’il est plus facile de les corriger !
J’IMAGINE QUE DANS DES SITUATIONS DE CRISE COMME CELLE DE LA PANDÉMIE MONDIALE DE COVID-19, L’ENCYCLOPÉDIE DOIT ÊTRE MISE À RUDE ÉPREUVE, NON ?
Figure-toi que cela a plutôt été l’inverse. Un des principes de Wikimédia est la neutralité de point de vue. Dans un contexte de débat de fond, l’outil ne choisit pas son camp. Il documente et permet à chacun de se faire une idée critique. Bien entendu, la communauté donne un poids important à la version scientifique dominante, mais les versions minoritaires sont également listées. C’est le cas pour le sujet emblématique des attentats du 11 septembre. Pendant la crise sanitaire liée à la propagation de la covid-19, l’OMS (Organisation Mondiale de la Santé) a eu à cœur de mettre les informations dont elle disposait à disposition du plus grand nombre. Un partenariat a alors été conclu entre l’OMS et la fondation Wikimédia pour encadrer la “mise en communs” de ces documents. Wikimédia a donc formé les agents de l’OMS à utiliser l’outil Wikicommons pour que tout le monde bénéficie des meilleures informations possible dans un contexte de grande demande populaire de transparence. Du côté de la communauté, un wiki-projet a été créé pour organiser le traitement de l’information. Les articles consacrés à la pandémie sont protégés pour éviter les tentatives de désinformation. Seuls des contributeurs expérimentés sont alors habilités à intervenir. Finalement Wikipédia a été vu comme un “refuge de la raison” dans un environnement très instable. Le partenariat a été très utile pour l’OMS. Leurs documents ont été plus consultés que s’ils étaient restés sur leur site et ils ont appris à mettre leurs documents en communs en utilisant les licences creative commons. Les articles ont été beaucoup consultés, plus de 532 millions de lectures pour certains, bien plus que si les informations étaient restées sur leur site.
TU PARLES DE VIGILANCE DANS LA COMMUNAUTÉ ET DE PROTECTION DES PAGES, COMMENT EST-CE QUE CELA FONCTIONNE CONCRÈTEMENT DANS UN MONDE CONTRIBUTIF ?
Nous avons un système de “patrouilles” et de modération. Il y a plusieurs cas de figure. Au quotidien, les contributeurs regardent TOUT ce qui se passe dans les contributions et peuvent constater un pic de contribution sur un sujet donné ou du blanchiment de page. Ils alertent alors la communauté pour un suivi rapproché et peuvent demander une protection préventive des pages concernées. Dans certains cas, il y a des listes de suivi sur des sujets sensibles. Quand on est 200 ou 300 à surveiller les sujets en même temps, on voit directement les attaques, surtout quand on est répartis sur plusieurs fuseaux horaires (nota : plusieurs associations nationales Wikimédia collaborent au soutien des contributeurs francophones, Wikimédia Canada et Wikimédia Côte d’Ivoire par exemple). Si on constate une volonté individuelle de pousser une version qui relève de la fausse information ou de la malveillance, les comptes peuvent être suspendus. Si l’attaque est massive, la page est protégée et seuls quelques contributeurs d’expérience sont en mesure de changer la page.
EST-CE QU’IL Y A DES CAS OÙ CETTE VIGILANCE A ÉTÉ MISE À L’ÉPREUVE ?
Effectivement, la communauté francophone a notamment documenté ce qu’on appelle entre nous l’affaire “WikiZédia”. Un contributeur historique de l’encyclopédie (donc avec un haut niveau de confiance) avait poussé des contenus pour améliorer la page du candidat Eric Zemmour pendant la campagne présidentielle de 2022, et notamment essayé de la référencer au maximum dans d’autres pages de l’encyclopédie. Ce contributeur faisait partie de l’équipe de communication du candidat, c’était une opération politique qui contournait les règles contributives pour imposer des changements. Mais une fois que la communauté a été alertée, le contributeur a été banni et ses modifications ont été effacées. Il y a eu un débat dans la communauté pour savoir s’il faut protéger des pages “par défaut”, notamment pour les personnes politiques ou pour certains sujets sensibles (par exemple sur le nucléaire en France). Mais jusqu’à maintenant, les pages ne sont protégées qu’en cas de problème identifié.
QU’EST-CE QUI POURRAIT METTRE EN DANGER CES MÉCANISMES DE CONFIANCE D’APRÈS TOI ?
Wikipédia est une encyclopédie contributive. Elle repose donc sur ses contributeurs et contributrices, il faut en prendre soin. Une baisse massive des contributions peut mettre en péril le dispositif, notamment en ce qui concerne les patrouilles et la maintenance des outils développés par et pour la communauté. La question du renouvellement patrouilleurs et patrouilleuses se pose en ce moment parce que la communauté prend de l’âge. Nous vivons une période charnière à ce sujet. D’un côté, la communauté francophone est dynamique et son barycentre se déplace géographiquement, notamment vers l’Afrique. D’un autre côté, les phénomènes de harcèlement envers les contributeurs se multiplient et le cadre législatif pourrait nous être défavorable. En effet, Wikipédia ne sera jamais en capacité d’être aussi réactif qu’un GAFAM sur de la régulation, par exemple pour retirer un contenu sensible en moins de 24h. Il faut prendre soin des communs numériques et prendre en compte leur spécificité quand on légifère sur l’avenir du numérique.