Imagine un monde/La technologie
Dix ans de participation active au sein des espaces éditoriaux Wikimédia m'ont donné l'occasion d'assister à toute une série de changements techniques qui auront littéralement transformé mon expérience d'utilisateur des projets Wikimédia autant que la connaissance de mon terrain d'étude. À partir de 2010, la Fondation commença effectivement à s'investir sérieusement dans l'amélioration de l'infrastructure numérique des projets Wikimédia[S 1], et dès l'année 2013 les innovations au niveau des fonctionnalités n'ont fait que se succéder. Ces changements furent pour moi une démarche réellement salvatrice pour la rédaction en ligne de cette présente thèse de doctorat. Durant l'été 2011, lorsque je rédigeais mon mémoire de fin de master sur Wikiversité, je n'avais d'autre choix que de le rédiger entièrement dans une syntaxe HTML simplifiée appelée wikicode. C'était deux ans avant que n'apparaissent les fonctionnalités de type Ajax ou WISIWIG déjà en vogue sur les réseaux sociaux. Deux évolutions majeures à mon niveau, puisque ces deux fonctionnalités me permirent d'éditer mon travail avec une interface proche d'un traitement de texte, tout en gardant la liberté de modifier le code en cas de nécessité.
Pendant que je réalisais mon travail de fin d'étude de master, le seul système de notification actif sur les sites Wikimédia se limitait à vous avertir lorsque vous receviez un message sur votre page de discussion utilisateur[N 1]. Pour être sûr que le destinataire d'un message soit notifié, il fallait donc chaque fois répondre sur la page de discussion de la personne qui avait laissé un message sur votre page, ce qui avait pour effet gênant de répartir la discussion sur deux pages différentes. Pour remédier à cela, j'avais d'ailleurs improvisé la création de sous-pages de ma page de discussions dans le but d'établir des espaces de dialogues séparés avec chacun de mes interlocuteurs[S 2]. De manière à être avertis tous les deux de l'arrivée d'un nouveau message, mon interlocuteur et moi pouvions dès lors ajouter la page de dialogue spécialement créée dans nos listes de suivi, un autre système de notification permettant de surveiller les modifications susceptibles d’apparaître dans l'ensemble des projets. J'ai ainsi gardé ce système jusqu'à l'arrivée de la fonctionnalité « echo » qui permit enfin de pouvoir notifier n'importe quel utilisateur, sur n'importe quelle page des projets, juste en plaçant un hyperlien pointant vers lui et sa propre signature dans le même message.
Sans ces deux changements majeurs, l'un concernant l'édition, l'autre la communication, la réalisation de ce travail de recherche aurait donc demandé bien plus de temps pour aboutir au résultat escompté. Au niveau de sa mise en page, de son écriture et sa relecture ce sont des heures de travail inconfortable de modification du wikicode qui m'auront été épargnées. Ce système de notification aura fortement renforcé le processus dialogique que j'ai tenu à mettre en place avec les autres acteurs de mon terrain d'étude. Afin d'illustrer l'inconfort d'utiliser le wikicode pour rédiger les pages Web qui constituent cette thèse de doctorat, voici repris ci-dessous, la comparaison entre une phrase, une note de bas de page, un hyperlien, une image et un tableau, chacun étant présenté dans l'éditeur visuel et en wikicode[N 2].
Image tirée de l'ouvrage Jupes troussées[S 3] trouvé sur Wikisource avec cette note fictive et un simple tableau.
A | B | |
---|---|---|
a | 1 | 2 |
b | 3 | 4 |
---- Image tirée de l'ouvrage ''Jupes troussées''<ref group="S">{{Lien web|auteur1=E.D.|titre=Jupes troussées|url=https://fr.wikisource.org/wiki/Jupes_trouss%C3%A9es}}</ref> trouvé sur [[w:fr:Wikisource|Wikisource]] avec cette note fictive<ref group="N">Note fictive pour démonstration du wikicode</ref> et un simple tableau.
[[Fichier:Jupes troussées-Bandeau-8.jpg|alt=Image démo|gauche|vignette|Image démo (source:https://w.wiki/32hj)]]
{|class="wikitable sortable"|+Tab. Fictif !!A!B|-|a|1|2|-|b|3|4|}{{Clear}} ----
L'évolution technologique de Wikimédia
[modifier | modifier le wikicode]Parmi les innovations techniques qui font suite à la création du projet Wikipédia en anglais, la première à voir le jour fut un robot (bot) dédié à l'accomplissement de tâches automatisées. C'était en octobre 2002, et il avait reçu le nom humoristique de « Rambot ». De manière comparable à Lsjbot déjà présenté dans le chapitre précédent, ce premier bot avait pour mission de créer automatiquement les 33 832 articles correspondant aux villes américaines répertoriées par le bureau du recensement des États-Unis[B 1]. En octobre 2020 et à titre indicatif, on retrouve pas moins de 82 bots actifs dans le projet Wikipédia en français[S 4] et 9 sur Wikiversité de même langue[S 5].
En septembre 2004, l'écosystème numérique Wikimédia vit apparaître la plate-forme Wikimedia Commons dont le but consiste à centraliser la presque la totalité des fichiers utilisés sur les sites Wikimédia. C'était là une manière de réduire drastiquement l'espace de stockage nécessaire à leur hébergement, tout en évitant de devoir poursuivre la surveillance et la maintenance des fichiers doublons qui étaient précédemment enregistrés séparément dans les différents projets qui en avaient besoin. Wikimedia Commons, connut ensuite diverses améliorations pour faciliter la recherche, la consultation et la catégorisation des fichiers hébergés.
Par la suite et toujours dans un esprit de rationalité et d'économie de stockage, de contrôle et de maintenance, l'espace de noms « modèle » fit aussi son apparition. L'idée cette fois était de centraliser sur une seule page un travail qui autrement aurait dû être effectué de manière récurrente dans de nombreux endroits. Ce système a aussi pour avantage d'homogénéiser l'apparence des projets tout en permettant la modification de plusieurs pages au départ d'une seule.
Ce nouvel espace séparé des pages dédiées aux lecteurs des projets rejoint ainsi de nombreux autres espaces destinés à la catégorisation, aux discussions, à l'entraide, à l'organisation et la gouvernance des projets. Tous ces lieux d'activités sont peu visibles pour une personne qui se limite à consulter le contenu pédagogique diffusé par les projets Wikimédia. Et pourtant, une fois rassemblées, ces pages cachées représentent la partie immergée de l'iceberg numérique Wikimédia qui, dans le cas du projet Wikipédia en français, représente quatre fois le nombre de pages encyclopédiques[S 4].
En 2006, apparut le projet Incubator en tant que lieu de maturation de nouvelles versions linguistiques des projets déjà existants[S 6], à l’exception des projets Wikiversité et Wikisource qui bénéficient tous deux d'une plateforme indépendante. Et ce fut ensuite l'arrivée de 56 nouveaux serveurs et de nouveaux équipements réseau durant l'année 2007, qui permirent de réagir à l'apparition du « septembre éternel », une expression soulignant le fait que l’afflux des nouveaux utilisateurs se faisait maintenant toute l'année et plus seulement au mois de septembre lors de la réouverture des établissements d'enseignement.
L'année 2008 fut marquée par l'apparition d'une interface de programmation qui offrira au logiciel MediaWiki la possibilité d'échanger des informations ou autres types de services avec d'autres logiciels distants. 2009 vit le développement du projet usability et de son site wiki dédié. Il s'agissait d'un projet financé par la U.S.-based Stanton Foundation dans le but de rendre Wikipédia plus convivial pour les nouveaux contributeurs grâce à des modifications faites au logiciel MediaWiki basées sur des études comportementales réalisées parmi les utilisateurs[S 7].
2011 eut aussi son lot de nouveautés technologiques, avec l'application du protocole sécurisé HTTPS sur l'ensemble des sites, la possibilité de spécifier son genre sur les comptes utilisateurs, et le démarrage du projet Wikimedia Labs comme environnement de test équipé de machines virtuelles. Ce dernier projet permettait de réaliser toute sortes d'expérimentations avant de les appliquer au sein de projets[S 8]. Il fut remplacé en 2017 par le Wikimedia Cloud Services qui fournit actuellement des outils, des services et un soutien aux collaborateurs techniques qui souhaitent contribuer aux projets de logiciels Wikimédia[S 9].
Suite à l'augmentation de la consultation des projets Wikimédia au départ d'appareils mobiles, le mouvement finit par développer dès 2011, les premières applications Wikimedia[S 10] adaptées ensuite aux attentes d'un marché en pleine expansion. Grâce aux applications Wikipédia et Wikimedia Commons sur Android et iOS, il devint dès lors plus facilite au départ d'un smartphone ou d'une tablette de consulter des pages, images et vidéos de Wikipédia, tout en bénéficiant d'options de téléchargement et de consultation de ses propres fichiers.
En 2012, ce fut au tour du projet Wikipedia zero[S 11] de voir le jour en imitation du projet Facebook zero lancé deux ans plus tôt comme action de marketing direct du réseau social dans un marché africain ou 99 % de l'accès à Internet se faisait au départ d'appareils mobiles[M 1]. À l'image de « Facebook zéro », Wikipedia zero offrait un accès gratuit à Wikipédia aux utilisateurs du Web mobile. Cependant, ce type de procédé fut pointé du doigt à la suite des sondages qui avaient révélé que des personnes déclaraient ne pas utiliser Internet, tout en utilisant Facebook[M 2]. En Angola et au Bangladesh, Wikipédia zéro dut aussi faire face à quelques soucis, lorsque les habitants des pays commencèrent à utiliser Wikimédia Commons comme lieu de stockage pour des photos personnelles et des films non libres de droit[M 3].
De par ma propre expérience lors de mes voyages en Inde et au Ghana, je peux aussi témoigner du fait qu'il me fut, soit impossible d'utiliser les services Wikipedia Zero, soit impossible de bénéficier d'un accès gratuit contrairement à ce qui était indiqué sur les pages de connexion. En 2018 et alors que le projet était associé à 97 opérateurs de téléphonie mobile dans 72 pays Wikipédia zéro fut finalement abandonné[M 4]. Le prétexte invoqué par la Fondation fut une baisse d'intérêt des utilisateurs[M 5], tandis que sur le Net on parlait aussi de violation de la neutralité du net[M 6] et d'une certaine forme de colonialisme[M 7].
Le 30 octobre 2012, l'arrivée du projet Wikidata concrétisait l'entrée du web sémantique au sein de l'écosystème Wikimédia, avec la construction d'une base de données structurées dans laquelle les pages ne sont plus créées au départ d'un mot en tant que signifiant, mais bien un numéro dans le but d'identifier les concepts signifiés (les Items), indépendamment de toute langue. En reposant lui aussi sur le logiciel Meta-Wiki, mais avec une nouvelle extension intitulée Wikibase, ce projet permit la création de pages, non plus au départ du langage naturel, mais grâce à ces items qui sont tous reliés entre eux selon un système de maillage. De ceci résulte donc que le signifié Belgique par exemple, ne possède qu'une seule page sur Wikidata, titrée par un numéro et que sur celle-ci se trouvent tous les signifiants dans toutes les langues avec des liens vers les différents projets linguistiques où un article traite du sujet. Sur l'article Wikidata Q31 consacré à mon pays natal se retrouve ainsi tout un ensemble de « déclarations » qui sont autant d'autres numéros de pages Wikidata qui permettent de décrire le signifié de la page Q31, avec par exemple un lien vers la page « P36 » consacré au signifié « capitale » et compété par un autre lien vers la page « Q239 » consacrée à Bruxelles.
Au courant de cette même année, c'est ensuite le multilinguisme qui fut mis en avant grâce à l'apparition du sélecteur universel de langues[S 12]. Cette fonctionnalité coïncida ainsi avec l'apparition d'une nouvelle équipe de salariés dans la Fondation qui fut intitulée « Growth » (croissance en français). L'une de ses premières actions fut de fournir aux éditeurs Wikimédia un outil leur permettant de remercier l'action d'un autre contributeur en deux clics seulement. Cette fonctionnalité, basique dans sa forme, fut au sein des projets, la première fonctionnalité qui permit d'apporter un commentaire positif aux modifications d'autrui. Des effets positifs de ce changement technique furent rapportés par une étude d'incidence en 2019 qui mit en évidence que les encouragements étaient aussi bien envoyés par des éditeurs expérimentés au profit des nouveaux arrivants, qu’inversement[M 8].
L'année 2013 fut certainement l'une des plus importantes dans l'évolution technique du mouvement, peut-être en réaction à un article du MIT Technology Review[M 9] qui considérait les projets Wikimédia comme « peu changés en une décennie » et n'apportant que « rarement de nouvelles choses dans l'espoir d'attirer les visiteurs »[T 1]. La mise en place d'un éditeur visuel (vidéo 6.1[V 1]) fut une réponse efficace à ces accusations, tout comme l'introduction du nouveau système de notification echo dont il fut déjà question dans l'introduction de ce chapitre. Ce dernier, pour rappel, permettait la notification d'un utilisateur enregistré au départ de n'importe quelle page d'un des sites Wikimédia en y créant simplement un hyperlien pointant vers sa page et en signant le message[S 13]. Les notifications engendrées par ce système apparaissent en haut des pages des projets Wikimédia dès que l'on s'y connecte et l'envoi d'un courrier électronique peut aussi être demandé en configurant ses préférences individuelles d'utilisateurs.
En 2014, l'interface Web de gestion des problèmes techniques Bugzilla fut remplacée par son équivalent Phabricator[M 10] dont le développement fut malheureusement suspendu le premier juin 2021[S 14]. L'année 2015 fut quant à elle remarquable grâce à son lot de nouveautés. Parmi celles-ci, se retrouvent : un outil de traduction de page d'une version linguistique à une autre[M 11] ; la généralisation d'un système de compte global actif sur tous les projets[S 15] ; la possibilité de compiler des articles d'un projet pour en composer un livre ; l'arrivée de l'application I-phone, la mise en place de Citoid qui permet la création automatique d'une référence bibliographique au départ d'une simple adresse URL ; un test de sécurité[M 12] ; la possibilité de publier des graphiques avec l'éditeur visuel, et enfin la création d'un service d'évaluation objective des modifications, reposant sur une intelligence artificielle (ORES)[M 13].
Alors que l'année 2016 était plutôt axée sur l'amélioration des systèmes déjà existants, comme une meilleure intégration des données géographiques en provenance d'Open Street Map, celle de 2017 sera marquée par le renforcement des outils de contrôle des projets. Cela se fit concrètement par la refonte du site d'analyse statistique des projets Wikimédia stats.wikimedia.org mais aussi par l'arrivée de nouveaux outils de protection des projets. Parmi ceux-ci, on y retrouvait un système de blocage par cookie qui empêche le contournement d'un blocage d'adresse IP[S 16], de nouveaux filtres pour la révision des contributions[S 17] qui grâce à ORES applique des filtres et des indicateurs de couleurs selon des calculs de probabilité (vidéo 6.2[V 2]). Autant d'innovations qui furent toutefois modérées par une obligation imposée aux administrateurs de laisser un message lorsqu'ils bloquent un utilisateur, suppriment une page ou empêchent les modifications.
Toujours en 2017, apparut aussi une initiative de santé Communautaire visant à « aider la communauté des bénévoles de Wikimédia à réduire le niveau de harcèlement et de comportement perturbateur »[S 18]. Cette initiative aura ainsi permis d'offrir aux contributeurs de nouvelles fonctionnalités qui permettent de bloquer des notifications faites par des comptes utilisateurs placés sur une liste noire[S 19], tout en les interdisant d'envoyer des courriels[S 20]. D'autres initiatives techniques ont aussi aidé les nouveaux arrivants en leur proposant un GuidedTour pour les accompagner lors de leur découverte[S 21], un nouveau système de citation automatique possible au départ de l'ISBN d'un ouvrage avec Citoid[S 22], et une extension Interface de conflit de modification basé sur les paragraphes qui permet plus facilement de gérer les conflits d'éditions survenant lors de modifications simultanées[S 23]. Quant aux simples lecteurs, ils auront aussi profité de l'arrivée d'une amélioration des résultats de la recherche inter-wikis grâce à la possibilité de poursuivre une recherche en passant directement sur l'un des autres projets pédagogiques.
L'année 2018 sera marquée pour sa part par le renforcement des innovations précédentes, tel que l'éditeur visuel, les applications pour smartphone, la gestion des conflits d'éditions, l'extension CiteNotice et d'autres fonctionnalités des Wikis en général. Les préférences globales communes au sein de tous les projets furent rassemblées dans une page unique[M 14] et un nouvel outil de recherche appelé Ereka fit son apparition[M 15], ainsi que de précieux outils de sauvegarde automatique dans l'éditeur visuel[S 24]. Pendant cette période fut aussi créé le statut d'administrateur d'interface[S 25] accompagnant une nouvelle Politique de sécurité du contenu, lancé le projet croissance[S 26] et modifiées les autorisations des administrateurs, qui ne peuvent plus se débloquer eux-mêmes, tout en gardant la possibilité de bloquer la personne qui les aura bloqués[S 27].
2019 verra l'intégration de Google Translate dans l'outil de traduction, la possibilité de bloquer partiellement l'édition d'une page ou d'un espace de nom[S 28], celle de contribuer à Wikidata depuis un appareil mobile[S 29],la réduction des adresses URL des pages[S 30], l'enrichissement des données structurées des fichiers situés sur la site Wikimedia commons grâce à de nouvelles fonctionnalités[S 31] dont certaines rendaient possible la lecture d'un fichier midi, etc.
L'année 2020 enfin, qui sera la dernière à être passée en revue dans cette section, aura vu le lancement d'un nouvel outil de discussion[S 32] avec sa fonctionnalité Replying[S 33], d'une traduction de contenu en développement depuis 2019 pour bénéficier du service de traduction automatique de Google[M 16], de nouvelles fonctionnalités de gestion des IP visant à une amélioration de la confidentialité et limitation des abus[S 34] et d'un nouveau statut d'administrateur de l'outil abuse filter[S 35].
Cette année fut aussi marquée par l'arrivée d'un nouveau projet d'envergure intitulé Abstract Wikipedia avant que la communauté ne choisisse de l'appeler Wikifunctions. Cette nouvelle infrastructure a pour but de tirer profit de la base de données sémantiques Wikidata, pour permettre à terme la création ou l'enrichissement de nouvelles versions linguistiques de Wikipédia. Pour ce faire, Wikipédia Fonction utilise un nouveau type de code appelé Wikifunctions qui permet de traiter les données structurées de Wikidata pour répondre à des questions dans toutes les langues[S 36]. Pour les projets Wikipédia déjà existants Wikifunctions donnera la possibilité de faire des mises à jour automatiques d'informations factuelles et standards grâce à l'intégration de fonctions au sein de l'éditeur de texte[M 17]. Il s'agit là d'un projet complexe et plein de promesses dont la vidéo ci-contre permet de mieux comprendre les tenants et aboutissements (vidéo 6.3[V 3])
Quant à l'avenir technique de Wikimédia, il semblerait être prédestiné à un traitement d'avant-garde des questions éthiques que soulève le développement de l'intelligence artificielle et sa déshumanisation[V 4]. Selon Jonathan T. Morgan, la transparence, les mécanismes de conceptions et de prise de décisions qui reposent sur des valeurs et le consensus mis en place dans les projets Wikimédia, rassemblent effectivement toutes les composantes nécessaires pour prévenir les dérives néfastes et dommageables dans le développement des technologies d'intelligence artificielle[M 18].
Grâce à cette revue de l’évolution technique Wikimédia, que j'ai pris la peine de ne pas rendre exhaustive pour ne pas assommer le lecteur, on peut donc remettre en considération cette perspective selon laquelle « Wikipédia change d’apparence pour la première fois depuis plus de 10 ans »[M 19]. Si l'apparence de Wikipédia semblait effectivement figée pour les lecteurs, la démonstration vient d'être faite qu'au niveau de l'infrastructure informatique, les choses ont énormément changé depuis le début du projet.
Informé de tous ces changements techniques, on comprend aussi mieux à présent, pourquoi la Fondation a besoin de dons pour assumer ses engagements vis-à-vis de la maintenance et de l'amélioration de l'infrastructure informatique Wikimédia. Tout cela demande évidemment l'engagement d'un personnel technique hautement qualifié, dont la mission n'est pas des plus simples, puisque comme nous allons le voir, le contrôle final de l'architecture technique des projets éditoriaux est toujours resté dans les mains de ses communautés de contributeurs bénévoles.
Le contrôle de la technologie par les utilisateurs
[modifier | modifier le wikicode]Contrairement aux sites commerciaux et dans le but de poursuivre des réflexions déjà formulées au départ du concept de « publique récursif »[B 2] tel qu'il fut appliqué à l'observation du projet Wikipédia[B 3], il est intéressant de constater que les changements techniques opérés dans l'écosystème informatique du mouvement Wikimédia ont toujours été investis par les utilisateurs des projets qui en gardèrent jusqu'à ce jour le principal contrôle. Durant plus de vingt ans d'évolution de cette infrastructure, sont en effet apparues de régulières confrontations entre la Fondation et la communauté d'éditeurs. Comme nous allons le voir, plusieurs tentatives de prise de contrôle par la Fondation ou décisions sans concertation ont dû faire face à des contestations des communautés d'utilisateurs qui ont toujours eu gain de cause ou presque.
Certaines tensions peuvent aussi apparaître à l'intérieur des communautés d'éditeurs, comme ce fut le cas lors de l'apparition du programme informatique Rambot déjà présenté en début de section précédente. Au même titre que Lsjbot, ce programme d'automation des tâches fut l'objet de critiques virulentes, sans qu'il soit toujours possible de savoir si elles s'adressaient au robot ou à son créateur[V 5]. Suite à ces tensions, des politiques se sont mises en place dans le but de bien distinguer l'humain de l'automate au niveau des comptes utilisateurs[B 4]. De plus, avant la mise en fonction d'un nouveau script, les projets peuvent exiger des dresseurs de bots, qu'ils en fassent la demande à la communauté et qu'ils doivent obtenir au moins 75 % d'avis favorables, comme cela est exigé sur la plupart des projets dont la Wikiversité francophone[S 37].
Au début du mois d'août 2005, lors de la première rencontre Wikimania à Francfort[S 38], les administrateurs bénévoles de Wikipédia qui réfléchissaient à une meilleure protection de leur encyclopédie, avaient aussi conclu qu'il n'était « pas question de geler des pages entières en attente de validation. »[M 20]. Il s'agissait là d'une décision courageuse vu qu'à cette époque, tous les projets Wikimédia étaient entièrement ouverts à l'édition, et que les seuls outils de protections à l'encontre des modifications malveillantes étaient le blocage de compte ou d'adresse IP, ainsi que la protection de pages afin de les rendre uniquement modifiables par les administrateurs.
Cette décision fut prise peu de temps avant la découverte de propos diffamatoires dans un article de Wikipédia en anglais le 5 décembre 2005. Ceux-ci figuraient dans l'article consacré au journaliste John Seigenthaler, dans lequel avaient été ajoutées des informations selon lesquelles il aurait été impliqué dans l'assassinat de John Kennedy. La découverte de ces fausses informations déclencha un scandale médiatique qui motiva Jimmy Wales, encore très influent à l'époque, à exiger la création d'un compte utilisateur avant de pouvoir créer de nouveaux articles[M 21]. Ce choix ne fut pas pour autant mis en place sur les autres projets Wikimédia, ni sur les autres versions linguistiques de Wikipédia.
Un an plus tard néanmoins, les projets Wikipédia en allemand et en polonais testèrent l'utilisation de l'extension FlaggedRevs dont la fonctionnalité permettait de valider chaque nouvel article par la communauté avant sa publication dans l'espace encyclopédique[S 39]. Mais suite à cette période de test, et alors que la fonctionnalité fut utilisée par défaut sur la quasi-totalité des articles sur Wikipédia en allemand, elle n'aura pas bénéficié du même succès dans tous les projets. Son taux d'utilisation dans le projet anglophone par exemple n'aura jamais dépassé les 0.05 % des articles[S 40].
Une autre fonctionnalité fut quant à elle généralisée dans le but d’interdire aux utilisateurs non enregistrés et aux comptes nouvellement créés d'éditer les pages dites « semi-protégées » par les administrateurs. Dans la même foulée, des nouveaux statuts de surveillance et de contrôle furent mis en place pour permettre à certains utilisateurs de contrôler l'adresse IP d'un compte enregistré (statut de Vérificateur d’utilisateur[S 41]) ou de rendre une page entière ou certaines modifications invisibles aux utilisateurs qui ne bénéficient pas du même privilège (statut de masqueur de modification[S 42]). Mais à nouveau, ces deux statuts techniques furent uniquement assumés par des éditeurs bénévoles jugés dignes de confiance par les utilisateurs des projets.
Durant l'année 2010, une crise importante bouleversa le mouvement. Elle faisait suite à des accusations portées par Larry Sanger selon lesquelles Wikimédia Commons hébergeait de la pornographie infantile. Cette information reprise par les médias avait conduit Jimmy Wales à supprimer tout un lot d'images sans concertation avec la communauté des éditeurs. Certaines d'entre elles étaient des images artistiques telles celle de Thérèse d'Avila dessinée par le peintre belge Félicien Rops. Le comportement de Jimmy Wales provoqua une réaction si vive au sein de la communauté qu'elle poussera le cofondateur de l'encyclopédie à se destituer lui-même de ses droits d'administration sur l'ensemble des sites Wikimedia le 9 mai 2010[M 22].
Cette crise se poursuivit en novembre de la même année lorsque le projet d'installation d'un filtre pour images indécentes, dangereuses, et culturellement inacceptables aux yeux de la Fondation fut programmé. Un projet qui provoqua au sein de la communauté des éditeurs de Wikipédia en allemand des discussions au sujet d'une possible scission avec le mouvement Wikimédia[B 5] qui finalement empêcha le projet de filtrage de voir le jour.
Parmi les innovations techniques qui n'ont pas été bloquées par les communautés d'éditeur, certaines d'entre elles n'auront pas toujours reçu un accueil enthousiaste. L'éditeur visuel par exemple, qui pourtant permet de modifier les pages des projets avec une aisance similaire à un petit logiciel de traitement de texte, n'aura pas été adopté rapidement par les anciens éditeurs. Quant à la mise en place de l'extension au sein des projets, elle dut toujours être précédée d'une prise de décision[S 43] comparable à celle que j'avais dû entreprendre pour renommer la faculté de sociologie lors de mon arrivée dans le projet Wikiversité[N 3].
En 2013, la fonctionnalité Flow qui offrait aux projets un système de discussion structuré muni d'un éditeur visuel[S 44], ne fut elle aussi que très partiellement adoptée par les contributeurs. Elle fut même interdite d'utilisation sur le projet Meta-Wiki en raison des pertes d'informations possibles lors de l'archivage des conversations qui avait été rendu beaucoup plus compliqué[S 45]. Ceci alors que dans un autre registre, les informations récoltées sur le projet Wikidata n'ont pas pu contribuer à l'amélioration des articles de Wikipédia en français du jour au lendemain. C'est en tout cas ce que semble indiquer les nombreuses discussions qui eurent lieu entre le 9 octobre 2015 et le 28 octobre 2016, avant d'aboutir à l'établissement des procédures d'utilisation[S 46].
Suite aux oppositions et résistances des communautés d'éditeurs, ceux-ci finirent par être de plus en plus informés et consultés sur tous les aspects techniques du mouvement. Pour en faciliter la démarche, un journal semestriel d'actualité technique, bientôt traduit en 21 langues, vit le jour le 20 mai 2013[S 47]. Celui-ci permettait à tout un chacun de se tenir informé sur tout ce qui concerne évolution technique de Wikimédia. Quelques années plus tard, entre octobre 2016 à en mars 2018, un autre bulletin d'information mensuel fut aussi produit par l'équipe globale collaboration en charge des services de notifications, de discussions structurées et de révision des contributions[S 48].
Dans ces deux journaux et leurs archives qui sont toujours consultables aujourd'hui, on y retrouve les annonces de chaque changement technique d'importance, l'apparition de problèmes à résoudre, des invitations à des réunions, des annonces de lancement de nouveaux projets ou versions linguistiques, des notifications de mises à jour du logiciel MediaWiki ou de l’installation de nouvelles extensions, et même des annonces concernent des postes vacants au sein de l'équipe technique ou toutes décisions de la Fondation pouvant concerner de près ou de loin les aspects techniques du mouvement.
Malgré ces améliorations en matière de communication, l'année 2014 fut marquée par un conflit important concernant les choix techniques apportés aux projets. Celui-ci apparut lors de l'arrivée d'une visionneuse de médias et d'un nouveau statut de protection des pages accordé aux salariés de la Fondation. Cette nouvelle crise aboutit dans un premier temps à une lettre ouverte adressée le 19 août 2014 à la Wikimedia Foundation et signée par 982 éditeurs aux origines linguistiques diverses, dont voici un extrait :
Le statut de « superprotection » qui a été lancé pour garder active la fonctionnalité Visionneuse de Médias est encore plus extrême : pour la première fois, un outil logiciel a été conçu pour « réduire la capacité » des communautés Wikimedia à « éditer les pages », en donnant cette capacité exclusivement à des membres non-élus de l'équipe Wikimedia.[S 49]
À la suite de la décision de la communauté germanophone de Wikipédia d’interdire l'usage de la nouvelle visionneuse de document dont il considérait l'installation prématurée, le super statut offrait effectivement aux employés de la Fondation la possibilité de contourner les actions des administrateurs bénévoles pourtant élus par la communauté d'éditeurs. Alertée par ce qui se passait sur le projet allemand, la communauté bénévole internationale se mobilisa alors sur le site Meta-Wiki en ouvrant un appel à commentaire dans le but d'exiger le retrait du statut super-protection accordé aux salariés[S 50]. Le conflit se calma ensuite et la Fondation Wikimédia finit par supprimer la fonctionnalité de super-protection en novembre 2015 alors qu'elle n'avait encore jamais été utilisée[M 23]. Cet épisode aura donc finalement rendu la Fondation consciente de la nécessité de mettre en place un processus de développement de produit qui inclurait dès le départ la communauté des éditeurs bénévoles.
Dans le cadre de l’amélioration des relations entre les éditeurs et les membres des services techniques de la Fondation, l'année 2015 fut marquée par le lancement de la première consultation des souhaits de la communauté[S 51]. Suite à un appel généralisé sur une page du site de Meta-Wiki, chaque contributeur est ainsi invité à exprimer un souhait par rapport à un problème ou une nécessité technique rencontrée dans le cadre de son travail bénévole. Après un tri et un classement en fonction du nombre des personnes qui auront appuyé telle ou telle proposition, l'équipe technique détermine alors les propositions retenues qui feront l'objet d'un développement dans le courant de l'année. Ce projet, très certainement inspiré par le bisannuel Technical Wishes Project, fut lancé en 2013, 2015, 2017, 2019 et 2020[S 52] sur Wikipédia en allemand dont le but aussi d'identifier et hiérarchiser les exigences techniques des divers utilisateurs de manière collaborative sur la base d'enquêtes et d'ateliers[S 53].
Malgré tous ces efforts, le mouvement fit face à une nouvelle crise en 2016. Elle concernait cette fois un manque de transparence au sujet de la création d'un moteur de recherche[M 24] intitulé Knowledge Engine[S 54], développé au sein du département Wikimédia Discovery dédié à l'amélioration de l'expérience Wikimédia[M 25]. Cet épisode plongea le mouvement dans un tel désarroi que cela provoqua la démission de la directrice exécutive de la Fondation dans le courant de la semaine du 21 février[M 26] avec une prise d'effet le 31 mars[M 27]. Suite à quoi, plusieurs salariés et membres du conseil d'administration quittèrent leurs postes en raison de leur indignation[M 28].
Knowledge Engine avait sans doute pour origine un vieux rêve de Jimmy Wales évoqué dès 2006 dans le cadre des activités de sa société Wikia[N 4], lorsqu'il présenta un moteur de recherche baptisé Wikiasari. 10 ans plus tard, il devait ainsi être financé à concurrence de 2.5 millions de dollars américains offerts en partie par la Fondation Knight. Mais la fuite d'un document et sa publication officielle le 11 février 2016 permirent à la communauté Wikimédia et à la presse de découvrir le projet gardé secret.
Dans le contexte de cette crise, la cooptation au conseil d'administration de la Fondation Wikimédia de Arnnon Geshuri, ancien dirigeant des ressources humaines de Google impliqué dans un procès antitrust touchant des employés high-tech, fit aussi l'objet d'un nouvel appel à commentaire lancé par la communauté[S 55]. Cette « motion de défiance » supportée par près de 300 contributeurs provoqua la démission de Geshuri, que Patricio Lorente, le président du conseil d'administration de la Fondation Wikimédia à cette époque, justifiait en disant : « Il [Arnnon Geshuri] ne souhaite pas représenter une distraction à l’aube des discussions que la communauté et la Fondation doivent affronter prochainement »[M 29].
Aujourd’hui, il est toujours possible de parcourir une ligne du temps de cette crise sur une page Web produite par la contributrice Molly White[S 56]. Celle-ci aboutit aux conclusions suivantes :
Durant la période 2014-2016, la Wikimedia Foundation aurait ainsi souffert d'un manque de communication avec la communauté des rédacteurs, d'un manque de transparence et de la perte soudaine de nombreux membres du personnel. Certains de ces problèmes étaient liés aux efforts de Wikimedia Discovery, d'autres semblaient provenir de la haute direction. L'agitation et le mécontentement étaient visibles tant au sein de la communauté des rédacteurs que de la Wikimedia Foundation elle-même.
L'historique de l'année 2019 mit en évidence, quant à elle, différentes implications de la communauté au sein des projets éditoriaux grâce à une consultation des souhaits de la communauté spécialement dédiée aux « projets hors contenus wikipédiens »[S 57]. Un tel intitulé rendait ainsi explicite la plus grande importance accordée par la communauté au projet encyclopédique, même si plus récemment, le projet Wikidata aura aussi attiré beaucoup d'attention et de moyens financiers pour répondre à cette ambition de développer un web sémantique[B 6]. En classant les 72 souhaits formulés au profit des « petits projets » il est ainsi possible d’opérer un classement indicatif dans lequel apparait en tête le projet Wikisource avec 28 propositions récoltées, suivi du Wiktionnaire qui en récolte 20, lui-même suivi du projet Wikiversité qui en bénéficie de 11, alors que les 5 autres projets restants ne dépasseront pas les 5 propositions[S 57]. A terme, cette consultation fut à l'origine des Small wiki toolkits conçus pour soutenir la maintenance des petits projets.
Ces nouvelles découvertes de l'histoire technologique Wikimédia nous permettent ainsi de constater à quel point la contre-culture hacker aura été transmise au sein du mouvement Wikimédia. Pour peu qu'il bénéficie d'une certaine compréhension des enjeux techniques, chaque contributeur au sein du mouvement peut effectivement devenir un lanceur d’alerte qui sera bien souvent actif dans les espaces de discussion, avant de rassembler d'autres contributeurs autour du lancement d'un appel à commentaires. Appelé Request For Comments ou RFC en anglais, ces rassemblements sont des pratiques de concertation ouvertes, coopératives et égalitaires qui correspondent aux idéaux des communautés scientifiques[B 7]. À l'origine de cette pratique mise au point en avril 1969, se trouvait d'ailleurs un groupe d'universitaires rassemblés par Steve Crocker dans le cadre de ses activités de création d'ARPANET au sein du Network Working Group[B 8].
Durant les RFC chacun est libre d'exprimer son avis, alors que le but ultime sera la recherche d'un consensus, préalablement basé sur une grande intransigeance sur les questions de transparence qui, elle aussi, peut être perçue comme un trait hérité de la philosophie de la contre-culture américaine des années 60[B 9] déjà présenté en second chapitre de ce travail. Et c'est là un défi majeur pour la Fondation Wikimédia et les organisations affiliées, qui semblent éprouver beaucoup de difficultés pour assimiler toutes ces valeurs, principes et pratiques dont les issues finalement, finissent toujours par prendre le dessus lors des décisions au sein du mouvement. Le fait que le personnel de la Fondation soit interdit d'édition sur les projets, et donc peu familiarisé avec la culture des éditeurs bénévoles, alors qu'à l'inverse de nombreux bénévoles participent aux activités de la Fondation et des organisations explique sans doute partiellement cette situation.
Quoi qu'il en soit, la communauté des contributeurs bénévoles semble parfaitement assumer son rôle de garde-fou quant aux dérives possibles qui pourraient provenir des employés de la fondation. Le moindre changement technique peut, à juste titre, apparaître aux yeux des utilisateurs des projets comme un choix politique, ou pour le moins managérial, qui doit faire l'objet d'un débat au préalable et d'un consensus dans le cas spécifique du mouvement. Comme peut en témoigner par exemple cette prise de décision organisée sur Wikipédia en 2012 dans le but de supprimer les crochets entourant les renvois vers les notes et références, ou autrement dit les « [ ] » que l'on peut voir apparaitre dans ce présent travail de recherche. Même si cela peut paraître difficile à croire, cette décision nécessita 22 jours de discussions, suivit de 27 jours de votes, durant lesquels auront participé 174 utilisateurs[S 58].
En sachant cela, on comprend donc mieux pourquoi les changements réalisés par les développeurs au niveau des serveurs qui ont un impacte sur l'apparence des projets sont faits avec toutes les précautions possibles. Et ceci explique aussi pourquoi toute demande d'intervention demandée par un contributeur aux développeurs via le site Phabricator doit toujours être précédée d'un vote de la communauté. Composé de salariés de la Fondation mais aussi de bénévoles accrédités, ce groupe d'informaticiens effectue ainsi tous les mois des milliers de modifications de code[M 30] sur demandes de la Fondation ou selon les souhaits de la communauté d'éditeurs[S 59]. Et c'est donc lorsque les volontés de la Fondation s'opposent à celles des communautés d'éditeurs au niveau de ces changements, qu'apparaissent les situations conflictuelles déjà illustrées précédemment.
Sans oublier enfin que ce qui est vrai pour code informatique sera vrai aussi pour le choix des licences. Avant que Wikimédia adopte la licence libre CC.BY.SA en doublement de la licence GFDL produite par la Free Software Foundation utilisée depuis la création de Wikipédia[S 60]. un comité de volontaires fut nommé par la fondation pour en discuter les enjeux[S 61]. Celui-ci eu alors pour but d'organiser un vote décisionnel au sein des communautés d'éditeurs qui aura rassemblé 17 462 participants, dont 75,8 % furent en faveur du changement, 10.5 % opposés et 13.7 % sans avis. Parmi ces participants on comptait 96.1 % de personnes actives sur Wikipédia, 43,1 % sur les projets anglophones, 17,8 % sur les germanophones et 5,5% sur le francophone[S 62].
Ce qui se passe dans le mouvement Wikimédia contraste donc complètement avec ce que l'on peut observer dans d'autres espaces numériques tels que les réseaux sociaux ou les autres types de services numériques octroyés gratuitement par des firmes commerciales. Souvent inconscients ou insouciants de l'influence et du pouvoir que ces environnements numériques peuvent avoir sur eux, les utilisateurs de ces services y entreposent bien souvent des choses très intimes de leur vie privée tout en affichant leur identité réelle. Ceci alors que de façon tout à fait opposée, les éditeurs des projets Wikimédia sont particulièrement sensibilisés de par leur pratique au potentiel informatique de traitement des informations qui se cache derrière leurs écrans.
Loin d'être exhaustive, la liste des bots, programmes et algorithmes cités précédemment ne représente en outre qu'une petite partie de tout l'arsenal possible et imaginable que les géants du web peuvent mettre en œuvre pour servir leurs propres intérêts sans forcément se soucier de ceux des utilisateurs de leurs services. Car il est fort probable en effet que la seule limite à l'instrumentalisation des clients des grandes firmes commerciales qui accaparent l'espace web est d’augmenter et de maintenir autant que possible la fréquentation de leurs services. Heureusement pour les utilisateurs des projets Wikimédia, et même si la Fondation Wikimédia analyse le comportement de certains lecteurs à des buts de marketing et d'efficacité lors des collectes de dons, le respect de la vie privée semble toujours rester une priorité au sein du mouvement.
Le respect de la vie privée
[modifier | modifier le wikicode]Depuis toujours, la Fondation Wikimédia veille à fournir aux utilisateurs et utilisatrices de ses projets la possibilité d'y contribuer sous un anonymat complet tout en faisant preuve de transparence sur le type d'informations qu'elle doit transmettre par voie légale à certaines autorités au travers de deux rapports annuels[S 63]. Au niveau des éditeurs qui n'utilisent pas de compte utilisateur, la confidentialité devrait être encore renforcée dans le courant de l'année 2022 par le masquage de leurs adresses IP qui deviendront bientôt illisibles. Et comme depuis le début du projet, toute personne désireuse de masquer cette information peut créer un compte sous pseudonyme, sans qu'il soit nécessaire de fournir une adresse courriel ou tout autre moyen d'identification.
Avec de telles garanties de protection de la vie privée des utilisateurs des projets qu'elle héberge, la Fondation peut alors encourager la production et le partage des systèmes de surveillance statistique, en les plaçant, eux aussi sous copyleft, de manière à dissuader tout type de commercialisation. Les informations anonymisées, comme nous venons de le voir, sont ainsi libres d'accès et gratuites d'utilisation pour tous ceux qui respectent les termes de la licence. Autant d'informations en fin de compte qui constituent une réelle aubaine pour la recherche, comme en témoignent les très nombreuses informations statistiques utilisées dans le présent travail. Quant à l'idée de générer des revenus au travers de la publicité et comme cela a déjà été vu dans le chapitre précédent, elle fut envisagée à une certaine époque par les fondateurs de Wikipédia, avant d'être rapidement et définitivement écartée.
Pour en savoir plus à propos du respect de la vie privée au sein du mouvement Wikimédia, il est déjà possible de cliquer sur l'hyperlien « condition d'utilisation »[S 64] présent en bas de chaque page des projets. On se trouve alors redirigé vers une page d'informations générales puis vers une page consacrée entièrement à la politique de confidentialité adoptée par la Fondation Wikimédia[S 65]. À sa lecture on comprend rapidement que, contrairement aux acteurs commerciaux qui offrent de nombreuses fonctionnalités de filtrage d'accès à du contenu qu'ils se donnent le droit d'utiliser librement, la Fondation adopte la position inverse en garantissant la confidentialité, l'absence de récupération commerciale, mais aussi l'affichage public et permanent de toute action et contenu apportés aux projets.
Malgré toutes ces précautions, en 2014, deux jeunes administrateurs du projet Wikipédia en néerlandais se sont amusés à retrouver le domicile d'un contributeur situé aux Pays-Bas à partir d'informations que seuls les administrateurs d'un projet ont accès. Ce fut là un incident extrêmement rare au sein du mouvement, puisqu'il existe en réalité, pour les gens qui le veulent vraiment, de nombreuses manières de ne pas divulguer sa propre identité et d'autres informations personnelles. Cependant, un appel à commentaire fut lancé suite à une plainte déposée par la personne visitée et une enquête fut réalisée par la commission de médiation de la Fondation Wikimédia[S 66], à l'issue de laquelle les deux administrateurs se sont finalement vus retirer leur statut.
La façon la plus populaire d’assurer son anonymat dans l'espace numérique Wikimédia, est de créer un compte utilisateur avec pseudonyme, de manière à ce que les modifications et actions faites ne soient pas attribuables à une identité précise. La seconde option, plus fréquente parmi les utilisateurs moins actifs, est de contribuer aux projets sans créer de compte, ce qui aura pour effet d'enregistrer l'adresse IP utilisée pour établir la connexion au projet sans pseudonyme d'utilisateur. Cette deuxième option est cependant moins respectueuse de la vie privée d'un utilisateur, puisque au départ d'une simple adresse IP, un internaute peut toujours situer géographiquement son utilisateur en localisant la société qui la fournit. Au départ de l'adresse IPv4 : 130.104.34.155 par exemple, le site whatismyipaddress.com indiquera qu'elle est utilisée par l'UCLouvain[S 67] alors qu'en utilisant cette autre adresse 176.164.50.155 sur le site fr.geoipview.com on la verra localisée dans la ville de Blois en France[S 68].
Plus fréquemment utilisées par les appareils mobiles, les adresses IPv6 sont moins facilement géolocalisables, alors que cela n’empêche toujours pas une personne mandatée par la justice de contacter le fournisseur d'accès Internet (FAI) d'une adresse IP pour connaître l'identité du client qui l'aura utilisée à un moment bien précis. Lors de l'enregistrement d'une modification faite sur un site Wikimédia par exemple. Quant à la durée de conservation des informations qui permettent de faire le lien entre une adresse IP et un client, celle-ci varie selon les États. En France elle est de six à douze mois[S 69], alors que les États-Unis, autorise la Fondation Wikimedia de les supprimer définitivement au bout de trois mois seulement[S 70]. Ceci tout en sachant que certaine d'entre elles sont gardée de manière aléatoire sans dépasser un délai de cinq ans dans le cadre d'enquêtes ou études diverses réalisées au niveau des sites Wikimédia[S 71].
Une dernière option possible enfin, pour ceux qui ne désirent pas forcément contribuer sous anonymat, sera de créer un compte utilisateur à leurs propres noms. Ce choix personnel doit alors être assumé puisqu'une partie de sa vie s'expose dès lors aux yeux du monde connecté et de façon potentiellement irréversible. Il ne faut en effet jamais oublier que sur le Web toute information divulguée peut toujours être sauvegardée par quelqu'un sur son ordinateur, pour un jour réapparaître quelque part sur la toile malgré son effacement. Les vidéos interdites de diffusion sur le Net, qui disparaissent et apparaissent sans cesse des services d'hébergement en sont un bon exemple.
Afficher sa réelle identité au niveau de ses contributions au projet Wikimédia n'a cependant pas que des inconvénients. Cela offre aussi l'avantage d'assurer la paternité de ses écrits, et donc de les protéger d'un risque de plagiat tout en les publiant dans la plupart des cas[N 5] sous une licence CC.BY.SA qui évitera une éventuelle récupération et mise sous un copyright privatif. Un tel choix enfin, peut aussi répondre à des impératifs déontologiques comme ce fut le cas en ce qui me concerne, lorsque j'entrepris de créer un nouveau compte dans le but d'entamer mes premières recherches sur le projet Wikipédia.
Toutes ces options et dispositions garantissent finalement une gestion « à la carte » du respect de la vie privée des acteurs wikimédiens et de leurs données à caractère personnel. Elles permettront aussi à certains utilisateurs situés dans des pays sujets à la censure et à la répression de se connecter à des réseaux privés virtuels sans risquer de dévoiler, ni leur identité, ni l'adresse de la connexion étrangère qu'ils utiliseront pour se connecter aux sites. Autant de conditions donc, qui auront permis de maintenir une certaine liberté et facilité d'expression au sein de projets, que j'ai d'ailleurs largement exploitées dans le cadre de mes recherches, puisque cela m'a dispensé de devoir anonymiser mes données de terrain au cours de mes travaux d'écriture.
Avant de clôturer cette section, il est aussi intéressant d'observer que sur 18 projets linguistiques de Wikipédia, dont celui en français, il existe une page intitulée « droit de disparaître »[S 72]. Dans les limites qu'impose la technique, ce droit offre aux utilisateurs d'un compte sur les projets Wikimédia, non pas de le supprimer, mais de le renommer et de changer toutes ses signatures, de sorte à en faire disparaître l'identité sans pour autant en supprimer les actions.
Cette résolution contraste ainsi avec les dispositions qui ont été prises par l'encyclopédie dans le but de répondre au « droit à l'effacement » apparu en 2016, lors de la publication de l'article 17 du règlement n° 2016/679 édité par la commission européenne, aussi appelé règlement général sur la protection des données (RGPD). Car dans le paragraphe 3 de ce « droit à l'oubli » imposé par la RGPD, on apprend que ces dispositions « ne s'appliquent pas dans la mesure où ce traitement est nécessaire à l'exercice du droit à la liberté d'expression et d'information »[S 73].
Ce droit à l'effacement avait été publiquement contesté par la Fondation Wikimédia et d'autres organismes, qui y voyaient une porte ouverte à la manipulation des informations présentes sur le Net[M 31][M 32]. Le cadre de son application aura donc fait l'objet de discussions qui ont finalement abouti à la restriction de son application au regard de la liberté d'expression et d'information dont bénéficient les projets Wikimédia. Une disposition qui permet alors à la Fondation de rejeter la plupart des demandes de retrait d'informations situées sur les espaces des projets pédagogiques destinées aux lecteurs[S 63].
De tout ceci découle donc une situation quelque peu paradoxale où une personne se verra accorder l'effacement de son pseudonyme d'utilisateur au niveau des projets Wikimédia, alors que cette même personne se verra refuser, s'il n'y a aucune contrainte légale et que la liberté d'expression et d'information le justifie, la suppression d'un article qui le concerne ou le retrait d'informations situées dans celui-ci. Tout au plus, bénéficiera-t-il dans ce second cas de figure d'un « blanchiment de courtoisie » qui peut consister entre autres et selon le bon vouloir de la communauté et de l'aboutissement des discussions, à retirer une information d'un article sans pour autant l'effacer de toutes les versions antérieures gardées dans son historique[S 74].
En observant ceci, on comprend donc que le mouvement Wikimédia, tient autant à la liberté d'information qu'au respect de la vie privée des membres de ses communautés de contributeurs. C'est là, comme nous allons le voir, non seulement un souhait de la Fondation, mais aussi celui des éditeurs, qui après avoir subi à plusieurs reprises des revers engendrés par l'anonymat, n'auront jamais voulu y mettre fin et ce, à juste titre selon moi[M 33].
Les conséquences de l'anonymat
[modifier | modifier le wikicode]La possibilité de participer de manière anonyme à l'édition des projets Wikimédia est une chose souvent critiquée par des personnes qui jouissent d'une autorité statutaire au sein de la société, et qui considèrent que la science et l'information en général doivent être produites par une élite. Le fait que cette vision n'est pas partagée au sein du mouvement Wikimédia, exacerbe d'autant plus les critiques portées au projet Wikipédia. L'argument avancé est que, sans transparence des auteurs, aucune responsabilité n'est assumée dans la production du savoir et de l'information[B 10]. Cependant, et pour peu que l'on connaisse un tant soit peu le fonctionnement éditorial du projet, on sait pertinemment que l'encyclopédie se limite bien souvent à rassembler des informations produites dans des lieux d'éditions externes au projet, et qui ont été précisément choisies sur base de critères de transparence et de responsabilité.
En réalité, il serait bien plus légitime d'adresser ces questions de transparence et de responsabilité aux autres projets Wikimédia qui publient des travaux inédits tels que Wikiversité, avec ses cours et travaux de recherche, Wikinews avec ses articles de presse, Wikilivres avec ses livres pédagogiques, voire Wikivoyage en tant que guide touristique. Que penser ensuite du projet Wikidata dans lequel il est possible d'importer des informations à l'aide de script informatiques, sans obligation de référencer la source, ni de citer le ou les auteurs, puisque de toute façon la licence CC0 n'impose pas de créditer les informations en cas de récupération ?
Comme cela a été vu, et sous certaines conditions seulement, certaines informations de Wikidata sont ensuite reprises dans les infobox situés à gauche de certains articles Wikipédia. Une pratique relativement récente qui, rappelons-le, aura suscité un long débat au sein de la communauté des éditeurs francophones, avant d'aboutir à une prise de décision qui réglementait l'utilisation d'informations non triviales en provenance de Wikidata, tout en acceptant qu'elles ne soient pas soumises à la règle de vérifiabilité[S 75].
Contrairement à ce qui se passe dans les instances hors ligne du mouvement, et à l'exception de certains bénévoles qui peuvent vérifier les adresses IP des comptes enregistrés et dont la Fondation exige une déclaration d'identité, l'anonymat apparaît donc comme quelque chose de très naturel au niveau de la sphère numérique du mouvement. C'est même une chose qui peut surprendre lorsque l'on connaît les différents troubles que l'anonymat a déjà provoqués dans les communautés d'éditeurs. L'affaire Essjay en fut la première. Elle concernait le projet Wikipédia en anglais et apparut en février 2015, avant d'être longuement commentée au sein du projet[B 5].
L'histoire commence lorsqu'un contributeur actif depuis 2005 se voit obligé de dévoiler son identité réelle lors de son embauche par la firme commerciale de gestion de sites Wiki crée par Jimmy Wales et qui était nommée à l'époque Fandom. Alors que depuis le début de ses contributions sur Wikipédia, le nouvel employé s'était toujours présenté comme professeur d'université en théologie, la communauté découvrit qu'il était un jeune homme de 24 ans sans diplôme de l'enseignement supérieur[M 34]. Bien que cette nouvelle fit scandale au sein de la communauté notamment en raison de l'influence de son compte Essjay dans certaines prises de décisions, la communauté Wikimédia choisit cependant de maintenir le principe d'anonymat. En faisant cela, elle décidait de faire confiance aux règles de conduite appliquées par l'ensemble de la communauté, tout en renforçant probablement d'autant plus son désintérêt envers la réelle identité des contributeurs.
En février 2015, sur le projet Wikipédia en français, une autre affaire concerna cette fois la diffusion accidentelle d'une liste d'adresses IP et de courriels par le serveur d'OverBlog qui hébergeait à l'époque Wikirigoler, un blog spécialisé dans la critique de Wikipédia en français et aussi connu sous le nom de blog de Pierrot le chroniqueur[N 6]. Par recoupement et selon les détails fournis par un billet écrit sur Wikipédia[S 76], on découvrit que ce blog avait servi de lieu de publication à un trouble-fête connu sous le pseudonyme de *SM*, mais également, chose bien plus embarrassante, à des administrateurs, des anciens membres du comité d'arbitrage et un vérificateur d'adresses IP. La réaction de la communauté fut très vive sur l'espace de discussion principal de la communauté intitulé le bistro[S 77], tandis que le débat qui prit place sur la page du bulletin des administrateurs dépassa l'équivalent de 50 pages A4[N 7][S 78], mais sans que le principe d'anonymat ne soit finalement remis en cause.
Plus récemment en novembre 2019, une autre affaire éclata au sujet de l'utilisatrice Celette. Lors d'une interview de février 2019 publiée par le collectif Medium[M 35], elle avait déclaré qu'elle était une travailleuse indépendante de 30 ans, détentrice d'un diplôme bac+5. Mais le 22 novembre 2019 suite à des aveux publiés dans le bistro[S 79], la communauté découvrit que ce compte utilisateur était en fait partagé par cinq amis (six au départ, puis trois filles et deux garçons dont un couple), utilisant le même ordinateur et le même appareil photo à tour de rôle.
Ce compte, qui avait postulé deux fois au poste d'administrateur, était actif depuis juin 2008 déjà et figurait en 8ᵉ place de la liste des contributeurs les plus prolifiques de Wikipédia. Même si le partage d'un compte utilisateur par plusieurs personnes n'est pas contraire aux recommandations faites par la communauté Wikipédia[S 80], le cas de Celette bouleversa fortement la communauté des contributeurs. Un climat de suspicion que je n'avais jamais connu auparavant était né à la découverte du prestige usurpé dont avait bénéficié ce compte utilisateur qui avait influencé bon nombre de discussions et prises de décisions. À l'issue de cette crise et suite à une concertation entre les administrateurs du projet, le compte Celette fut finalement bloqué indéfiniment, générant ces nouveaux commentaires dans le bistro de Wikipédia :
Suite aux discussions de la semaine passée je me demande s'il ne serait pas judicieux de masquer le compteur d'édition et de supprimer la liste des top x contributeurs. C'est le paramètre qui a donné du poids aux décisions unilatérales celettiennes, mais nous voyons clairement que le nombre n'a rien à voir avec la qualité. L'indicateur ne représente pas ce qu'il laisse supposer - débarrassons nous de son expression publique. --Charlik (discuter) 30 novembre 2019 à 22:57 (CET)
C'est compliqué amha. Le problème n'est pas le compteur d'édit, en tant que tel, mais le prestige associé. Il suffirait qu'à tout argument du genre "Ah mais il a quand même XXX contribs" soit répondu "mon bot aussi." ou "à coup de micro-éditions, Celette faisait ça dans la journée, ça ne veut rien dire". Car 1000 edits de patrouille ne sont pas la même chose que 1000 désébauchages. Je porte plus d'estime à celui qui passe 100 modifs, sur plusieurs semaines, à travailler un article pour un concours ou un label... Portez la bonne parole, l'éditcount ne veut rien dire. Cordialement, --JoKerozen (discuter) 1 décembre 2019 à 01:28 (CET)
À Bruxelles, il y a quelques années, afin de lutter contre la mendicité, le bourgmestre a fait supprimer les bancs publics… Cela n'a pas fonctionné Modèle:Boulet. — Madel (... le 22 à Asnières ?) 1 décembre 2019 à 09:33 (CET)
Ah ça, « l'expression publique », c'est terrrrible ! mais que fait la police ?? . --JPC des questions ? 1 décembre 2019 à 11:51 (CET)
La "réputation" est plus importante, même dans le cas de Celette(s), que le nombre de contributions pour "donner du poids aux décisions unilatérales", et on ne peut masquer la réputation. --Jean-Christophe BENOIST (discuter) 1 décembre 2019 à 11:57 (CET) »
Comme le soulignera l'utilisateur Kropotkine 113 en résumant la situation, le problème du cas Celette résidait aussi dans l'endurance de ce compte qui lui permettait d'épuiser ses contradicteurs, de les inciter à la faute ou au départ par lassitude[S 81]. Ce à quoi l'on peut peut-être répondre que l'utilisation de cinq comptes de manière concertée est sans doute plus efficace en matière d'épuisement des contradicteurs. Quoi qu'il en soit, une chose est sûre, c'est que le cas de Celette contrastait avec ces comptes utilisateurs que les Wikimédiens appellent les « faux-nez »[S 82], ou autrement dit ces comptes multiples créés par une seule personne dans le but par exemple de pouvoir voter plusieurs fois dans les prises de décision. Une pratique interdite bien sûr qui aura notamment justifié le statut de vérificateurs d'adresse IP afin de contrôler si deux comptes d'utilisateurs différents n'utilisent pas la même adresse IP.
Ceci étant dit, avec les adresses IP dynamiques qui peuvent être reprises par un fournisseur d'accès à Internet pour être transférées à d'autres clients, il reste difficile de pouvoir tout contrôler à coup sûr. Ensuite rien n'empêchera un utilisateur de créer un nouveau compte, ce qui n'est d'ailleurs pas interdit tant qu'on le signale, pour faire certaines interventions délicates. Dans le jargon des projets Wikimédia, cela s'appelle un compte à objet unique (CAOU)[S 83] et on les voit souvent apparaître en cas de conflit d'édition lorsque quelqu'un veut défendre une page par exemple sans que cela soit lié à sa réputation. Sans oublier non plus qu'à la moindre occasion il est aussi possible de se déconnecter de son compte pour laisser un message désobligeant, qui sera dès lors signé par une adresse IP visible par tous mais sans que l'on puisse savoir quel compte utilisateur en fait usage.
En fin de compte, l'option ultime en cas de problème reste toujours de faire une requête auprès d'un vérificateur, mais sans jamais avoir la garantie d'avoir une réponse pour autant. Car il faut d'abord savoir qu'une adresse IP n'est pas gardée plus de trois mois, et qu'ensuite ces vérifications doivent répondre à des consignes strictes pour ensuite respecter tout un protocole opérationnel bien spécifique. En cas de conflit d'opinion dans l'édition des projets, tout ce qui vient d'être dit nourrit donc un manque de confiance entre contributeurs qui bien souvent remettent en cause de la bonne foi des personnes avec lesquelles ils sont en conflit et ce, malgré les recommandations de ne pas se laisser tenter par ce travers[S 84]. Suite à quoi, certains feront alors usage des nombreux outils de contrôles offerts par le logiciel MediaWiki sur lequel reposent tous les projets pédagogiques hébergés par la Fondation, dans le but de mener leur propre enquête.
Les fonctions d'archivage et outils de surveillance
[modifier | modifier le wikicode]Le logiciel MediaWiki sur lequel fonctionne la totalité des projets éditoriaux Wikimédia[N 8] est un fabuleux instrument d'archivage. En jargon informatique, on appelle ce logiciel un système de gestion de contenu et celui-ci a comme particularité d'être muni d'un système de gestion de versions qui enregistre automatiquement une version complète et indépendante de chaque page à chaque modification. Il est donc en pratique tout à fait possible d'explorer l'historique de chaque page créée dans un projet Wikimédia tant que celle-ci n'est pas supprimée de l'espace visible par les simples lecteurs.
Une information, un mot, un texte, un fichier, présent sur une page d'un site Web Wikimédia, qui pourrait avoir disparu suite à de nouvelles modifications, sera toujours retrouvable en parcourant l'historique de modification jusqu'aux versions situées après l'apparition de l'information et avant sa disparition. C'est là un principe propre au logiciel MediaWiki et que l'on ne retrouve pas sur certains sites qui souvent affichent la date des mis à jour d'un article, mais sans qu'il soit possible de retourner à une version précédente. Voici pour illustrer ce principe d'archivage par version une vidéo de l'article « Pomme » qui aura été fait au départ de toutes les versions archivées de la page Web, de sorte à en voir son évolution au départ du principe animation en volume (vidéo 6.4[V 6]).
Dans un autre cas de figure, une page d'un site web peut aussi disparaître lorsqu'elle est supprimée au niveau du serveur qui l'héberge. Dans les projets Wikimédia, rien n'est vraiment supprimé des serveurs, mais tout au plus retiré de la vue des utilisateurs à l'exception de certaines personnes telles que les administrateurs qui bénéficient d'un accès privilégié en lecture. C'est d'ailleurs pour pallier ce risque que j'ai décidé d'archiver toutes les pages web référencées dans mes travaux de recherche, sur le projet Internet archive, de sorte à en garantir l'accès via ce que l'on appelle un permalien, ou autrement dit un lien pointant vers la version archivée d'une page Web.
De manière plus précise, chaque page d'historique de chaque page web produite par le logiciel MediaWiki offre, selon une copie d'écran de la page d'historique des modifications de l'article Wikipédia intitulé « science ouverte » (figure 6.3), les éléments suivants : un lien « actu » pointant vers la page de contenu tel qu'il se présente actuellement ; un lien « diff » pointant vers une page de différence entre versions dans laquelle apparaît en gras (texte ajouté) et en surligné (texte retiré) les modifications faites au contenu ; la date et l'heure exacte de la modification sous forme d'un lien pointant vers la version de la page archivée juste après la modification ; le nom d'utilisateur de l'auteur de la modification suivit entre parenthèse d'un lien « discuter » pointant vers sa page de discussion et d'un lien « contributions » dirigeant vers une page qui liste chronologiquement toutes ses modifications au sein du projet. Par défaut de compte utilisateur, s'affichera alors l'adresse IP de la connexion Internet utilisée par l'éditeur sous forme de lien qui pointe pareillement vers une page listant toutes les modifications faites par cette adresse IP au sein du projet. Il s'affichera ensuite entre parenthèses : un lien « discuter » pointant vers une page de discussion consacrée aux échanges avec le titulaire du compte utilisateur ou l'utilisateur d'une adresse IP fixe ou les utilisateurs en cas d'adresse IP dynamique ; la lettre « m » en caractère gras en cas de modification mineure ; la taille de la page suite à la modification et celle de la modification exprimée en octets ; entre parenthèse, un résumé des modifications éventuellement apporté par l'auteur ou le titre de la section automatiquement fourni par le système ; et finalement entre parenthèse un lien annuler permettant d'enregistrer la version de la page antérieure à la modification et un lien « remercier » permettant d'adresse une notification de remerciement à l'auteur.
En haut de la page, on voit ensuite apparaître un ensemble de liens pointant vers des outils d'analyses statistiques externes. Dans l'ordre de leurs apparitions respectives, ces outils permettront : de filtrer les informations historiques affichées sur la page ; d'afficher des statistiques sur les éditions et les auteurs ; de retrouver l'auteur d'un passage écrit produit sur la page ; de voir les statistiques de consultation de la page ; de connaître le nombre de contributeurs ayant la page dans leur liste de suivi ; d'afficher toutes les modifications de cette page faite par un seul contributeur.
Dans la copie d'écran reprise ci-dessus, on y voit aussi apparaître mon nom d'utilisateur « Lionel Scheepmans » en première ligne de la liste des modifications de l'article. Avant de capturer cette image, j'avais effectivement pris la peine de modifier l'article en indiquant dans la boite de résumé juste avant la sauvegarde : « Reformulation de la première phrase en vue d'une meilleure compréhension. »[S 85] dans le but d'informer d'autres utilisateurs sur mes motivations. Lorsque cette information apparait insuffisante, il est alors possible de visualiser en détails les changements que j'ai apportés à la page en cliquant sur le lien « diff » en bleu qui permet l'ouverture de la « page diff » (figure 6.4) comme on l'intitule en jargon Wikimédien, dans laquelle on voit surligné dans le cadre de gauche, le contenu qui a été supprimé et dans celui de droite ce qui a été ajouté. Ceci alors qu'en haut de la page figure cette fois, l'horodatage des versions, des hyperliens vers la page de présentation des éditeurs repris dans l'historique ainsi que d'autres pointant vers leurs pages d'historique d'édition et leurs pages de discussions, de telle sorte à pouvoir découvrir leurs autres activités dans le projet ou d'entrer en contacte pour entamer d’éventuelles discussions.
Une autre chose importante à savoir, c'est que les personnes qui bénéficient d'un compte utilisateur peuvent sélectionner des pages d'un projet en cliquant sur une petite étoile située à droite dans les onglets d'une page, de telle manière à ce qu'elle fasse l'objet d'un suivi automatique. Une fois reprise dans la liste des articles que l'on veut suivre, chaque modification de page est alors signalée sur une page de suivi personnelle (figure 6.5), qui ressemble très fort aux pages historiques des articles, mais avec pour différence qu'elle reprend, dans un ordre chronologique, toutes les modifications faites aux pages surveillées. En prenant ensuite le temps de configurer ses préférences d'utilisateur adéquatement, il est alors possible de recevoir une notification par courriel à chaque changement de l'une des pages reprises dans sa liste de suivi. Dans ce message, on y retrouve des liens qui permettent de se rendre sur la page en question pour y voir son état actuel, les changements, ainsi qu'un lien pointant vers la page de discussion de l'auteur de la modification.
Toujours dans un souci de contrôle, le programme informatique MediaWiki enregistre aussi instantanément et automatiquement toutes les autres actions faites par les contributeurs et les programmes informatiques qu'ils y mettent en œuvre en les rendant visibles sur une page Web. Cela concerne par exemple le renommage, la suppression ou la protection de pages, le blocage d'une adresse IP ou d'un compte utilisateurs, etc. À quelques exceptions près[N 9], toutes ces données sont aussi archivées dans des pages de journaux de la même façon que les pages d'historiques de contributions (figure 6.6). Quant au classement de ces informations, il fit l’objet de multiples améliorations au cours du temps avec notamment de nouvelles fonctionnalités paramétrables de recherche, de filtrage et de tri, ainsi que l'apparition de nouveaux hyperliens qui permettent l'accès à d'autres informations plus détaillées.
Bien qu'elle ne soit pas exhaustive, cette présentation détaillée des fonctionnalités d'archivage permet déjà d'imaginer la puissance offerte par le logiciel MediaWiki en matière de surveillance des modifications apportées aux différentes pages des projets Wikimédia. Cela permet de voir aussi comment chaque utilisateur, qu'il soit enregistré ou non, peut contrôler de manière instantanée et rétroactive les actions de toutes les personnes actives au sein des projets. À ces fonctionnalités basiques du logiciel MediaWiki, s'ajoute encore toute une panoplie d'outils auxiliaires et complémentaires, soit installables sous forme de gadgets depuis ses préférences d'utilisateur, soit disponibles sur d'autres sites Web hébergés par la fondation, mais dont la présentation serait beaucoup trop fastidieuse.
Voici donc à titre indicatif et juste pour s'en faire une idée, ce qu'il est possible de faire au départ de certains de ces outils. Il est d'une part possible de contrôler et de visualiser de façon asynchrone et parfois en temps réel (LiveRC[S 86]) ; l'activité des contributeurs enregistrés ou non, de manière ponctuelle ou évolutive, dans un article, un projet linguistique ou l'ensemble des projets Wikimédia (tools[S 87], Xtools[S 88], Wikiscan[S 89], CentralAuth[S 90], etc.). Il est également possible de savoir pour chaque article, quel utilisateur fut l'auteur d'une telle phrase ou d'un tel mot et à quel jour et quelle heure il l'a écrite (Wikiblame[S 91]) mais aussi de vérifier si celui-ci ne comprend aucun plagiat en provenance du Net, avec la possibilité de comparer les contenus si nécessaire (Earwig's Copyvio Detector[S 92]).
Tous ces outils font donc des projets Wikimédia, des espaces d'édition extrêmement transparents et propices à un contrôle mutuel entre contributeurs qui n'existe probablement nulle part ailleurs, grâce à des pages publiques qui listent chronologiquement toutes les actions de chaque utilisateur (figure 6.7). Au niveau de l'espace encyclopédique, un contrôle fait d'ailleurs l'objet d'une activité routinière au sein des communautés avec des personnes qui s'organisent pour assurer un suivi permanent des modifications.
Dans le projet Wikipédia en français, on appelle les personnes qui s'adonnent régulièrement à cette activité des patrouilleurs de changements récents, ou membre de la patrouille RC (Recents Changes). En plus d'un contrôle de qualité, le patrouilleur a aussi pour rôle d'accueillir les nouveaux venus en les guidant au niveau des pratiques attendues par la communauté[S 93]. Mais avant de devenir patrouilleur, on attend en général d'avoir assez d'ancienneté et d'expérience jusqu'à devenir « autopatrolled ». Un terme qui désigne un statut qui se produit automatiquement lorsque la règle établie par la communauté d'un projet estime que l'ancienneté et le nombre d'éditions d'un compte utilisateur sont suffisants pour qu'on lui reconnaisse une certaine maitrise. À partir de ce moment, les contributions du compte ne sont plus indiquées comme étant à relire.
La maîtrise d'une vigilance participative
[modifier | modifier le wikicode]En observant le système de surveillance réciproque mis en œuvre dans le projet Wikipédia, Sylvain Firer-Blaess n'hésite pas à le qualifier de : « modèle pour une société hyperpanoptique »[M 36]. Une idée qui lui fut inspirée par Nancy Fraser qui avait imaginé 10 ans avant la création du premier logiciel Wiki, une « société disciplinaire parfaite [...] totalement 'panopticisée' [dans laquelle] tous se surveilleraient et se contrôleraient les uns les autres »[B 11]. Elle aussi avait été inspirée par les travaux de Michel Foucault et plus particulièrement de son travail sur l'univers carcéral[B 12]. Dans celui-ci, l'auteur faisait référence au concept architectural de Jeremy Bentham[B 13] intitulé panopticon, traduit en français par le terme panoptique. Autant de références qui permettent donc de situer un phénomène de contrôle réciproque entre tous les membres d'une communauté, que d'autres préféreront appeler « holoptisme »[B 14] ou encore « vigilance participative »[B 15], selon une expression qui me semble la plus adéquate pour conceptualité ce qui se passe dans Wikimédia.
Comme cela a été vu dans la précédente section de ce chapitre, toute cette vigilance n'a rien à voir avec une quelconque reproduction numérique de l'architecture du panopticon telle qu'elle fut reprise dans certaines prisons cubaines (figure 6.8). En réalité il serait impossible de reproduire dans l'espace géographique l'architecture numérique de MediaWiki. Ou alors, la seule façon de le faire serait de placer des caméras partout dans l'espace géographique d'une communauté, pour rendre ensuite publique la rediffusion de toutes les images d'archives qu'elles produisent. Car c'est là à peu de chose près ce qui se passe sur les projets Wikimédia grâce aux pages « diffs » et « logs » qui permettent de visualiser l'archivage de chaque action au sein des projets.
Ces pages sont d'ailleurs régulièrement utilisées, voire exigées, lors des fréquentes procédures de protestations pouvant être lancées par tous les membres des communautés d'éditeurs. Sur Wikipédia en français, pour lancer une procédure de contestation du statut d'administrateur par exemple, il est exigé que celle-ci soit « expliquée et étayée par des diffs ou entrées de journal, sinon elle n'est pas valide »[S 94]. Ces pages de différences entre versions et celles du journal des activités permettent ainsi à chacun de valider ou de « réfuter » les accusations portées à l'encontre de l'administrateur lors de la procédure. Typiquement, on y retrouvera des liens pointant vers des propos ou des actes contraires aux règles et recommandations en vigueur au sein des projets.
Les propriétés de transparence et les outils de surveillance disponibles sur projets Wikimédia sont au bout du compte si nombreux et parfois d'une complexité telle, que cela aura pour conséquence irrémédiable de favoriser les personnes qui les maîtrisent. Même s'il reste vrai qu'au niveau éditorial à proprement parler, il n'existe aucune forme d'inégalité entre les contributeurs enregistrés puisque tous les choix éditoriaux doivent faire l'objet d'une recherche de consensus selon des processus décisionnels auxquels toute personne est libre de participer.
À côté de ces scripts d'édition automatique, apparaîtront aussi de nombreux programmes voués à la protection des projets face aux utilisateurs malveillants tels que les spammeurs ou vandales de tout type. Certains de ces algorithmes peuvent être des bots qui fonctionnent depuis un compte utilisateur, alors que d'autres seront des extensions du logiciel MediaWiki, tel que le système AbuseFilter qui bloque l'ajout de certains liens externes non désirés au sein des projets[S 95]. D'autres programmes encore, qui fonctionnent en JavaScript cette fois, peuvent aussi être activés individuellement au départ d'un compte utilisateur afin de bénéficier d'une véritable panoplie d'outils de surveillance. C'est le cas du programme LiveRC, le gadget préféré des patrouilleurs, qui permet de voir défiler en temps réel toutes les nouvelles modifications faites au sein d'un projet, tout ayant sous la main des outils de communication et d'interventions rapides, regroupés sur une seule page Web (figure 6.9).
Ce processus de vigilance participative apparait ainsi comme un système qui devrait inspirer, je trouve, l'organisation du vivre ensemble entre êtres humains dans toutes les sphères d’activités sociopolitiques, tel que nous en reparlerons dans le prochain chapitre. En clôturant cette section, retenons seulement que la transparence est une condition indispensable à toute forme de vigilance efficace, que cette vigilance doit porter sur les actions et non sur l'identité des acteurs, et qu'elle doit rester un processus accessible à tous sans aucune forme de hiérarchie statutaire. Une dernière condition qui comme nous allons le voir, pourrait être remise en cause au sein du mouvement Wikimédia de par la distribution de différents outils techniques propre à différent groupes d'utilisateurs.
La répartition des outils techniques par groupes utilisateurs
[modifier | modifier le wikicode]Il existe dans les projets éditoriaux Wikimédia de nombreux statuts techniques, dont le plus connu est certainement celui d'administrateur. Celui-ci s’acquiert par un dépôt de candidatures suivi du vote de la communauté active au sein d'un projet. Une fois élu, le candidat a alors accès à toute une gamme d'outils techniques qui lui permettront par exemple de retirer une page de l'espace visible par les non-administrateurs ou d'en interdire la modification, soit à tous, soit aux utilisateurs sous adresse IP ou aux comptes nouvellement créés. À côté de ce statut que l'on intitule aussi parfois système opérateur, il existe plus d'une dizaine d'autres statuts techniques moins connus, comme celui de vérificateur d'adresse IP ou de masqueurs de modifications dont il fut déjà question dans la deuxième section de ce chapitre.
Afin de pouvoir profiter d'une vue d’ensemble, voici une liste récapitulative de tous ces groupes, suivis de leurs principales capacités techniques, telle que j'ai pu la trouver sur le site Meta-Wiki[S 96]. À l'exception des stewards, les outils techniques sont octroyés séparément en fonction de chaque projet et version linguistique. Quant aux possibilités de créer et modifier et renommer des pages, de télécharger des fichiers, d'utiliser une liste de suivi, et d'envoyer un courriel à d'autres utilisateurs au travers des projets, elles sont octroyées de manière générique à toute personne en possession d'un compte utilisateur. Pour compléter les informations contenues dans cette liste et de les contextualiser dans chaque projet, il est aussi possible de se rendre sur la page Spécial:ListGroupRights présente sur tous les sites Web fonctionnant avec le logiciel MediaWiki[S 97].
- Steward : accéder à tous les droits repris ci-dessous sur l'ensemble des projets.
- Vérificateur d’ utilisateurs : accéder aux adresses IP et aux logs des utilisateurs enregistrés.
- Masqueur de modifications : masquer des modifications et leurs résumés dans les versions de pages archivées.
- Bureaucrate : octroyer ou retirer les statuts techniques repris dans cette liste aux utilisateurs d'un projet.
- Administrateur : importer, protéger, supprimer des pages et bloquer des adresses IP et comptes utilisateurs.
- Administrateur OAuth : authentifier des programmes informatiques qui utilisent un compte utilisateur.
- Administrateur d'interface : modifier les pages d'interfaces de type CSS, JS et JSON.
- Gestionnaire de filtres anti-abus : gérer les filtres qui empêchent l'utilisation de certains hyperliens de type spam ou autres.
- Révocateur : révoquer des modifications en masse.
- Relecteur ou Modificateur : participer à la vérification d'articles ou modifications en attente de publication.
- Modificateur de modèles : modifier les pages situées dans l'espace de nom modèle présenté précédemment.
- Déplaceur de fichiers : renommer des fichiers dans le but de les déplacer dans les espaces de nom.
- Patrouilleur : marquer une modification comme vérifiée par un patrouilleur.
- Créateur de compte : créer plus de six comptes d'utilisateurs en moins de 24 heures au départ d'une seule adresse IP.
- Exempté de blocage d’IP : être exempté de blocage IP pour une adresse ou une plage d'adresses.
- Dresseur de bots : créer un compte d’utilisateur robot et y mettre en service des scripts d'automatisation de tâches.
- Inondateur : marquer les changements de masse comme action de bot pour éviter l’inondation des changements récents.
- Utilisateur enregistré : selon les projets, éditer des pages semi-protégées et envoyer des courriels.
- Utilisateur récemment inscrit : selon les projets, créer et modifier les pages ainsi qu'importer des fichiers.
- Utilisateur sous IP : selon les projets, créer et modifier les pages.
- Utilisateur ou IP bloqué : modifier certaines pages uniquement en fonction de l'étendue du blocage.
À la lecture de cette liste, on découvre donc qu'à l’exception des Stewards qui sont au nombre de 34 en janvier 2022 et ne peuvent utiliser leurs outils qu'en cas d'absence d'une personne qui en disposerait déjà localement[S 98], les droits accordés aux groupes d'utilisateurs sont extrêmement distribués. Une telle disposition permet ainsi d'éviter toute concentration des capacités techniques, dont certaines sont coercitives, dans les mains de quelques utilisateurs qui de toute manière ne sont pas libres de les utiliser en toutes circonstances. À l'exception de certaines interventions de routine, l'usage d'outils d'administration tels que les suppressions et le blocage, doivent en effet toujours êtres précédé de décisions communautaires auxquels tous les éditeurs sont libres de participer. Dans les faits, il existe bien sûr certains abus, mais qui encore une fois et comme on l'a déjà vu précédemment, exposent leurs auteurs à des sanctions pouvant aller du retrait de statut, au blocage complet du compte utilisateur.
Illustration de l'usage de certains outils techniques
[modifier | modifier le wikicode]De manière à fournir une présentation contextualisée de l'usage de certains de ces outils techniques, voici à présent le récit d'un épisode difficile dans ma carrière de bénévole en ligne et hors ligne au sein du mouvement. Le point culminant de cette histoire se passe en mai 2016, lorsque quelques minutes avant une présentation du mouvement Wikimédia dans le cadre d'un « café-déb@ »[S 99], j'ai eu la désagréable surprise de voir que la page de présentation du mouvement que j'avais créée sur Wikipédia avait été effacée. Comme c'était indiqué sur sa page de discussion, cette page Web avait été spécialement créée pour partager avec d'autres bénévoles un support qui pouvait être utile dans bien des circonstances. Malgré la présence de ces avertissements, un administrateur avait pris l'initiative de supprimer la page de présentation et sa page de discussion six jours avant ma présentation au café débat, en laissant pour seule justification : « Page créée par un contributeur banni ou bloqué »[S 100].
Suite à une série de conflits avec certains membres de la communauté qui m'avait particulièrement épuisé émotionnellement, j'avais effectivement demandé à ce que mes comptes utilisateurs soient bloqués sur le projet Wikipédia en français pour une durée indéterminée[S 101]. Cela faisait suite à un conflit avec un autre administrateur contre qui j'avais fini par porter plainte en rejoignant une procédure de contestation de son statut[S 102]. Alors que cette procédure tardait à aboutir et que les plaintes portées contre lui ne cessaient de croître, il décida finalement lui-même de démissionner de sa fonction au moment où un de ses collègues administrateurs menaçait de quitter son poste en guise de protestation. Voici ci-dessous, repris de la page bulletin des bureaucrates[S 103], le court échange qui aura permis d'aboutir à cette résolution :
Je refuse de rester collègue plus longtemps de Totodu74 (d · c · b), face à sa fuite en avant faite d'insultes généralisées (Wikipédia:Requête aux administrateurs# Langage incompatible avec les règles de savoir-vivre) et de contestations de collègues ([1], [2] [3]), et demande donc, à titre temporaire, en attendant que cette histoire soit réglée, le retrait de mon statut d'administrateur. — Hégésippe (discuter) [opérateur] 23 mars 2016 à 10:33 (CET)
Ton balai a été rangé dans le placard afférent. N'hésite pas à venir le rechercher dès que tu sentiras le climat propice. − ©éréales Kille® [Speak to me] en ce mercredi 23 mars 2016 à 10:39 (CET)
Si ça peut éviter de faire pleurer dans les chaumières et donner lieu à ce genre de comédies ici ou en RA, merci de me retirer le statut : je suis de toute façon contesté et à peu près autant flatté qu'Hégé que nous partagions le même statut Merci d'avance, Totodu74 (devesar…) 23 mars 2016 à 12:36 (CET)
Voir supra. − ©éréales Kille® [Speak to me] en ce mercredi 23 mars 2016 à 16:02 (CET)
Et le sens de l'humour, vous pouvez l'enlever ou peut-être m'en remettre un autre, parce que là, moi, si je sais ce qu'est un balai, je peux me servir de n'importe lequel, il m'est impossible d'avoir ici quelque chose à voir ce qui a été fait avec ce mode. Non ? TigH (discuter) 23 mars 2016 à 21:31 (CET)
Depuis pas mal de temps, le sens de l'humour est absent de Wikipédia... − ©éréales Kille® [Speak to me] en ce mercredi 23 mars 2016 à 21:33 (CET)
Dans Wikidata peut-être^^ TigH (discuter) 23 mars 2016 à 22:13 (CET)
Bonjour, je surcharge à nouveau cette demande en m'adressant à Hégésippe Cormier vu que je vis une bonne part de son malaise, mais pas sur les mêmes bases encore une fois. Je lui fais simplement remarquer qu'il est pour moi autrement plus gênant à l'avenir de partager une collégialité avec quelques opérateurs, ceux qui ont estimé que les faits ne justifiaient qu'un blocage de 24 heures. J'aimerais comprendre cette divergence de point de vue, mais pour ce qui concerne cette section, cette divergence est plus problématique - sans la dramatiser - que le comportement aberrant d'untel, choses sur lesquelles nous sommes relativement habitués à passer quand il ne s'agit pas d'administrateurs. Je vais essayer de ne pas intervenir davantage ici, maintenant que j'ai dit que la question dépassait la cohabitation ou coexistence de deux contributeurs (la question de l'humour en implique encore beaucoup plus, mais c'est comme toute question...). TigH (discuter) 24 mars 2016 à 10:41 (CET)
Loin de moi l'idée d'être désagréable, mais je préférerais que vous n'usiez point du bulletin des bureaucrates pour vos échanges... la page de discussion de l'un ou l'autre ferait sûrement l'affaire. − ©éréales Kille® [Speak to me]* en ce jeudi 24 mars 2016 à 10:57 (CET)
Dans l'emportement provoqué par cette crise, j'avais même lancé une procédure d'arbitrage contre moi-même qui visait à produire une démonstration par l'absurde de la manière dont la crise était gérée tout en me donnant l'occasion de découvrir le fonctionnement de ce processus[S 104]. Cette démarche consiste à adresser une plainte à un comité d'arbitrage qui se voit élu par la communauté dans le but de résoudre des cas de conflits insolubles par la discussion en demandant aux administrateurs de bloquer ou bannir un compte utilisateur si nécessaire[S 105].
Cette requête, qui me valut l'accusation justifiée de « désorganiser Wikipédia pour une argumentation personnelle »[S 106], était bel et bien un comportement déplacé de ma part, même si à l'époque, je n'étais pas encore doctorant et donc soumis à certaines règles déontologiques. De plus, sans que je le sache, le comité d'arbitrage était à ce moment à l'arrêt en raison d'un manque de candidatures nécessaires au renouvellement des arbitres qui étaient arrivés au bout de leur mandat d'un an. En me remémorant cet épisode, je prends donc la peine de présenter mes excuses aux deux arbitres qui, en attente de remplaçants, auront pris la peine de répondre aimablement à ma requête.
Quant à l'issue de ma présentation dans le cadre du café débat, je fus évidemment pris de panique en découvrant la suppression de mon support peu de temps avant mon exposé. Mon réflexe fut alors de laisser un message de détresse sur le canal IRC du projet Wikipédia en français, qui était encore à l'époque le principal espace de discussion instantané du projet. Trois minutes après l'heure du début de l'activité, un administrateur nommé Frakir finit par répondre à mon message en restaurant de manière extrémiste l'accès à ma page de présentation[S 100]. Un acte salvateur pour lequel je lui en suis encore aujourd'hui tout à fait reconnaissant.
Avant de commencer mon exposé, j'avais en vain fait une demande de restauration sur la page de discussion de l'administrateur qui avait supprimé ma présentation. Étant donné que j'étais bloqué en édition sur Wikipédia, je m'étais d'ailleursen madressé à lui sur le site de la Wikiversité. Les arguments avançés durant notre échange pour justifier son action ne me semblaient pas plus convaincants que pertinents. Mais alors qu'il ne répondait plus à mes dernières questions, je n'ai finalement pas eu le courage de repartir dans un nouveau conflit pour lequel j'aurai dû à nouveau mobiliser l'attention de la communauté Wikipédia. À titre indicatif, voici le contenu de notre discussion[S 107] :
Bonjour Ash Crow je n'avais pas vu que tu étais actif sur Wikiversité. Je comptais sur la page Wikipédia:Présentation pour faire une présentation du mouvement wikimedia à 19h30. Mais surprise, elle a été supprimée et je me demande bien pourquoi ? Je n'ai pas été banni de Wikipedia mais j'ai demandé le blocage de mon compte pour prendre un peu de recul. Si tu pouvais restaurer cette page avec 19h30 ce serait super.Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie 19 mai 2016 à 17:26 (UTC)
Je l'avais supprimée parce que c'est un troll anti-WP, avec l'inclusion de File:Répartition_vraisemblable_de_la_Wikipédia_francophone.png (cette image est supposée être du second degré mais est intégrée sans contextualisation au milieu d'images sérieuses.) -Ash Crow (discussion) 19 mai 2016 à 17:53 (UTC)
Oui, effectivement, c'est du second degré. Un message sur la page de discussion, suivi d'un changement d'image aurait fait l'affaire non ? Mais je me pose deux questions. D'une part, n'y a-t-il pas une procédure pour supprimer des pages sur Wikipédia ? D'autre part comment se fait-il que tu aies les droits d'administrateur alors que rien ne l'indique sur ta page utilisateur ? Bien à toi, Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie 19 mai 2016 à 21:27 (UTC) P.S. Une troisième question découle de la première. Si cette page, tu l'as « supprimée parce que c'est un troll anti-WP » pourquoi ne l'as-tu pas indiqué dans la boite de résumé au lieu de justifier la suppression pour raison de blocage ou bannissement de l'auteur ?
Je voulais te contacter mais un message sur la page de discussion d'un utilisateur bloqué indef, c'est un peu inutile (ce qui répond aussi à ta troisième question). La page elle-même avait l’air d'un brouillon jamais fini (il n'y a presque pas de texte, si le but est de présenter WP c'est un peu incompréhensible...) et situé hors espace encyclopédique. J'avais oublié de remettre la BU admin sur ma page utilisateur, effectivement. -Ash Crow (discussion) 19 mai 2016 à 22:25 (UTC)
Ok, ben tu sauras maintenant où me contacter pour la prochaine fois. C'est une page de présentation destinée à servir d’appui à une présentation orale. Une sorte de PPT si tu veux, mais directement sur le site et avec des liens fonctionnels qui me permettent de naviguer dans l'encyclopédie. D'où mon stress quand je l’ai vue disparue deux heures avant ma présentation. Elle est perfectible c'est sûr et elle est maintenue sur Wikipedia, n'hésite pas à l'améliorer comme d'autres contributeurs ont commencé à le faire. Mais au fait, tu n'as pas répondu à ma question au sujet de la procédure à suivre avant de supprimer une page ? Quelque chose aurait-il changé sans que je le sache ? Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie 19 mai 2016 à 22:39 (UTC)
Il y a une procédure pour supprimer un article, la maintenance dans les espaces meta a toujours été plus souple. -Ash Crow (discussion) 20 mai 2016 à 01:13 (UTC)
Ah bon. Dis-moi, je compte bientôt reprendre mes activités sur Wikipedia. Connais-tu la procédure pour débloquer mon compte ? Comme je ne peux plus écrire sur le site, je me dis que c'est l'occasion d'en parler à un administrateur. Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie 20 mai 2016 à 07:34 (UTC)
Tu peux mettre le w:Modèle:Déblocage sur ta page de discussion. -Ash Crow (discussion) 20 mai 2016 à 16:12 (UTC)
Merci pour l'info. Je savais pas qu'un utilisateur bloqué ou Banni pouvait toujours éditer sa page de discussion. C'est une belle découverte, symboliquement importante je trouve. Ce fut aussi l'occasion de me souvenir que j'avais laissé un message sur cette page, au cas où quelqu'un cherchait à me contacter. Tu me dis que tu voulais me contacter, as-tu donc visité ma page de discussion avant la supprimer Wikipedia:Présentation ? Au faite pourrais-tu s'il te plait ressusciter la page Discussion Wikipédia:Présentation ? Je pense qu'il s'y trouvait des informations intéressantes que j'aimerai me remettre en mémoire. Lionel Scheepmans ✉ Contact Désolé pour ma dysorthographie 20 mai 2016 à 18:39 (UTC)
Ces petits épisodes, parmi tant d'autres que l'on pourrait retranscrire ici, permet d'illustrer certaines conditions dans lesquelles les outils techniques peuvent être utilisés. Que ce soit de manière raisonnée ou abusive, chaque usage d'outils techniques fera dans tous les cas l'objet d'un archivage complet dans lequel on retrouve les auteurs, les heures d'exécution et les éventuels messages de justification. Au départ de ces enregistrements, il est alors facile de justifier des plaintes comme on a pu le voir lors de ce petit récit. Pour le reste, il faut savoir enfin que les statuts techniques octroyés sur base de candidatures et vote de la communauté, sont aussi soumis à une procédure de retrait automatique en cas d'inactivité durant une période variable selon le statut accordé, telle que six mois pour les stewards, un an pour les vérificateurs et deux ans pour les administrateurs locaux.
Le fonctionnement et la gestion des outils techniques tels qu'ils furent mis en place dans les projets Wikimédia auront donc donné naissance à ce que je considère à ce jour comme l'environnement social le plus sain de l'écoumène de l'ère numérique. Contrairement aux espaces commerciaux conçus pour agrémenter l'expérience utilisateur en les confinant dans des bulles de filtres[B 16], l'environnement MediaWiki renforce pour sa part les possibilités de contrôle et de contestations tout en offrant de nombreuses fonctions d'archivage et de référencement qui permettent à chacun de couper court à toute mauvaise retranscription ou manipulation de leurs actes ou discours. Ce que l'on peut regretter par contre, c'est parmi les nombreux efforts fournis par le mouvement pour faciliter la participation grâce à de nombreuses aides à l'édition, on en arrive parfois à des situations paradoxales d'exclusions non préméditées.
L'aide à l'édition et son paradoxal effet d'exclusion
[modifier | modifier le wikicode]Cela apparait parfois de manière paradoxale, mais il faut bien se rendre compte que toute amélioration dans le domaine de la technique peut aussi apporter son lot d'inconvénients. À commencer par le fait qu'une plus grande simplicité d'usage engendre bien souvent une plus grande complexité de l'écriture du code informatique. Lors d'une discussion avec un contributeur très actif sur le projet Wiktionnaire en français qui a travaillé toute sa vie dans l'informatique, celui-ci me dit que suite à un retour sur Wikipédia, il avait été effaré par la complexité que le temps avait ajoutée à l'édition du projet. C'est là un cercle vicieux me dit-il, tout en m'expliquant ceci[S 108] :
C'est un peu ce qu'on appelle la sélection naturelle : si la probabilité de commencer à contribuer est nettement plus forte chez ceux qui ont l'habitude de la complexité, ou tout au moins, qui l'acceptent (des informaticiens, entre autres, bien que pas seulement...), il est clair que leur proportion augmentera assez vite, ce qui amènera logiquement une tendance à accepter de plus en plus facilement (ou à rechercher de plus en plus) de nouvelles complexifications, ce qui dissuadera encore plus les candidats de bonne volonté qui ne sont pas dans cet esprit, et ainsi de suite. La seule façon de briser ce cercle vicieux est de se fixer une limite de complexité apparente (puisque c'est au départ l'apparence de complexité qui est déterminante pour empêcher le recrutement de nouveaux contributeurs). Mais comment définir une telle limite ?
Pour donner un autre exemple caricatural : il faut vraiment un esprit un peu spécial pour contribuer sur Wikidata, où les sujets sont référencés par des numéros et où à peu près tout est incompréhensible pour une personne normale (Wikidata devrait, selon moi, se limiter à fournir des outils disponibles pour les lecteurs ou les contributeurs qui le désirent, sans avoir aucun impact sur le travail des autres). Si même moi, un informaticien, je dis ça, j'imagine les autres (qui, puisqu'ils ne commencent pas à contribuer, n'ont absolument pas la parole, et n'ont donc pas d'impact sur le phénomène, ils ne font que le favoriser par leur retrait) ...
Il faut cependant savoir que ce contributeur n'utilise pas l'éditeur visuel et qu'il ne se rend donc pas bien compte que certains types de modifications des pages de Wikipédia ont été grandement facilités par celui-ci. De plus et comme il me le faisait remarquer à juste titre, ces nouvelles fonctionnalités d'éditions ne sont pas adaptées au Wiktionnaire dont les pages reposent essentiellement sur l'utilisation de modèles et de modules dans le but de préformater chaque page d'entrée lexicale de manière uniforme et paramétrable. Et comme le faisait remarquer un autre contributeur en page de discussion de ce chapitre, la liste des modèles et modules utilisés dans un article peut parfois apparaître aussi longue, si pas plus longue, que l'article lui-même. À titre d'exemple, le présent chapitre de mon travail de recherche, tel qu'il se présente sur Wikiversité, utilise 14 modules et plus de 55 modèles, dont les effets peuvent varier entre un simple déplacement de texte vers la droite, à tout un affichage tel que je vais en faire la démonstration à l'instant.
Voici repris ci-dessous les trois formes que peuvent prendre le modèle:Travail de recherche. Apparaît premièrement, sa représentation graphique telle qu'elle s'affiche lors de la lecture de la page Web, vient ensuite le wikicode, qui une fois placé sur n'importe quelle page du projet, fait apparaître cet affichage, et enfin le code informatique de la page du modèle en question qui reprend du wikicode, de l'HTML, du CSS et du JavaScript. Ceci tout en sachant que la page modèle:Travail de recherche utilise elle-même plus d'une vingtaine d'autres modèles. Ce qui veut dire qu'en ajoutant parfois une dizaine de caractères en wikicode au niveau d'une page, on peut mobiliser plusieurs dizaines de modèles en cascade.
{{ Travail de recherche | idfaculté = Socio-anthropologie | titre = La technologie Wikimédia <br>'''Un subtil équilibre entre contrôle, anonymat, transparence et surveillance | parent = Cinquième chapitre de l'ouvrage ''[[Recherche:Imagine un monde|Imagine un monde]]'' | image = Wikimedia Community Logo.svg }}
Code informatique situé sur la page du modèle qui est appelé par le wikicode repris ci-dessus
<includeonly>{{DISPLAYTITLE:{{NAMESPACE}}:{{PAGENAME}}}}<div class="faculte faculte-{{#invoke:Mot|minuscule|{{{idfaculté|aucune}}}}}" style="margin:0.3em 0;background: linear-gradient(#F7F8F9, #{{#if:{{{idfaculté|}}}|{{Idfaculté/pastel/{{#invoke:Mot|minuscule|{{{idfaculté}}}}}}}|EAECEC}}); background-image: linear-gradient(#F7F8F9, #{{#if:{{{idfaculté|}}}|{{Idfaculté/pastel/{{#invoke:Mot|minuscule|{{{idfaculté}}}}}}}|EAECEC}}); border: 3px solid #{{#if:{{{idfaculté|}}}|{{idfaculté/couleur/{{#invoke:Mot|minuscule|{{{idfaculté}}}}}}}|D2D2CF}}; border-radius: 10px; padding:1em; line-height:1.4"><div style="display:inline;"><div style="float:right">[[Fichier:{{#if:{{{image|}}}|{{{image|}}}|{{#if:{{{idfaculté|}}}|{{idfaculté/logo/{{#invoke:Mot|minuscule|{{{idfaculté}}}}}}}|{{idfaculté/logo/recherche}}}}}}|120px|none]]</div></div><div style="margin-left:5px"><div style="font-size:130%">'''{{{titre|{{SUBPAGENAME}}}}}'''</div><div style="font-size:100%">'''{{#if:{{{parent|}}}|{{{parent|}}}|{{#if:{{{idfaculté|}}}|[[Faculté:{{#invoke:Mot|majuscule|{{{idfaculté}}}}}/Travaux de recherche|Travaux de recherche en {{#invoke:Mot|minuscule|{{{idfaculté}}}}}]]|[[Recherche:Accueil|Portail recherches et etudes]]}}}}'''</div><div style="font-size:100%">{{#if:{{{laboratoire|}}}|'''{{{laboratoire}}}'''}}</div><hr style="margin:0.3em 0;border:0;border-top:1 px solid #{{idfaculté/couleur/recherche}};height:1" /><div style="font-size:90%">Toute réaction ou commentaire par rapport à ce travail de recherche sont les bienvenus sur [[{{TALKPAGENAME}}|cette page de discussion]].</div><hr style="margin:0.3em 0;border:0;border-top:1 px solid #{{idfaculté/couleur/recherche}};height:1" /><div style="font-size:80%">Cette page fait partie de l’[[Wikiversité:Espace de noms Recherche|espace recherche de Wikiversité]] et dépend de la [[Faculté:{{{idfaculté}}}|faculté {{{idfaculté}}}]]. Pour plus d'informations, consultez le [[Recherche:Accueil|portail de l'espace recherche]] ou rendez-vous sur l'[[Recherche:Accueil/Travaux de recherche|index des travaux de recherche par faculté]].</div></div></div><div style="text-align:center;"><span style="font-size:100%">{{#if:{{{département|}}}|''Ce travail de recherche est rattaché au département [[Département:{{{département}}}|{{{département}}}]].<br />}}</span></div><div style="text-align: center;">{{#if:{{{inclus|}}}||{{#if:{{{niveau|}}}|{{niveau|niveau={{{niveau|}}}|page=recherche}}|[[Catégorie:Recherches sans niveau]]}}}}</div>{{#ifexpr:{{NAMESPACENUMBER}}=10 or {{NAMESPACENUMBER}}=12 or {{NAMESPACENUMBER}}=2 or {{NAMESPACENUMBER}}=104||[[Catégorie:Modèle Travail de recherche inadapté à la page]]}}{{#ifexpr: {{NAMESPACENUMBER}}=104 |2=[[Catégorie:Recherches hors espace recherche]]<br /><div style="text-align: center;"> '''Attention, le modèle "Travail de recherche" s'applique à l'espace recherche uniquement. Veuillez renommer la page « Recherche:{{PAGENAME}} »'''</div><div style="text-align: center;"><small>(Pour renommer une page, veuillez consulter éventuellement : [[Aide:Bien débuter sur la Wikiversité]])</small></div>}}{{#ifexpr:{{NAMESPACENUMBER}}=104|[[Catégorie:Recherches créées en {{#invoke:Anncréa|date|{{PAGEID}}}}]]}}{{#ifexpr:{{NAMESPACENUMBER}}=104|{{#if:{{{idfaculté|}}}|[[Catégorie:Recherches de la faculté {{#invoke:Mot|minuscule|{{{idfaculté}}}}}]]|[[Catégorie:Recherches indépendantes d'une faculté]]}}}}{{#if:{{{titre|}}}|[[Catégorie:Recherches avec titre]]|[[Catégorie:Recherches sans titre]]}}[[Catégorie:Recherches non catégorisées]]</includeonly><noinclude>{{Documentation/Bac à sable}}</noinclude>
Suite à cette démonstration, on comprend donc mieux comment il est facile de profiter de tout un travail de mise en page préétabli, ici en l’occurrence un cadre d'entête en introduction d'un travail de recherche, mais aussi comment il devient difficile de modifier l'apparence de ce cadre si jamais quelque chose venait à déplaire. Une chose qui devient d'autant plus incommodante lorsqu'on sait que sur Wikiversité, et à la différence du projet Wikipédia, l'utilisation de ces cadres introductifs est pratiquement obligatoire. On le justifie par le désir d'uniformiser le projet, mais aussi par le fait que du code informatique invisible y est placé dans le but de lister automatiquement les travaux de recherche sur des pages de catégorie, ou de les référencer au niveau des facultés, laboratoire, etc.
Cette obligation, bien que justifiée, m'aura donné du fil à retordre quand je me suis rendu compte par moment, que le rendu de certains modèles était très médiocre au moment de l'exportation des pages de Wikiversité au format PDF lorsque j'ai voulu l'imprimer mon travail. Alors que sur Wikipédia les utilisateurs se disputent concernant le contenu des articles, sur Wikiversité, c'est donc plutôt au sujet de leurs mises en page que les tensions peuvent apparaitre. C'est alors que certains, regrettent de ne pas avoir les compétences suffisantes pour pouvoir modifier les modèles de mise en page et préféreront même dans certains cas quitter le projet plutôt que s'attaquer au changement. Un démission qui devient alors le résultat d'un inconfort tel que celui ressenti lorsque l'on se sent exclu en tant qu'activiste des logiciels libres par l'utilisation au sein du mouvement d'outils de communication propriétaires dont le manque d'interopérabilité avec les ordinateurs fonctionnant sous GNU Linux empêche la participation de certains membres actifs du mouvement à certaines activités.
La pandémie de Covid-19 et l'externalisation des outils de communication
[modifier | modifier le wikicode]Avec l'arrivée de la pandémie de Covid-19, toute la sphère hors-ligne Wikimédia fut mise à l'arrêt afin d'organiser par la suite, en visioconférences et tant bien que mal, les réunions de conseils d'administration, assemblées générales, workshops, formations, habituellement organisés par le mouvement. Parmi toutes ces activités, l'exemple le plus significatif en matière de participation fut sans aucun doute la première conversation mondiale organisée dans le cadre de la mise en œuvre de la stratégie du mouvement 2030[S 109].
Ces rencontres furent organisées durant les week-ends du 21 & 22 novembre et 5 & 6 décembre et début 2020 par un groupe en charge de la transition stratégique et InsightPact[S 110], une petite entreprise de communication thaïlandaise qui utilise le logiciel de visioconférence Zoom. Venant de la Fondation, des projets pédagogiques, des groupes d'utilisateurs, des organisations locales et d'autres institutions affiliées au mouvement, ce sont plus d'une centaine de personnes qui se sont ainsi connectées à chaque demi-journée de rencontres (figure 6.11)[S 111].
Au-delà de la crise sanitaire qu'elle déclencha, la pandémie eut ainsi comme aspect positif de rassembler de visu de nombreuses personnes dont certaines n'auraient jamais pu être présentes si les rencontres avaient été organisées hors ligne. D'ailleurs, du fait de la pandémie, le traditionnel Wikimedia Summit de Berlin qui rassemblait chaque année plus d'une centaine de participants en provenance des quatre coins du monde, n'a toujours pas connu de nouvelle édition jusqu'en 2022[S 112].
En participant à ces visioconférences, quelquefois à table et tout en mangeant, j'ai trouvé très impressionnant de rencontrer et de débattre avec des personnes situées à des milliers de kilomètres de chez moi. En ce sens ces rencontres numériques furent de belles occasions pour créer du lien et de la sympathie entre acteurs du mouvement. Lors des moments de pause, certaines personnes ont même profité de l'occasion pour chanter une chanson de leur pays. Et alors que j'avais dû couper court à ma dernière rencontre pour aller chercher mon fils à l'école, Daria, une employée de l'association Wikimédia UK d'origine polonaise[S 113], m'avait même recontacté par courriel par la suite, pour me dire qu'elle a trouvé mon intervention intéressante.
Plus tard, je fus contacté par un des organisateurs des conversations mondiales en poste au sein de la Fondation Wikimédia. Il avait pour mission de convier les participants à évaluer cette nouvelle forme de rencontre en ligne de grande envergure que nous avions expérimentée. Je lui fis part des points positifs tels qu'ils viennent d'être décrits, mais aussi d'autres points négatifs qu'il me reste à exposer. À commencer par le fait que l'invitation à répondre à ces questions m'avait été transmise par un courriel qui m'invitait à rejoindre une page de Google Form. Après l'utilisation du logiciel Zoom, c'était donc déjà là un deuxième service commercial et propriétaire extérieur à l'environnement technique Wikimédia auquel j’étais convié.
Parallèlement à cette démarche, la page Strategy/Wikimedia movement/2018-20/Transition/Global Conversations/Feedback[S 114] avait été créée sur le site Meta-Wiki, bien qu'il ne me semble pas qu'elle fut signalée dans l’e-mail que j'avais reçu et dont je ne retrouve plus trace à ce jour. Quatorze personnes se seront exprimées sur cette page, mais sans que je puisse savoir combien de personnes ont répondu au formulaire Google, ni ce que celles-ci y ont partagé comme retours d'expériences. Un nouveau point faible donc dans l'utilisation d'outils de communication externes au mouvement.
Parmi les retours positifs observés sur le site Meta-Wiki qui étaient complémentaires aux miens, il y avait l'usage d'outils de sondage durant les vidéoconférences et surtout l'usage d'Etherpad. Il s'agit là d'un autre logiciel libre d'édition communautaire hébergé sur les serveurs de la Fondation Wikimédia à l'adresse https://etherpad.wikimedia.org. qui permet de voir, en temps réel cette fois, les autres contributeurs en train d'écrire leurs phrases. Chaque page créée est ensuite conservée et reste accessible à tout internaute qui pourra en consulter l'évolution grâce à une ligne du temps. Un outil fantastique en fin de compte pour l'écriture, à plusieurs mains et en temps réel, d'un texte sous forme de brouillon.
Toujours sur la page de discussion lancée sur Meta-Wiki, et alors que j'exprimais le fait que la vidéo conférence avec autant de participants ne me semblait pas adaptée pour prendre des décisions importantes, d'autres commentaires mettaient en évidence le stress généré par la synchronicité des échanges. Il fut reproché ensuite, et ce malgré les fantastiques traductions instantanées de chaque orateur réalisées par des bénévoles du mouvement en plus de cinq langues, que les supports écrits étaient eux par contre uniquement en anglais. Et le fait enfin que le chat individuel entre les participants avait volontairement été désactivé en référence aux politiques de convivialité du mouvement[S 115], et aussi afin de prévenir toute forme éventuel d'harcèlement, fut quant à lui perçu comme une décision infantilisante par le président de l'association Wikimédia Belgique.
Un autre problème auquel je n'avais pas pensé lorsque je participais à ce retour d'expérience, concerne la monopolisation de la parole. On peut comprendre que cela arrive dans le cas de certains représentants de la Fondation qui ont pour mission de remercier les participants ou de présenter le déroulement des activités, bien que la chose ne fut pas à mon sens toujours bien dosée. Mais j'ai aussi participé à des groupes de discussion où la parole fut monopolisée par l'un ou l’autre participant, et parfois même par la personne qui était en charge de coordonner les échanges. Une chose qui encore une fois, ne peut se produire lors d'une communication asynchrone, telle qu'elle s'organise dans les projets Wikimédia grâce aux fonctionnalités du logiciel MediaWiki.
J'aurais donc envie de conclure l'évaluation de cette expérience en disant que si les visioconférences peuvent être très prolifiques et utiles pour le mouvement, elles ne pourront jamais remplacer au niveau de la qualité et de l'efficacité les procédures formelles et asynchrones, expérimentées depuis les débuts de la création d'Internet, que sont les appels à commentaire déjà présenté en deuxième section de ce chapitre. Avec de telles procédures appliquées sur un environnement numérique aussi puissant que celui fourni par le logiciel MediaWiki, il est effectivement possible de prendre tout le temps nécessaire pour mener à bien un processus décisionnel.
De plus, chacun peut s'y investir aux moments qui lui semblent les plus adéquats par rapport à ses propres obligations et prendre connaissance de la parole d’autrui sans que celle-ci ne nuise à la parole des autres participant en raison d'un manque de temps disponible à l'élocution. Et puisque aucune date de clôture n'est réellement nécessaire dans un processus de décision asynchrone, les procédures de discussion peuvent alors elles-mêmes être rediscutées comme cela se passe parfois dans les projets Wikimédia, de manière à débattre dans les meilleures conditions possibles.
Alors que la pandémie aura rendu plus poreuse que jamais la frontière qui sépare les activités en-ligne et hors-ligne perpétuées au sein du mouvement, un dernier avantage dont on peut créditer le passage de rencontres en présentielles vers des assemblées connectées, est celui de réduire considérablement leur coût financier et écologique. C'est là en tout cas une affirmation non contestable si l'on s'en réfère à la rencontre Wikimania 2020 initialement prévue à Bangkok, mais qui fut reportée suite à la pandémie, pour finalement s'organiser de manière virtuelle en 2021[S 116]. De cette situation découla donc une économie substantielle de moyens financiers habituellement octroyés sous forme de bourses de participation, mais aussi une absence de pollution liée aux nécessités de transports en avion sur de longues distances.
Malheureusement, le support informatique commercial et propriétaire sur lequel fut organisé l’événement, et qui fut couplé à des rediffusions en direct via la plate-forme YouTube, ne faisait pas preuve d'interopérabilité avec les systèmes d'exploitation GNU-Linux. En tant que libriste invétéré ayant stoppé définitivement tout usage de logiciels propriétaires, je me suis donc retrouvé interdit d'expression orale au cours de tout l’évènement. Cela me projeta ainsi dans une situation très inconfortable et une sensation d'exclusion toute logique, puisque au niveau graphique, je voyais ou entendais des connaissances parler entre elles de sujets très intéressants, mais sans que je puisse intervenir dans leurs discussions. Heureusement pour tous, la seule intervention qui avait été retenue parmi mes propositions avait été enregistrée à l'avance pour être transmise aux participants en dehors du timing général de la conférence[S 117].
Un an plus tard, ce fut dans le cadre d'une rencontre organisée pour célébrer les quinze ans du projet Wikiversité en français que des problèmes de communication sont à nouveau apparus[S 118]. Nous nous sommes retrouvés à devoir choisir entre plusieurs outils de communication dont celui mis en avant sur l'une des pages du projet[S 119], mais qui me rebute par le fait qu'il nécessite la création d'un compte pour utiliser un service commercial. Après de nombreux échanges de points de vue, nous n'avons finalement jamais réussi à nous connecter tous en même temps au même endroit. Un nouveau témoignage donc qui avant de nous intéresser aux aspects écologiques de la technologie Wikimédia, semble indiquer que l'usage standardisé d'outils de communication audiovisuels en interne du mouvement serait une chose intéressante à développer.
Écologie numérique et désintérêt du support papier
[modifier | modifier le wikicode]Si le mouvement Wikimédia est indéniablement une manifestation sociale qui s'inscrit clairement dans une économie collaborative, on ne peut pas pour autant dire qu'elle s'inscrit dans le courant de l'économie circulaire. En ayant choisi la voie du numérique pour assumer sa mission de libre partage du savoir, le mouvement est effectivement directement concerné par les nombreuses questions que soulève l'usage non recyclable de ressource abiotiques rares dans le développement de l’infrastructure informatique mondiale. Une infrastructure qui, rappelons-le, consomme énormément d'énergie, tant dans son fonctionnement que dans sa fabrication extractiviste[B 17], et qui, en fin de vie représente des tonnes de déchets. On les appelle les E-waste[B 18] en anglais, et ils sont tellement peu recyclables qu'on préfère les envoyer à l'autre bout du monde, comme la décharge d'Agbobloshie que j'ai eu l'occasion de visiter lors de mon voyage exploratoire au Ghana (vidéo 6.5).
Parmi tous les métaux rares utilisés dans la construction de matériel informatique, à l’exception de l'or, du cuivre et de l'argent, qui peuvent être recyclés à 50 %, tous les autres métaux, indium, galium, germanium, lithium, tantales et autres terres rares, ne le sont pas. Ou pour le dire plus précisément, ils le sont à moins de 1 %[B 19] en raison d'un coût de recyclage beaucoup trop élevé alors qu'il ne permet pas d'atteindre un retour vers une pureté suffisante pour prétendre à une réutilisation dans le secteur informatique[S 120]. Ceci tout en sachant que l'extraction des terres rares est un processus extrêmement polluant qui empoisonne les populations voisines[B 20] et génère de nombreux troubles sociopolitiques et des conflits armés[B 21].
Quant à la question de l'énergie consommée par le numérique, elle est parfois perçue comme un « grand gâchis », car elle représentait en 2018 entre 6 à 10 % de la consommation d'électricité mondiale et 4 % des émissions de gaz à effet de serre, avec une tendance nettement à la hausse[M 37]. Tout ceci finalement pour contenter des consommateurs en surcharge informationnelle, ou atteints d'infobésité comme d'autres préfèrent le dire[S 121]. En réalité, le dossier des impacts environnementaux du numérique est tellement dense et complexe qu'il a fait l'objet d'une formation en ligne et ouverte, organisée par le groupement de service CNRS Ecoinfo[S 122] qui contient énormément d'information qu'il faudrait situer par rapport au mouvement Wikimédia.
Sans pouvoir en faire le tour, je commencerais toutefois par dire qu'il serait injuste de considérer l'écosystème informationnel Wikimédia comme un facteur d'infobésité, alors qu'il m’apparaît plutôt comme un remède. Les projets Wikimédia sont en effet des lieux de synthèse ou de production du savoir et de l'information qui précisément contrastent fortement avec la disparité informationnelle rencontrée sur les réseaux sociaux, mais aussi dans tout le système médiatique en général. Un projet tel que Wikipédia, qui fut déjà qualifié d'« encyclopédie médiatique »[B 22], est par exemple une bonne manière de consulter une synthèse de l'actualité, dans un endroit reconnu par Conspiracy Watch comme un « îlot de rationalité dans un océan de rumeurs »[M 38] grâce à certaines de ses « vertus épistémiques »[B 23]. Ceci alors qu'un ami informaticien me confia un jour que pour tout ce qui concerne son activité, il allait directement sur Wikipédia en anglais plutôt que d'utiliser un moteur de recherche.
Reste la question de l'empreinte écologique de toute l'infrastructure informatique utilisée par le mouvement Wikimédia et de sa consommation en énergie. Là aussi, les choses se discutent avant même que l'on puisse les comparer avec d'autres acteurs présents sur le Web. Car il est important de distinguer la pollution et la consommation d'énergie imputées aux appareils qui reçoivent le flux d'information en provenance des projets Wikimédia, les serveurs qui envoient cette information, et le réseau qui les transporte. Le mouvement ne pourrait en effet être tenu responsable de ce qui se passe en dehors de sa propre sphère d'influence et donc en dehors des serveurs informatiques gérés par la Fondation.
Or, d'un point de vue global, les datas centers ne sont responsables que de 30 % de la consommation en électricité de l'écosystème numérique contre 40 % au niveau du réseau et 30 % au niveau des différents types d'appareils personnels[B 24]. Ceci alors que les serveurs informatiques sont composés de machines très performantes, utilisées dans des conditions optimales et qui ne possèdent ni écran, ni composants spécifiques à la communication par les ondes. Autant de facteurs qui limiteront l'usage de terres rares pour leur fabrication et d’électricité pour leur fonctionnement, car il faut en effet garder à l'esprit que le transfert d'informations via la 4 ou 5 G est plus énergivore que le réseau Wi-Fi, qui lui-même consomme plus que le réseau câblé.
On doit ensuite considérer le fait que le contenu des projets Wikimédia est essentiellement textuel, parfois illustré mais très rarement pas de la vidéo, ceci alors que « la vidéo en ligne représente de 60 à 90 % du trafic Internet d'un pays »[B 25]. Il serait donc injuste en matière d'écologie de pointer du doigt le mouvement Wikimédia sans s'intéresser auparavant à ce qui se passe du côté de Netflix ou YouTube, deux entreprises cataloguées en 2021 d' « usine à CO2 ». Alors que les six milliards d'heures de visionnage des 10 meilleurs programmes de Netflix égalent la pollution équivalente de 1.8 milliard de km en voiture[M 39], en 2019 déjà, 37 % du trafic mondial de l'Internet mobile, la partie la plus polluante de l'écosystème numérique, était consacré à YouTube[M 40].
En réalité, non seulement l'empreinte écologique de l'activité numérique du mouvement est insignifiante par rapport à de nombreuses entreprises actives dans le secteur, mais en plus, l’empreinte carbone de ses serveurs informatiques se sera avérée en 2019[S 123], inférieure aux voyages professionnels des employés de la Fondation. Une tendance qui se sera toutefois inversée en 2020, suite à la pandémie de COVID-19. L'empreinte carbone de tous les trajets en avions financés par la Fondation, staff et communauté confondus, représentait une part de 38 % du total, et la production de carbone due aux consommations d’électricité 56 %. Pour les années à venir, une réduction effective de la production de CO2 lié au fonctionnement des serveurs est aussi au programme, dans le respect d'une initiative de durabilité dans laquelle s'est engagée la Fondation. Celle-ci vise à utiliser une énergie plus propre pour les serveurs, augmenter la participation à distance, et investir les fonds du mouvement dans le développement durable[S 124].
Suite à tout ce qui vient d'être dit, il semble donc difficile de faire des reproches au mouvement Wikimédia en matière d'écologie. Et pourtant, j'aimerais maintenant attirer l'attention sur un fait que je trouve regrettable. Il concerne l'arrêt de la maintenance de l'outil de création de livres qui me semblait pourtant très pratique pour rassembler dans un seul document une compilation de contenus en provenance d'un projet pédagogique. On peut comprendre, il est vrai, que les navigateurs web peuvent aujourd'hui très bien faire le travail d'exportation d'une page Web pour en permettre l'impression, et que cela aura motivé l'apparition de ce message au sein des projets : « La version imprimable n’est plus prise en charge et peut comporter des erreurs de génération. Veuillez mettre à jour les signets de votre navigateur et utiliser à la place la fonction d’impression par défaut de celui-ci. »[S 125].
Mais ce qui est moins compréhensible en revanche, c'est qu'en date du 12 mars 2021 cet autre message apparaissait aussi : « Le créateur de livres est en cours de modification. Du fait de graves problèmes avec notre système actuel, le Créateur de livres ne prendra désormais plus en charge l’enregistrement d'un livre en PDF. »[S 126] et que sur la documentation technique, on apprend que « en ce qui concerne les livres, nous avons laissé le sujet entre les mains de développeurs volontaires de PediaPress. Nous serons heureux de leur faire parvenir vos questions, mais nous n'envisageons pas d'évolution dans le sens technique. »[S 127]
En se délestant de l'outil de création de livre pour le remettre entre les mains d'une entreprise commerciale et à des hasardeux contributeurs bénévoles, la Fondation Wikimédia affiche donc son désintérêt envers le partage de la connaissance en dehors de l'espace numérique. Face aux nombreuses familles dans le monde qui se voient incapables d'acheter ne fusse qu'un smartphone bon marché et le crédit nécessaire pour pouvoir accéder au réseau Internet mobile, une telle attitude semble ainsi contraire à la mission de partage défendue par le mouvement. De plus, cet abandon me semble aussi contraire à cette résolution d'inclusion culturelle et géographique tel qu'elle fut stipulée par la stratégie 2030 et adoptée par le mouvement, tout en étant contraire à l'initiative de durabilité dont il vient d'être question précédemment.
Certaines personnes ou groupes de personnes, faute d'un accès à Internet, pourrait effectivement rassembler l'argent nécessaire à l'impression papier d'un ensemble de pages en provenance des sites Wikimédia dans le but de les rapporter au village et d'en faire profiter la communauté. Dans un tel cas de figure, le créateur de livre était donc l'outil de compilation idéal qui permettait d'aboutir à un livre en format ODF ou PDF qu'il est alors très facile d'imprimer. Utiliser cet outil au sein d'un Internet café permettait ainsi de repartir avec un livre thématique en provenance de Wikipédia, un dictionnaire personnalisé issu du Wiktionnaire, un manuel scolaire produit sur Wikilivres ou Wikiversité, etc. Sans oublier que malgré l'apparition des tablettes, liseuses et autres supports de lecture numérique, le support papier garde toujours de nombreux avantages qui lui aura valu de persister jusqu'à ce jour.
Je m'y suis d'ailleurs vu confronté par rapport à ma thèse de doctorat que j'avais pourtant bien eu envie de partager avec mon jury uniquement en transmettant la simple URL de sa page principale sur Wikiversité. Les demandes de certains membres de mon jury de pouvoir disposer du document sur un support en papier plutôt que sur un écran, m'ont alors rappelé que cela pouvait être plus confortable pour les yeux, tandis que cela permettait d'en faire la lecture à n'importe quel l'endroit où l'on se trouve, tout en pouvant, de plus, y apporter des annotations à main levée. Ensuite, la répartition des informations par pages numérotées, permet aussi de mieux structurer spatialement l'information, tandis que l'absence d'hyperliens facilite grandement la concentration sur la trame narrative, sans risquer d'en perdre le fil conducteur.
Pour satisfaire les membres de mon jury ainsi que l'administration de mon université, j'ai donc dû refaire tout un travail de mise en page en raison de la disparition du système de compilation de livre mais aussi du mauvais rendu des PDF produits par les sites Wikimédia au niveau de l'impression. Avec ce témoignage, j'attire l'attention sur le fait que si l'on veut séduire le public des enseignants et étudiants pour qu'ils rejoignent les communautés d'éditeurs, il faudrait donc aussi penser à répondre à leurs besoins. Ceci sans oublier qu'au sein des projets Wikimédia il existe Wikisource, Wikilivres et Wikiversité qui sont tous les trois des projets dont le but est de produire et partager des livres ou des manuels et qu'en ce sens, il serait donc insensé de ne pas en faciliter leurs impressions.
Dans le cadre d'une autre anecdote personnelle concernant la pérennité du support informatique cette fois, je me suis vu aussi vu confronté en 2015, à toutes les difficultés du monde pour lire une disquette sur laquelle j'avais sauvegardé un travail de recherche ethnobotanique réalisée 1993 dans la préfecture de Kissidougou en Guniée Konakry[M 41]. Il me fallut d'abord retrouver un lecteur de disquette absent dans les magasins d'informatique, pour ensuite avoir la surprise de découvrir que le logiciel Ragtime installé sur un ordinateur Macintosh Classic II que l'on m'avait prêté pour rédiger mes travaux, avait lui aussi disparu et qu'il ne m'était donc plus possible de lire les fichiers en.rag sauvegardé sur ma disquette, y compris avec un autre ordinateur de la marque Appel. Finalement et de manière presque accidentelle, j'ai quand même réussi à récupérer 80 % du texte au format brut de mon travail, grâce à un éditeur de texte généralement utilisé pour modifier des fichiers de configuration. Suite à quoi, j'ai alors pu repartir du seul exemplaire imprimé de mon travail, que j'avais eu la présence d'esprit de garder quelque part, pour pouvoir retrouver les morceaux de texte manquants de la mise en page du document.
Tout ce travail fut loin d'être inutile, puisque près de sept ans après sa publication sur Wikiversité, il fut déjà visité près de 4 000 fois[S 128]. Ensuite, je pourrais me dire que maintenant qu'il est sur le Web, il est sauvegardé à tout jamais. Mais ce serait alors oublier qu'un incendie au niveau des serveurs de la Fondation peut toujours arriver. Et je suis bien placé pour le savoir puisque, au même titre que 3,6 millions de site Web, ma boite de courrier électronique fut momentanément inaccessible suite à l'incendie qui aura dévasté le data center de la société OVH situé à Strasbourg. Pour la cinquantaine d'entreprises qui ont porté plainte contre l'hébergeur, les pertes de données furent malheureusement irréversibles[M 42]. C'est alors là que l'on se rend compte aussi de l'importance de décentraliser l'infrastructure Internet.
Les dangers d'une infrastructure numérique centralisée
[modifier | modifier le wikicode]On entend souvent dire qu'Internet est dominé par les géants du Web que l'on regroupe du côté américain sous l'acronyme GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ou NATU (Netflix, Airbnb, Tesla et Uber) et du côté chinois sous celui de BATX (Baidu, Alibaba, Tencent et Xiaom). Et il est vrai qu'en juin 2017, Facebook comprenait déjà plus de deux milliards d'utilisateurs[M 43], soit plus d'un quart de la population mondiale dont les relations au travers du site se trouvent finalement confiées à la régulation d'une entreprise commerciale privée. Une entreprise qui de plus a pour directeur un jeune homme devenu le cinquième homme le plus riche de la planète en moins de 12 ans, jusqu'à posséder à ce jour un pouvoir « sans précédent »[M 44]. Dans un tel contexte, on est donc en droit de se demander : « Que reste-t-il des utopies numériques »[B 26], de ses vœux de liberté, d'autonomie, de décentralisation et autres ?
Car il faut bien comprendre que les bénéfices engrangés par toutes ces firmes qui proposent des services gratuits, reposent d'une part sur la vente d'un accès à la publicité au sein de l'espace numérique qu'elles contrôlent, mais aussi d'autre part grâce à l'exploitation des données fournies par leurs utilisateurs. Sans en prendre conscience, ceux-ci se transforment en effet en producteurs de richesse, grâce au travail numérique qu'ils réalisent. La seule rétribution implicite à ce travail est finalement l'accès gratuit aux services numériques. Sauf que dans une relecture marxiste de la situation, ces services sont en fait les outils de production des entreprises au départ desquels elles exploitent gratuitement une force de travail sans même devoir instituer une situation d'aliénation. De là, apparait une nouvelle sorte de capitalisme que certains appellent « capitalisme de surveillance » et qui repose cette fois sur l'exploitation du « nouvel or noir »[M 45], que constituent les informations que produisent les internautes.
Toutes les données et métadonnées informatiques produites et offertes par les utilisateurs de ces services, à savoir les identités, les coordonnées, les comportements sociaux, les réseaux d'amitiés, mais aussi toutes les photos, vidéos, enregistrements sonores et textes qui sont autant de produits attractifs permettant au système de fonctionner, sont alors directement traitées pour établir des analyses statistiques menées parfois en temps réel. De la même manière que dans l'écosystème Wikimédia, mais avec cette fois des moyens colossaux, un tel dispositif permet alors de nourrir un Big Data jalousement gardé dans le but d'être exploité à des fins commerciales. Pour ce faire, toutes les informations récoltées sont traitées par des algorithmes divers, pour offrir des indications précises pour la mise en place d'un marketing particulièrement ciblé et pour établir des stratégies de communication extrêmement efficaces et paramétrables à un niveau planétaire. Autant de choses donc qui expliquent pourquoi ce marché est très fréquenté par les personnes et sociétés les plus riches de la planète, soucieuses de poursuivre leurs enrichissements personnels ou d'accentuer leurs pouvoirs politiques.
Pour expliquer le succès de ce phénomène, un auteur tel que Clayton M. Christensen parle d' « innovator's Dilemma »[B 27] que l'on peut traduire en français par technologie de rupture. Adopté depuis longtemps par Google[B 28], Facebook[M 46] et sans doute une grande majorité des entreprises numériques commerciales, celui-ci propose l'innovation comme leitmotiv dans la lutte pour l'acquisition de parts de marché numérique. À ce principe d'innovation s'ajoutent alors d'autres effets favorables tels qu'une communauté de départ propice à la valorisation d'un nouveau produit, ainsi qu'une couverture médiatique croissante qui finalement permettra d'établir un effet de réseau dès que le nombre d'utilisateurs d'un produit dépassera suffisamment celui des autres produits similaires. Ce qui s'explique facilement par le fait que la majorité des membres des autres communautés finissent par la rejoindre pour des raisons évidentes d'efficacité produite par une interaction avec le plus grand nombre.
Mais au delà du système d'adhésion, on peut aussi se questionner sur le fait que les grandes sociétés numériques occidentales, qui sont pour la plupart des sociétés à tendance monopolistique dans leurs domaines, sont toutes situées aux États-Unis. Ce qui implique donc qu'elles sont soumises à des pressions politiques, juridiques, voire financières, en provenance d'un État qui bénéficie déjà d'autre situation hégémonique dans le domaine de l'armement par exemple. Avec des lois telle que le USA PATRIOT Act votée le 26 octobre 2001, pour renforcer le Foreign Intelligence Surveillance Act suite aux attentats du 11 septembre 2001, les autorités américaines ont donc un accès potentiel aux données informatiques détenues par toutes ces entreprises, sans autorisation préalable et sans en informer les utilisateurs[S 129].
Au final, l'accaparement de l'espace Web par un nombre restreint d'acteurs commerciaux basés aux États-Unis posera donc les problèmes suivants :
- Un renforcement de l'influence des plus riches (personnes ou sociétés) sur le reste du monde.
- Une concentration des capitaux et d'actions dans un seul état du monde.
- Un renforcement d'une puissance étatique en matière de surveillance des activités numériques humaines.
- Une majoration du risque lors de cyberattaques.
Or, il serait injuste de passer sous silence que (1) la Fondation Wikimédia gère une partie du Web située au niveau mondial et en 2018, en cinquième place du classement des fréquentations, tout en bénéficiant de près de 72.9% du trafic en provenance des moteurs de recherche[S 130]. (2) Les projets qu'elle héberge sont écrits par les populations les plus riches du monde économiquement parlant. (3) Que celle-ci récolte la plus grande partie des capitaux financiers offerts au mouvement et héberge la presque totalité des sites Web Wikimédia. (4) Qu'elle a, elle aussi, son siège social aux États-Unis. (5) Que les serveurs de la Fondation qui ont été victimes d'une importante cyberattaque en 2019[M 47], qui permit à certains de dire que les serveurs de la Fondation semblent « plus faciles à atteindre sans utiliser des moyens démesurés »[M 48]. Autant d’arguments donc, qui permettent de situer la Fondation Wikimédia dans la liste des géants du Web auxquels on peut reprocher d'avoir participé jusqu'à présent à une certaine forme de centralisation.
Bien sûr, au niveau des enjeux économiques la Fondation ne pourrait être comparée aux grandes entreprises commerciales du Web. Car bien que son impressionnant développement repose sur le travail bénévole de millions d'utilisateurs, aucun de ses bénéfices financiers ne provient de la vente d'espace publicitaire ou de données produites par ceux-ci. Il est vrai aussi que si la Fondation monopolise la gestion des ressources financières offertes au mouvement, cela se fait en partie dans le cadre de comités qui regroupent de nombreux membres de la communauté bénévole. Mais il n'en reste pas moins vrai que beaucoup de choses gravitent autour de la Fondation que l'on pourrait même qualifier de capitaliste selon le sens premier du terme qui désignait une entité possédant un capital. Car au-delà de son capital financier déjà présenté, c'est aussi 160 noms de domaines[S 131] et 16 noms de marques[S 132] qui sont en sa possession.
Tout ceci pour dire que le mouvement Wikimédia au travers de la Fondation Wikimédia, doit aussi se sentir concerné par les craintes et regrets de Tim Berners-Lee, lorsqu'il implore la re-décentralisation[M 49] de l'espace qu'il a créé. Rappelons-nous à ce titre que le créateur du Web, s'exprimait en 1995 en disant :
J’ai fait (et je continue à faire) le rêve que le web devienne moins une nouvelle chaîne de télévision qu’un vaste océan interactif de savoirs partagés. Je nous imagine ainsi immergés dans un environnement chaleureux, amical, composé de toutes les choses que nous et nos amis aurions vues, entendues, crues et comprises.[B 29]
Sauf que pour Robert Cailliau, son collègue et le cofondateur du World Wide Web, Wikipédia n'est que la concrétisation partielle de cet idéal :
« On concerte tout le temps sur le même serveur, dans le même contexte. Il faudrait sortir de ce modèle et trouver le moyen de distribuer à travers tout Internet l'indexation des connaissances plutôt que de les centraliser. Mais aujourd'hui, rien de tout ça n'existe encore. »[B 30].
Un avis que renforcera Edgar Enyedy, la figure de proue du premier mouvement dissident de l'encyclopédie libre, lorsqu'il dit dans une interview faite par Nathaniel Tkacz :
Wikipédia nous a conduit à un Internet d'information verbatim. Avant, il y avait beaucoup de sources différentes, mais aujourd'hui, l'information que vous obtenez est une copie carbone sur tout le net. Il n'y a pas assez de filtres. De nombreuses pages ne font que diffuser les textes de Wikipédia, y compris ses droits et ses torts, mais sans ses avertissements[T 2][M 50].
Ceci alors que pour d'autres personnes telle que Larry Sanger, le cofondateur de Wikipédia, la centralisation des informations apporte son lot de problèmes puisque :
Tout le monde sait maintenant que Wikipédia a beaucoup d'influence dans le monde. Il y a donc un jeu très gros, dangereux et complexe qui se joue en coulisse pour faire dire aux articles ce que quelqu'un veut qu'ils disent...[T 3][V 7]
Ce qu'il complète en disant :
Wikipédia autorise les contributions anonymes. Et cela signifie que, parce que c'est l'une des sources d'information en ligne les plus populaires, il y a une incitation naturelle pour les gouvernements, les entreprises et les opérations criminelles à apprendre à jouer le jeu de Wikipédia. Je ne comprends pas comment cela fonctionne réellement. Mais ce qui en résulte, c'est que les points de vue de l'establishment sont ceux que vous trouvez poussés en avant, alors qu'ils ont complètement abandonné le point de vue neutre.[T 4][V 8]
À ce stade de réflexion, il apparait donc difficile de trouver globalement un juste équilibre entre infobésité et centralisation de l'information sur des plate-formes de types Wikipédia. Et je ne me risquerais pas à énoncer une quelconque recommandation à ce sujet. En revanche, je pense que la question de la centralisation du Web touche aussi directement la question du travail. Car celle-ci permit de mettre des pratiques d'exploitations inédites par le travail invisible dont il nous faut encore parler dans le but de clarifier la position de Wikimédia et ceci juste avant de revenir sur la notion de volontariat qui me semble être un concept clef dans l'analyse du mouvement.
Un nouvel appel à sortir des logiques du marché et de l'emploi
[modifier | modifier le wikicode]Antonio Casilli a mis en évidence l’existence d'un travail numérique « invisible »[M 51] volé durant « des millions d'heures »[M 52] aux utilisateurs de plateformes commerciales qui profitent de chaque fait et geste numérique pour enrichir leurs bases de données et entrainer leurs algorithmes[B 31]. Alors qu'il s'agit ici de générer un « comportement addictif des utilisateurs, en déplaçant inconsciemment la charge de leurs responsabilités vers la désirabilité de "ce que les gens veulent" »[T 5][M 53], nous avons vu qu'au niveau de Wikimédia, tout d'abord, rien n'est invisible, et qu'ensuite, la volonté de chacun est fortement bridée par la volonté d'autrui.
Il existe ensuite cette croyance selon laquelle le professionnel sera toujours plus compétent que le bénévole[B 32] et que sa présence est dès lors d'autant plus souhaitée quand on fait face à un environnement complexe. Avec comme corollaire à ceci que tout organisme confronté à cette complexité doit donc garantir certaines recettes budgétaires pour pouvoir fonctionner, puisqu'il faut bien payer les salaires, au risque d'engendrer certaines dérives de la mission initiale d'une organisation. Cependant, au niveau des projets Wikimédia, il se fait que la complexité, telle qu'elle fut mise en évidence précédemment, n'est pas gérée par les employés du mouvement puisqu'ils n'interviennent que très rarement au sein des projets et toujours sur demande dans le cadre de la modification des modèles et modules accessibles aux éditeurs bénévoles et gérés par ceux-ci.
En réalité, le travail des salariés consiste essentiellement à gérer l'espace numérique du côté serveur en modifiant et configurant le logiciel MediaWiki sur lequel reposent tous les projets éditoriaux. Une mission un peu comparable à celle du projet Debian qui pour sa part fonctionne entièrement avec des bénévoles[S 133], alors que son objectif est de produire et de maintenir, non pas un seul logiciel, mais toute la distribution de logiciels nécessaires au fonctionnement d'un système d'exploitation GNU/Linux reconnu parmi les plus fiables. Tellement fiable d'ailleurs, qu'il sert de base à près d'une centaine de distributions dérivées, dont Ubuntu l'une des plus connues qui est développée par Canonical. Une société en commandite par actions qui elle pour sa part et curieusement possède plus 600 employés dans plus de trente pays du monde.
L'idée qu'il serait préférable de compter sur les travailleurs salariés pour gérer l'espace numérique Wikimédia se voit aussi décrédibilisée par l'expérience de Jack who built the house. Ce Wikimédien d'origine russe a en effet développé du côté client, en JavaSript et de manière tout à fait bénévole, un outil de discussion intitulé Convenient Discussions[S 134] qui transforme complètement l'expérience utilisateur en matière de communication. Lors d'une discussion tenue dans l'espace forum principal du projet Wikiversité intitulé la salle café[S 135], ce programmeur me racontait ceci :
J'ai commencé mon script fin 2017, alors qu'il n'y avait que Flow et que beaucoup de gens ne l'aimaient pas. La Fondation a vu aussi que cette approche ne décolle pas, et ils ont déjà vu mon script quand ils ont commencé à développer le leur, donc ils ont utilisé le même principe que celui utilisé dans celui-ci. Comme Psychoslave l'a correctement souligné, leur outil (DiscussionTools) a l'avantage d'être une extension écrite en grande partie en PHP, ce qui permet une meilleure intégration avec MediaWiki (par exemple, WMF travaille actuellement sur les notifications de section intégrées à l'extension Echo). DiscussionTools adopte également une approche plus orientée vers les novices en ajoutant des conseils dont un utilisateur expérimenté n'a pas besoin, ce qui est compréhensible, et fait également (pour l'instant) mieux en matière d'accessibilité.[T 6]
Comme nous l'avons vu précédemment Flow avait effectivement été un réel fiasco à tel point qu'il fut interdit d'installation sur le site Meta-Wiki. Pourtant, ce projet avait demandé beaucoup de travail à toute une équipe engagée par la Fondation avant d'être finalement abandonné[M 54]. Par la suite, et comme en témoigne le développeur bénévole de Convenient Discussions, ce fut donc son travail bénévole qui servit d'inspiration aux employés de la Fondation pour développer une batterie de nouveaux outils, côté serveur cette fois, pour faciliter les discussions au sein des projets. Le témoignage de Jack nous fait donc revenir sur ce stéréotype selon lequel les volontaires sont forcément plus incompétents que les professionnels[B 32] et nous invite aussi à nous pencher de nouveau sur la question de la motivation. Voici pourquoi j'ai demandé à Jack s’il était payé pour le travail qu'il réalise et quelles étaient ses motivations à le faire. Je lui ai ensuite demandé, au cas où il n'était pas payé, comment il faisait pour s'en sortir financièrement. Alors qu'il préférait répondre par courriel à cette deuxième question pour des raisons de confidentialité que je respecte ici, sa réponse publique[S 135] concernant sa motivation fut celle-ci :
Non, je ne suis pas payé. Pour ce qui est de la motivation personnelle, je suis heureux de pouvoir évoluer professionnellement tout en faisant un travail auquel j'attribue subjectivement une grande valeur. Être payé, en règle générale, implique certaines obligations auxquelles vous ne pouvez pas échapper, alors que dans ma position, je suis libre de faire (ou de ne pas faire) les choses comme je l'entends, lié uniquement par l'opinion de la communauté qui n'est pas susceptible de m'imposer de lourdes charges en tant que bénévole (en plus de la charge que je m'impose de maintenir l'outil, bien sûr, ce qui est prévu).[T 7]
Ces observations nous indiquent donc que le travail d'un bénévole peut parfois être plus efficace que celui de toute une équipe de salariés. Il nous permet ensuite de comprendre que le bénévole accorde d'autant plus de valeur à son travail qu'il n'est pas rémunéré pour le faire, et que sa motivation sera d'autant plus grande qu'il se sentira libre de faire les choses comme il l'entend et selon un programme que l'on choisit soi-même. Or, si l'on se souvient que près de 50 % des employés hollandais et anglais interrogés, suite à la publication de l'article de David Graeber au sujet des Bullshit jobs[M 55], considéraient comme inutile leurs occupations professionnelles, on peut donc accorder au volontariat certaines garanties auxquelles ne pourrait prétendre le monde de l'emploi. Et c'est là une chose qui se voit confirmée cette fois, par une directrice des ressources communautaires de la Fondation au moment de sa démission. Dans un mail envoyé au mouvement en février 2016[M 56], durant la crise provoquée par l'agenda caché du knowledge engine déjà présentée en première section de ce chapitre, elle nous livre ce nouveau témoignage :
La transparence, l'intégrité, la communauté et la connaissance libre restent profondément importantes pour moi, et je crois qu'en ce moment, je serai mieux placée pour défendre ces valeurs en étant bénévole. Je suis et resterai toujours une Wikimédienne, vous me verrez donc toujours active autour des projets (User:Seeeko), avec, je l'espère, une énergie et une joie renouvelées dans le bénévolat[T 8].
Ceci alors que onze jours plus tard, un analyste de données engagé par la Fondation déposait un message d'adieu[M 57] dont voici un extrait :
Après 12 mois de stress continu, de pertes et de peur au travail, je ne souhaite plus travailler pour la Wikimedia Foundation. Bien que je comprenne que le conseil d'administration puisse prendre des mesures pour rectifier la situation, je n'ai aucune confiance dans leur capacité à le faire efficacement étant donné leur incapacité à résoudre le problème avant l'apparition de plaintes au niveau du personnel. Je souhaite au mouvement et à la communauté la meilleure des chances dans la construction d'une structure de gouvernance plus juste, plus transparente et plus représentative[T 9].
Suite à ces nouvelles paroles, on comprend donc que l'idée reçue selon laquelle le travail rémunéré dit « professionnel » devrait toujours être préférable au travail dit « amateur » réalisé par des bénévoles ne tient plus la route. Dans le cadre de mes observations du mouvement Wikimédia, toutes les questions ou demandes que j'ai eu l'occasion d'adresser aux bénévoles ont d'ailleurs été traitées rapidement et efficacement, alors que cela ne fut pas toujours le cas lorsque je me suis adressée aux employés du mouvement.
Rappelons-nous déjà le retard de mes remboursements au départ de la France signalés dans le chapitre précédent, ainsi que l’oubli d'un financement accordé par la Suisse. Ajoutons ensuite à ceci, et en ce limitant ici uniquement à ce que le lecteur pourra vérifier de lui-même, des questions concernant les rapports financiers de la Fondation restées sans réponses[S 136][S 137] tout comme d'autres adressées au service financier[S 138].
Dans le mouvement Wikimédia où rappelons-le, la gestion des subventions, des courriels, du conseil d'administration et bien sûr du contenu des sites et des conflits entre utilisateurs est assurée par des bénévoles, la présence d'employés doit donc être vue comme quelque chose de tout à fait secondaire. Et c'est là, avec le projet Debian, la preuve empirique que le marché de l'emploi ne doit pas être vu, ni comme une organisation sociale souhaitable, ni comme une nécessité incontournable dans le but d'atteindre une certaine efficience, au niveau technologique par exemple.
Tout au contraire, on peut voir dans la liberté et les motivations qu'offre le volontariat, une garantie de transparence, d’intégrité, de représentativité et même une barrière à toute forme d'asservissement que peuvent connaître les professionnels et particulièrement lorsque ceux-ci travaillent dans le domaine de la technologie. Car n'oublions pas qu'en Chine comme ailleurs, la machine est devenue seigneur et maître de millions d'êtres humains[B 33] et que cela représente un problème qui devrait faire réfléchir le mouvement Wikimédia lorsque celui-ci ajoute encore un peu plus de pression sur les travailleurs de l'industrie des du hardware numérique mondiale en faisant le choix du 100 % Internet.
L'asservissement de l'être humain par le travail et la machine est un processus en plein expansion qui, une fois de plus, n'est qu'un produit de l'imagination humaine appliquée cette fois à un marché du travail qui en vient à dénaturaliser les êtres humains jusqu'à atteindre des situations d'asservissements complètement immorales. Dans l'imaginaire du travail ou l'être humain devient un chose reprise parmi les moyens de production, il est en plus légitime, au nom du marché, de plus fabriquer des armes, martyriser des êtres vivants y compris des humains, polluer l'environnement, exploiter les sources naturelles jusqu'à en perturber l'équilibre planétaire, et détruire la diversité biologique, ou pour le dire en un mot, nuire à tout ce qui est important pour la survie de l'être humain. Autant de choses qui sont précisément proscrites par la loi lorsqu'elles se font sur base d'un simple désir personnel et donc précisément, dans le cadre d'un acte volontaire et bénévole.
Tout ceci revient donc à dire, de nouveau, que toutes les activités humaines doivent se voir extraites de toute forme de marchandisation et qu'elles ne devraient jamais répondre à de quelconques nécessités techniques qui souvent prennent le dessus sur des considérations morales de premières importances. Au nom du respect de la nature humaine, c'est d'autodétermination, de participation volontaire, de bénévolat et de responsabilité morale dont il faut parler, et pas de marché ou d'impératif technologique. Autant de démarches qui ne sont plus du ressort du marché ou de la technologie a proprement parlé, mais bien de la politique au sens philosophique du terme. À savoir celui de faire collectivement des choix moraux, au nom du vivre ensemble.
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « S », mais aucune balise <references group="S"/>
correspondante n’a été trouvée
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « N », mais aucune balise <references group="N"/>
correspondante n’a été trouvée
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « B », mais aucune balise <references group="B"/>
correspondante n’a été trouvée
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « M », mais aucune balise <references group="M"/>
correspondante n’a été trouvée
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « T », mais aucune balise <references group="T"/>
correspondante n’a été trouvée
Erreur de référence : Des balises <ref>
existent pour un groupe nommé « V », mais aucune balise <references group="V"/>
correspondante n’a été trouvée