L’actualité récente nous invite à republier avec son accord l’article de Kazhnuz sur son blog (il est sous licence CC BY-SA 4.0) qui souligne un point assez peu observé de la stratégie d’Elon Musk : elle n’est guère innovante et ne vise qu’à ajouter un X aux GAFAM pour capter une base utilisateur à des fins mercantiles…
par Kazhnuz
L’annonce a été faite le 23 juillet, Twitter va être remplacé par X, le « rêve » de Musk de créer l’app-à-tout-faire à la WeChat en Chine. Le logo va être changé, et la marque Twitter va être abandonnée au profit de celle de X, et le domaine x.com redirige déjà vers Twitter. Le nom a déjà été utilisé jadis par Musk pour sa banque en ligne (qui après moult péripéties deviendra Paypal, justement parce que le nom est nul et pose des tonnes de soucis – ressembler à un nom de site X justement), et cette fois comme y’a personne pour lui dire « stop mec ton idée pue », il le fait.
Cependant, je pense qu’il y a quelques trucs intéressants à dire sur la situation, parce qu’au final, plus qu’une « lubie de Musk », il y a dedans quelque chose qui informe de la transformation faite de twitter, et de la façon dont Musk fait juste partie d’un mouvement fortement présent dans la Silicon Valley.
Je pense qu’il ne faut pas voir ce changement de nom comme quelque chose de si surprenant, imprévisible, parce que c’est jouer le jeu de Musk de croire qu’il est l’électron libre qu’il prétend être. Parce que même s’il va plus loin en changeant carrément la marque du produit, Musk ne fait (encore une fois) que copier-coller un comportement déjà présent dans le milieu de la tech.
Parce qu’au final, Twitter appartenant et devenant X Corp, c’est comme Facebook qui devient Meta Plateform, ou Google qui devient Alphabet Inc. Un changement en grande partie pour tenter de forger la « hype », l’idée que le site fait partie de quelque chose de plus grand, du futur, de ce qui va former l’Internet – non la vie – de demain. Bon je pense que ça se voit que je suis un peu sarcastique de tout ça, mais y’a cette idée derrière les grandes entreprises de la tech. Elles ne sont plus dans l’idée de tourner autour de quelques produits, elles se présentent comme le « futur ». X Corp n’est qu’une tentative de créer un autre GAFAM, et fait partie des mêmes mouvements, des mêmes visions, du même aspect « techbro ».
C’est pour ça que le nom « rigolo » est moins mis en avant par rapport au nom plus « générique-mais-cool-regardez ». Meta, pour ceux qui vont au-delà et le métavers. X pour la variable inconnue. Alphabet pour aller de A à Z. Tout cela est de l’esbroufe, parce que plus que vendre un produit, ils vendent de la hype aux investisseurs.
Et le fait que Musk a voulu réutiliser ce nom dans le passé ne change pas grand-chose à tout ça. Le but, l’ego est le même. Donner l’impression qu’on est face à une grosse mégacorporation du futur. Et ce manque d’originalité n’est pas que dans le changement de nom, mais aussi au final dans son plan derrière tout ça : transformer Twitter en une marketplace.
Le passage de Twitter à X.com, montre le même cœur que les metaverse et crypto… et au final une grande partie des transformations qui se sont produites : tout transformer en marketplace, enrobé dans une esthétique de technofuturisme. Cela se voit encore plus dans le message de Linda Yaccarino, la CEO de Twitter :
X est l’état futur de l’interactivité illimitée – centrée sur l’audio, la vidéo, la messagerie, les paiements/les banques – créant une place de marché globale pour les idées, les biens, les services et les opportunités. Propulsé par l’IA, X va nous connecter d’une manière que nous commençons juste à imaginer.
— Linda Yaccarino, twitter
On peut remarquer deux choses dans ce message :
Le premier est qu’il n’y a rien d’original dedans. Nous y retrouvons exactement la même chose que l’on retrouvait à l’époque des crypto et des NFT : le truc qui fait tout mais surtout des trucs qui existent déjà, et basé sur la technologie du turfu. Y’a déjà 500 plateformes pour faire payer pour des services, que ce soit en crowdfunding, au format « patreon », via des commissions, etc. Des ventes de biens sur internet, y’a aussi des tonnes de moyens, etc. Tout ce qui est rajouté c’est « on va faire tous ces trucs qui existent déjà, et on a dit « IA » dedans donc c’est le futur ça va tout révolutionner tavu ». C’est le modus operandi classique, et il n’y a rien d’original dans ce que propose Twitter. D’ailleurs, le rôle que peut avoir l’IA dedans est très vague : est-ce que c’est pour modifier les algorithmes ? (cela ne sert pas à grand-chose, on les hait tous déjà). Est-ce que c’est pour pouvoir générer des produits par IA pour les vendre ? Le produit que veut proposer X Corp n’a pas besoin d’IA pour fonctionner, elle est là juste pour dire « c’est le futur », et hyper les investisseurs.
Le second est que cela transforme l’idée de base de Twitter (l’endroit où les gens parlent) en avant tout une « place de marché », comme indiqué plus haut. Twitter était le lieu de la discussion, du partage de l’idée à la con qu’on a eue sous la douche. D’où le format du microblogging. Là aussi, même cet aspect devient quelque chose de commercialisable, ce qui rappelle encore une fois le mouvement qu’il y avait eu autour de la crypto et des NFT : tout doit pouvoir devenir commercialisable, tout doit pouvoir devenir un produit. C’est aussi ce mouvement qui fait qu’on a de plus en plus de « jeux-services », qui servent avant tout à vendre des produits dématérialisés n’ayant de valeur qu’à l’intérieur du jeu (et encore). Beaucoup de jeux ne peuvent plus juste « être un jeu », ils doivent être une « marketplace ».
La transformation de twitter en X n’est donc pas une surprise – en plus du fait que c’était annoncé depuis longtemps. Il ne s’agit que d’un phénomène qui arrive tout le temps sur Internet. Une volonté de transformer un site populaire en une « place de marché du futur » pour hyper des investisseurs. Encore une fois.
Et au final, on sait bien ce qu’a acheté Musk quand il a acheté Twitter. Il n’a pas acheté un produit. Il a acheté une userbase (une base d’utilisateurs et utilisatrices) pour l’injecter directement dans le nouveau produit qu’il voulait faire. C’est assez ironique de voir que Twitter a fini de la même manière que certains comptes populaires : revendu pour être renommé et envoyer sa pub à des tonnes d’utilisateurs.
]]>Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse des enjeux qui en découlent.
par Hubert GUILLAUD
Que voulons-nous vraiment savoir en enquêtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mène au Knight Institute de l’université Columbia où il a ouvert un blog dédié et qui vient d’accueillir une grande conférence sur le sujet. Parler d’amplification permet de s’intéresser à toute la gamme des réponses qu’apportent les plateformes, allant de l’amélioration de la portée des discours à leur suppression, tout en se défiant d’une réduction binaire à la seule modération automatisée, entre ce qui doit être supprimé et ce qui ne doit pas l’être. Or, les phénomènes d’amplification ne sont pas sans effets de bord, qui vont bien au-delà de la seule désinformation, à l’image des effets très concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problème, pourtant, reste de pouvoir les étudier sans toujours y avoir accès.
Outre des analyses sur TikTok et les IA génératives, le blog recèle quelques trésors, notamment une monumentale synthèse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est également très riche en liens et références, la synthèse que j’en propose y recourra assez peu).
Narayan rappelle que les plateformes disposent de très nombreux algorithmes entremêlés, mais ceux qui l’intéressent particulièrement sont les algorithmes de recommandation, ceux qui génèrent les flux, les contenus qui nous sont mis à disposition. Alors que les algorithmes de recherche sont limités par le terme recherché, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrôle bien plus grand sur ce qu’elles recommandent à un utilisateur.
Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le réseau et l’algorithme. Dans le modèle par abonnement, le message atteint les personnes qui se sont abonnées à l’auteur du message. Dans le modèle de réseau, il se propage en cascade à travers le réseau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé.
À l’origine, les réseaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous étiez abonnés et vous ne pouviez pas republier les messages des autres ! Dans le modèle de réseau, un utilisateur voit non seulement les messages créés par les personnes auxquelles il s’est abonné, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crée la possibilité de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment où le réseau introduisit le classement algorithmique. Dans le modèle algorithmique, la souscription est bien souvent minorée, le réseau amplifié mais surtout, le flux dépend principalement de ce que l’algorithme estime être le plus susceptible d’intéresser l’utilisateur. C’est ce que Cory Doctorow désigne comme « l’emmerdification » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnés comme des suggestions et non comme des commandes.
Le passage aux recommandations algorithmiques a toujours généré des contestations, notamment parce que, si dans les modèles d’abonnement et de réseau, les créateurs peuvent se concentrer sur la construction de leur réseau, dans le « modèle algorithmique, cela ne sert à rien, car le nombre d’abonnés n’a rien à voir avec la performance des messages » (mais comme nous sommes dans des mélanges entre les trois modèles, le nombre d’abonnés a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modèle algorithmique, l’audience de chaque message est optimisée de manière indépendante en fonction du sujet, de la « qualité » du message et d’un certain nombre de paramètres pris en compte par le modèle.
La question de l’amplification interroge la question de la viralité, c’est-à-dire le fait qu’un contenu soit amplifié par une cascade de reprises, et non pas seulement diffusé d’un émetteur à son public. Le problème de la viralité est que sa portée reste imprévisible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des créateurs, la majorité de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidéos les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rôle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au réseau, plus cette inégalité semble importante.
Parce qu’il est particulièrement repérable dans la masse des contenus, le contenu viral se prête assez bien à la rétropropagation, c’est-à-dire à son déclassement ou à sa suppression. Le problème justement, c’est qu’il y a plein de manières de restreindre le contenu. Facebook classe les posts rétrogradés plus bas dans le fil d’actualité qu’ils ne le seraient s’ils ne l’avaient pas été, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rétrogradation sur la portée peut être imprévisible, non linéaire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rétrogradation est parfaitement opaque, notamment parce qu’une faible portée n’est pas automatiquement suspecte, étant donné qu’il existe une grande variation dans la portée naturelle du contenu.
Les plateformes ont plusieurs objectifs de haut niveau : améliorer leurs revenus publicitaires bien sûr et satisfaire suffisamment les utilisateurs pour qu’ils reviennent… Mais ces objectifs n’aident pas vraiment à décider ce qu’il faut donner à un utilisateur spécifique à un moment précis ni à mesurer comment ces décisions impactent à long terme la plateforme. D’où le fait que les plateformes observent l’engagement, c’est-à-dire les actions instantanées des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilité que l’utilisateur s’y intéresse. « D’une certaine manière, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de générer des revenus publicitaires pour la plateforme. »
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intègrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », c’est-à-dire une moyenne pondérée des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durée de visionnage que l’algorithme prédit. TikTok utilise les interactions sociales et valorise les vidéos qui ont été regardées jusqu’au bout, comme un signal fort et qui explique certainement le caractère addictif de l’application et le fait que les vidéos courtes (qui ont donc tendance à obtenir un score élevé) continuent de dominer la plateforme.
En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expérience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitées, sélectionnées plus que classées, selon divers critères plus que selon des critères uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires à ceux qu’on a apprécié, TikTok se distingue à nouveau par l’importance qu’il accorde à l’exploration de nouveaux contenus… c’est d’ailleurs la tactique suivie désormais par Instagram de Meta via les Reels, boostés sur le modèle de TikTok, qui ont le même effet que sur TikTok, à savoir une augmentation du temps passé sur l’application)…
« Bien qu’il existe de nombreuses différences dans les détails, les similitudes entre les algorithmes de recommandation des différentes plateformes l’emportent sur leurs différences », estime Narayan. Les différences sont surtout spécifiques, comme Youtube qui optimise selon la durée de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces différences montrent qu’il n’y a pas de risque concurrentiel à l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours très spécifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.
Mais la grande question à laquelle tous tentent de répondre est la même : « Comment les utilisateurs similaires à cet utilisateur ont-ils réagi aux messages similaires à ce message ? »
Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avérée efficace dans la pratique. Elle repose sur un double calcul de similarité. D’abord, celle entre utilisateurs. La similarité entre utilisateurs dépend du réseau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagés dans un ensemble de messages similaires ») et les données démographiques (du type âge, sexe, langue, géographie… qui sont en grande partie déduits des comportements).
Ensuite, il y a un calcul sur la similarité des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractéristiques (comme la langue) intégrant des évaluations normatives, comme la caractérisation de discours haineux. L’autre signal de similarité des messages tient, là encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagé avec eux ». Le plus important à retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation ». La grande difficulté, dans ces appréciations algorithmiques, consiste à faire que le calcul reste traitable, face à des volumes d’enregistrements d’informations colossaux.
« La première génération d’algorithmes de recommandation à grande échelle, comme ceux d’Amazon et de Netflix au début des années 2000, utilisait une technique simple appelée filtrage collaboratif : les clients qui ont acheté ceci ont également acheté cela ». Le principe était de recommander des articles consultés ou achetés d’une manière rudimentaire, mais qui s’est révélé puissant dans le domaine du commerce électronique. En 2006, Netflix a organisé un concours en partageant les évaluations qu’il disposait sur les films pour améliorer son système de recommandation. Ce concours a donné naissance à la « factorisation matricielle », une forme de deuxième génération d’algorithmes de recommandation, c’est-à-dire capables d’identifier des combinaisons d’attributs et de préférences croisées. Le système n’étiquette pas les films avec des termes interprétables facilement (comme “drôle” ou “thriller” ou “informatif”…), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires émouvants qui combattent le système ») qu’il associe aux préférences des utilisateurs. Le problème, c’est que cette factorisation matricielle n’est pas très lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas très satisfaisant. Enfin, ce qui marche pour un catalogue de film limité n’est pas adapté aux médias sociaux où les messages sont infinis. La prédominance de la factorisation matricielle explique pourquoi les réseaux sociaux ont tardé à se lancer dans la recommandation, qui est longtemps restée inadaptée à leurs besoins.
Pourtant, les réseaux sociaux se sont tous convertis à l’optimisation basée sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelé EdgeRank pour construire le fil d’actualité des utilisateurs qui consistait à afficher les éléments par ordre de priorité décroissant selon un score d’affinité qui représente la prédiction de Facebook quant au degré d’intérêt de l’utilisateur pour les contenus affichés, valorisant les photos plus que le texte par exemple. À l’époque, ces pondérations étaient définies manuellement plutôt qu’apprises. En 2018, Facebook est passé à l’apprentissage automatique. La firme a introduit une métrique appelée « interactions sociales significatives » (MSI pour meaningful social interactions) dans le système d’apprentissage automatique. L’objectif affiché était de diminuer la présence des médias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque élément susceptible d’être montré à un utilisateur donné ». Le flux est généré en classant les messages disponibles selon leur score MSI décroissant, avec quelques ajustements, comme d’introduire de la diversité (avec peu d’indications sur la façon dont est calculée et ajoutée cette diversité). Le score MSI prédit la probabilité que l’utilisateur ait un type d’interaction spécifique (comme liker ou commenter) avec le contenu et affine le résultat en fonction de l’affinité de l’utilisateur avec ce qui lui est proposé. Il n’y a plus de pondération dédiée pour certains types de contenus, comme les photos ou les vidéos. Si elles subsistent, c’est uniquement parce que le système l’aura appris à partir des données de chaque utilisateur, et continuera à vous proposer des photos si vous les appréciez.
« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas être nécessaire d’ajuster manuellement la formule en fonction des affinités. Si les utilisateurs préfèrent voir le contenu de leurs amis plutôt que celui des marques, l’algorithme devrait être en mesure de l’apprendre ». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction à long terme, que l’algorithme ne peut pas mesurer, mais là encore sans que les modalités de ces ajustements ne soient clairement documentés.
Reste à savoir si ces algorithmes sont efficaces ! « Il peut sembler évident qu’ils doivent bien fonctionner, étant donné qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problème : il s’agit de la probabilité qu’un utilisateur s’intéresse à un message qui lui a été recommandé. Sur la plupart des plateformes, ce taux est inférieur à 1 %. TikTok est une exception, mais même là, ce taux dépasse à peine les 5 %. »
Le problème n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prévisibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de précision de la recommandation. « Même s’ils sont imprécis au niveau individuel, ils sont précis dans l’ensemble. Par rapport aux plateformes basées sur les réseaux, les plateformes algorithmiques semblent être plus efficaces pour identifier les contenus viraux (qui trouveront un écho auprès d’un grand nombre de personnes). Elles sont également capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y être réceptifs. » Si les algorithmes sont largement limités à la recherche de modèles dans les données comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitésimal – même s’il est toujours considéré comme un succès !
Les ingénieurs ont très peu d’espace pour contrôler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales étaient beaucoup plus susceptibles de contenir des informations erronées ou d’autres types de contenus préjudiciables. En d’autres termes, ils se sont rendu compte que le passage à des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portée, comme l’a expliqué l’ingénieure et lanceuse d’alerte Frances Haugen à l’origine des Facebook Files, dans ses témoignages. C’est ce que synthétise le tableau de pondération de la formule MSI publié par le Wall Street Journal, qui montrent que certains éléments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondération aussi élevée permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramené la pondération des partages à 1,5, mais la pondération des commentaires est restée très élevée (15 à 20 fois plus qu’un like). Alors que les partages et les commentaires étaient regroupés dans une seule catégorie de pondération en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polémiques. Reste, on le comprend, que le jeu qui reste aux ingénieurs de Facebook consiste à ajuster le poids des paramètres. Pour Narayan : piloter un système d’une telle complexité en utilisant si peu de boutons ne peut qu’être difficile.
Le chercheur rappelle que le système est censé être neutre à l’égard de tous les contenus, à l’exception de certains qui enfreignent les règles de la plateforme. Utilisateurs et messages sont alors rétrogradés de manière algorithmique suite à signalement automatique ou non. Mais cette neutralité est en fait très difficile à atteindre. Les réseaux sociaux favorisent ceux qui ont déjà une grande portée, qu’elle soit méritée ou non, et sont récompensés par une plus grande portée encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralité finit par récompenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.
Outre cette neutralité, un deuxième grand principe directeur est que « l’algorithme sait mieux que quiconque ». « Ce principe et celui de la neutralité se renforcent mutuellement. Le fait de confier la politique (concernant le contenu à amplifier) aux données signifie que les ingénieurs n’ont pas besoin d’avoir un point de vue à ce sujet. Et cette neutralité fournit à l’algorithme des données plus propres à partir desquelles il peut apprendre. »
Le principe de l’algorithme qui sait le mieux signifie que la même optimisation est appliquée à tous les types de discours : divertissement, informations éducatives, informations sur la santé, actualités, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rétrograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualité que de faible qualité, augmentant la désinformation. Cette neutralité affichée permet également une forme de désengagement des ingénieurs.
En 2021, encore, FB a entraîné des modèles d’apprentissage automatique pour classer les messages en deux catégories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprécient des contenus qui leurs étaient proposés pour former les données. FB a constaté que les messages ayant une plus grande portée étaient considérés comme étant mauvais pour le monde. FB a donc rétrogradé ces contenus… mais en trouvant moins de contenus polémique, cette modification a entraîné une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redéployé ce modèle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modèle d’affaires.
« Un grand nombre des pathologies familières des médias sociaux sont, à mon avis, des conséquences relativement directes de l’optimisation de l’engagement », suggère encore le chercheur. Cela explique pourquoi les réformes sont difficiles et pourquoi l’amélioration de la transparence des algorithmes, de la modération, voire un meilleur contrôle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (même si elles sont nécessaires).
Les données comportementales, celles relatives à l’engagement passé, sont la matière première essentielle des moteurs de recommandations. Les systèmes privilégient la rétroaction implicite sur l’explicite, à la manière de YouTube qui a privilégié le temps passé sur les rétroactions explicites (les likes). Sur TikTok, il n’y a même plus de sélection, il suffit de swipper.
Le problème du feedback implicite est qu’il repose sur nos réactions inconscientes, automatiques et émotionnelles, sur nos pulsions, qui vont avoir tendance à privilégier une vidéo débile sur un contenu expert.
Pour les créateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprévisibilité, ce qui a pour conséquence d’alimenter une surproduction pour compenser cette variabilité. La production d’un grand volume de contenu, même s’il est de moindre qualité, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de récompenser les contenus viraux se fait au détriment de tous les autres types de contenus (d’où certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).
Au niveau de la société, toutes les institutions sont impactées par les plateformes algorithmiques, du tourisme à la science, du journalisme à la santé publique. Or, chaque institution à des valeurs, comme l’équité dans le journalisme, la précision en science, la qualité dans nombre de domaines. Les algorithmes des médias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualité. « Ils récompensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines ». Pour Narayan, les plateformes de médias sociaux « affaiblissent les institutions en sapant leurs normes de qualité et en les rendant moins dignes de confiance ». C’est particulièrement actif dans le domaine de l’information, mais cela va bien au-delà, même si ce n’est pas au même degré. TikTok peut sembler ne pas représenter une menace pour la science, mais nous savons que les plateformes commencent par être un divertissement avant de s’étendre à d’autres sphères du discours, à l’image d’Instagram devenant un outil de communication politique ou de Twitter, où un tiers des tweets sont politiques.
Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour résoudre les problèmes. Ces efforts restent occasionnels et rudimentaires, à l’image de la tentative de Facebook de comprendre la valeur des messages diffusés. La raison est bien sûr que ces aménagements nuisent aux résultats financiers de l’entreprise. « Le recours à la prise de décision subconsciente et automatique est tout à fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et résister à leurs impulsions est vu comme un problème à résoudre. »
Pourtant, ces dernières années, la réputation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvénients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considérable à la recherche d’une relation quantitative et causale entre les changements apportés à l’algorithme et leurs effets. »
Si on observe les raisons qui poussent l’utilisateur à quitter une plateforme, la principale est qu’il ne parvient pas à obtenir des recommandations suffisamment intéressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censée éviter. Les entreprises parviennent très bien à optimiser des recommandations qui plaisent à l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermé l’application, que ce qu’il y a trouvé l’a enrichi. Elles n’arrivent pas à calculer et à intégrer le bénéfice à long terme, même si elles restent très attentives aux taux de rétention ou aux taux de désabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constaté que le fait d’afficher plus de notifications augmentait l’engagement à court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets à longs termes ne semble pas être une priorité par rapport à leurs effets de plus courts termes.
Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intériorisent leurs préjudices collectifs. Ces systèmes reposent sur l’hypothèse que le comportement de chaque utilisateur est indépendant et que l’effet sur la société (l’atteinte à la démocratie par exemple…) est très difficile à évaluer. Narayan le résume dans un tableau parlant, où la valeur sur la société n’a pas de métrique associée.
Pour répondre à ces problèmes, beaucoup suggèrent de revenir à des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnés. Pas sûr que cela soit une solution très efficace pour gérer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont été la réponse à la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intérêts d’une personne qu’elle n’en a de temps disponible. » Les algorithmes de classement sont devenus une nécessité pratique. Même dans le cas d’un réseau longtemps basé sur l’abonnement, comme Instagram : en 2016, la société indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils étaient abonnés. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cœur de leur fonctionnement que le contraire. Et les systèmes de recommandation font leur entrée dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).
Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts à faire pour contrecarrer activement les modèles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-être d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nécessite certainement aussi d’imaginer des réseaux sociaux avec des modèles économiques différents. Un autre internet. Les algorithmes ne sont peut-être pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considération, ne sont pas nos amis non plus !
]]>Voici le premier des deux articles qu’Hubert Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il s’est documenté pour nous faire part de ses réflexions.
par Hubert GUILLAUD
Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité, comme l’a expliqué l’équipe elle-même dans un billet. Ces dizaines de milliers de lignes de code contiennent pourtant peu d’informations nouvelles. Depuis le rachat de l’oiseau bleu par Musk, Twitter a beaucoup changé et ne cesse de se modifier sous les yeux des utilisateurs. La publication du code source d’un système, même partiel, qui a longtemps été l’un des grands enjeux de la transparence, montre ses limites.
Dans un excellent billet de blog, le chercheur Arvind Narayan (sa newsletter mérite également de s’y abonner) explique ce qu’il faut en retenir. Comme ailleurs, les règles ne sont pas claires. Les algorithmes de recommandation utilisent l’apprentissage automatique ce qui fait que la manière de classer les tweets n’est pas directement spécifiée dans le code, mais apprise par des modèles à partir de données de Twitter sur la manière dont les utilisateurs ont réagi aux tweets dans le passé. Twitter ne divulgue ni ces modèles ni les données d’apprentissages, ce qui signifie qu’il n’est pas possible d’exécuter ces modèles. Le code ne permet pas de comprendre pourquoi un tweet est ou n’est pas recommandé à un utilisateur, ni pourquoi certains contenus sont amplifiés ou invisibilisés. C’est toute la limite de la transparence. Ce que résume très bien le journaliste Nicolas Kayser-Bril pour AlgorithmWatch (pertinemment traduit par le framablog) : « Vous ne pouvez pas auditer un code seulement en le lisant. Il faut l’exécuter sur un ordinateur. »
« Ce que Twitter a publié, c’est le code utilisé pour entraîner les modèles, à partir de données appropriées », explique Narayan, ce qui ne permet pas de comprendre les propagations, notamment du fait de l’absence des données. De plus, les modèles pour détecter les tweets qui violent les politiques de Twitter et qui leur donnent des notes de confiance en fonction de ces politiques sont également absentes (afin que les usagers ne puissent pas déjouer le système, comme nous le répètent trop de systèmes rétifs à l’ouverture). Or, ces classements ont des effets de rétrogradation très importants sur la visibilité de ces tweets, sans qu’on puisse savoir quels tweets sont ainsi classés, selon quelles méthodes et surtout avec quelles limites.
La chose la plus importante que Twitter a révélée en publiant son code, c’est la formule qui spécifie comment les différents types d’engagement (likes, retweets, réponses, etc.) sont pondérés les uns par rapport aux autres… Mais cette formule n’est pas vraiment dans le code. Elle est publiée séparément, notamment parce qu’elle n’est pas statique, mais qu’elle doit être modifiée fréquemment.
Sans surprise, le code révèle ainsi que les abonnés à Twitter Blue, ceux qui payent leur abonnement, bénéficient d’une augmentation de leur portée (ce qui n’est pas sans poser un problème de fond, comme le remarque pertinemment sur Twitter, Guillaume Champeau, car cette préférence pourrait mettre ces utilisateurs dans la position d’être annonceurs, puisqu’ils payent pour être mis en avant, sans que l’interface ne le signale clairement, autrement que par la pastille bleue). Reste que le code n’est pas clair sur l’ampleur de cette accélération. Les notes attribuées aux tweets des abonnés Blue sont multipliées par 2 ou 4, mais cela ne signifie pas que leur portée est pareillement multipliée. « Une fois encore, le code ne nous dit pas le genre de choses que nous voudrions savoir », explique Narayan.
Reste que la publication de la formule d’engagement est un événement majeur. Elle permet de saisir le poids des réactions sur un tweet. On constate que la réponse à tweet est bien plus forte que le like ou que le RT. Et la re-réponse de l’utilisateur originel est prédominante, puisque c’est le signe d’une conversation forte. À l’inverse, le fait qu’un lecteur bloque, mute ou se désabonne d’un utilisateur suite à un tweet est un facteur extrêmement pénalisant pour la propagation du tweet.
Ces quelques indications permettent néanmoins d’apprendre certaines choses. Par exemple que Twitter ne semble pas utiliser de prédictions d’actions implicites (comme lorsqu’on s’arrête de faire défiler son fil), ce qui permet d’éviter l’amplification du contenu trash que les gens ne peuvent s’empêcher de regarder, même s’ils ne s’y engagent pas. La formule nous apprend que les retours négatifs ont un poids très élevé, ce qui permet d’améliorer son flux en montrant à l’algorithme ce dont vous ne voulez pas – même si les plateformes devraient permettre des contrôles plus explicites pour les utilisateurs. Enfin, ces poids ont des valeurs souvent précises, ce qui signifie que ce tableau n’est valable qu’à l’instant de la publication et qu’il ne sera utile que si Twitter le met à jour.
Les algorithmes de recommandation qui optimisent l’engagement suivent des modèles assez proches. La publication du code n’est donc pas très révélatrice. Trois éléments sont surtout importants, insiste le chercheur :
« Le premier est la manière dont les algorithmes sont configurés : les signaux utilisés comme entrée, la manière dont l’engagement est défini, etc. Ces informations doivent être considérées comme un élément essentiel de la transparence et peuvent être publiées indépendamment du code. La seconde concerne les modèles d’apprentissage automatique qui, malheureusement, ne peuvent généralement pas être divulgués pour des raisons de protection de la vie privée. Le troisième est la boucle de rétroaction entre les utilisateurs et l’algorithme ».
Autant d’éléments qui demandent des recherches, des expériences et du temps pour en comprendre les limites.
Si la transparence n’est pas une fin en soi, elle reste un moyen de construire un meilleur internet en améliorant la responsabilité envers les utilisateurs, rappelle l’ingénieur Gabriel Nicholas pour le Center for Democracy & Technology. Il souligne néanmoins que la publication d’une partie du code source de Twitter ne contrebalance pas la fermeture du Consortium de recherche sur la modération, ni celle des rapports de transparence relatives aux demandes de retraits des autorités ni celle de l’accès à son API pour chercheurs, devenue extrêmement coûteuse.
« Twitter n’a pas exactement ’ouvert son algorithme’ comme certains l’ont dit. Le code est lourdement expurgé et il manque plusieurs fichiers de configuration, ce qui signifie qu’il est pratiquement impossible pour un chercheur indépendant d’exécuter l’algorithme sur des échantillons ou de le tester d’une autre manière. Le code publié n’est en outre qu’un instantané du système de recommandation de Twitter et n’est pas réellement connecté au code en cours d’exécution sur ses serveurs. Cela signifie que Twitter peut apporter des modifications à son code de production et ne pas l’inclure dans son référentiel public, ou apporter des modifications au référentiel public qui ne sont pas reflétées dans son code de production. »
L’algorithme publié par Twitter est principalement son système de recommandation. Il se décompose en 3 parties, explique encore Nicholas :
Le score final est calculé en additionnant la probabilité de chaque action multipliée par son poids (en prenant certainement en compte la rareté ou la fréquence d’action, le fait de répondre à un tweet étant moins fréquent que de lui attribuer un like). Mais Twitter n’a pas publié la probabilité de base de chacune de ces actions ce qui rend impossible de déterminer l’importance de chacune d’elles dans les recommandations qui lui sont servies.
Twitter a également révélé quelques informations sur les autres facteurs qu’il prend en compte en plus du classement total d’un tweet. Par exemple, en équilibrant les recommandations des personnes que vous suivez avec celles que vous ne suivez pas, en évitant de recommander les tweets d’un même auteur ou en donnant une forte prime aux utilisateurs payants de Twitter Blue.
Il y a aussi beaucoup de code que Twitter n’a pas partagé. Il n’a pas divulgué beaucoup d’informations sur l’algorithme de génération des tweets candidats au classement ni sur ses paramètres et ses données d’entraînement. Twitter n’a pas non plus explicitement partagé ses algorithmes de confiance et de sécurité pour détecter des éléments tels que les abus, la toxicité ou les contenus pour adultes, afin d’empêcher les gens de trouver des solutions de contournement, bien qu’il ait publié certaines des catégories de contenu qu’il signale.
Pour Gabriel Nicholas, la transparence de Twitter serait plus utile si Twitter avait maintenu ouverts ses outils aux chercheurs. Ce n’est pas le cas.
Il y a plein d’autres points que l’ouverture de l’algorithme de Twitter a documentés. Par exemple, l’existence d’un Tweepcred, un score qui classe les utilisateurs et qui permet de voir ses publications boostées si votre score est bon, comme l’expliquait Numerama. Ou encore le fait que chaque compte est clustérisé dans un groupe aux profils similaires dans lequel les tweets sont d’abord diffusés avant d’être envoyés plus largement s’ils rencontrent un premier succès… De même, il semblerait qu’il y ait certaines catégories d’utilisateurs spéciaux (dont une catégorie relative à Elon Musk) mais qui servent peut-être plus certaines statistiques qu’à doper la portée de certains comptes comme on l’a entendu (même s’il semble bien y avoir une catégorie VIP sur Twitter – comme il y a sur Facebook un statut d’exception à la modération)…
En conclusion de son article, Narayan pointe vers un très intéressant article qui dresse une liste d’options de transparence pour ceux qui produisent des systèmes de recommandation, publiée par les chercheurs Priyanjana Bengani, Jonathan Stray et Luke Thorburn. Ils rappellent que les plateformes ont mis en place des mesures de transparence, allant de publications statistiques à des interfaces de programmation, en passant par des outils et des ensembles de données protégés. Mais ces mesures, très techniques, restent insuffisantes pour comprendre les algorithmes de recommandation et leur influence sur la société. Une grande partie de cette résistance à la transparence ne tient pas tant aux risques commerciaux qui pourraient être révélés qu’à éviter l’embarras d’avoir à se justifier de choix qui ne le sont pas toujours. D’une manière très pragmatique, les trois chercheurs proposent un menu d’actions pour améliorer la transparence et l’explicabilité des systèmes.
Documenter
L’un des premiers outils, et le plus simple, reste la documentation qui consiste à expliquer en termes clairs – selon différentes échelles et niveaux, me semble-t-il – ce qui est activé par une fonction. Pour les utilisateurs, c’est le cas du bouton « Pourquoi je vois ce message » de Facebook ou du panneau « Fréquemment achetés ensemble » d’Amazon. L’idée ici est de fourbir un « compte rendu honnête ». Pour les plus évoluées de ces interfaces, elles devraient permettre non seulement d’informer et d’expliquer pourquoi on nous recommande ce contenu, mais également, permettre de rectifier et mieux contrôler son expérience en ligne, c’est-à-dire d’avoir des leviers d’actions sur la recommandation.
Une autre forme de documentation est celle sur le fonctionnement général du système et ses décisions de classement, à l’image des rapports de transparence sur les questions de sécurité et d’intégrité que doivent produire la plupart des plateformes (voir celui de Google, par exemple). Cette documentation devrait intégrer des informations sur la conception des algorithmes, ce que les plateformes priorisent, minimisent et retirent, si elles donnent des priorités et à qui, tenir le journal des modifications, des nouvelles fonctionnalités, des changements de politiques. La documentation doit apporter une information solide et loyale, mais elle reste souvent insuffisante.
Les données
Pour comprendre ce qu’il se passe sur une plateforme, il est nécessaire d’obtenir des données. Twitter ou Facebook en ont publié (accessibles sous condition de recherche, ici pour Twitter, là pour Facebook). Une autre approche consiste à ouvrir des interfaces de programmation, à l’image de CrowdTangle de Facebook ou de l’API de Twitter. Depuis le scandale Cambridge Analytica, l’accès aux données est souvent devenu plus difficile, la protection de la vie privée servant parfois d’excuse aux plateformes pour éviter d’avoir à divulguer leurs pratiques. L’accès aux données, même pour la recherche, s’est beaucoup refermé ces dernières années. Les plateformes publient moins de données et CrowdTangle propose des accès toujours plus sélectifs. Chercheurs et journalistes ont été contraints de développer leurs propres outils, comme des extensions de navigateurs permettant aux utilisateurs de faire don de leurs données (à l’image du Citizen Browser de The Markup) ou des simulations automatisées (à l’image de l’analyse robotique de TikTok produite par le Wall Street Journal), que les plateformes ont plutôt eu tendance à bloquer en déniant les résultats obtenus sous prétexte d’incomplétude – ce qui est justement le problème que l’ouverture de données cherche à adresser.
Le code
L’ouverture du code des systèmes de recommandation pourrait être utile, mais elle ne suffit pas, d’abord parce que dans les systèmes de recommandation, il n’y a pas un algorithme unique. Nous sommes face à des ensembles complexes et enchevêtrés où « différents modèles d’apprentissage automatique formés sur différents ensembles de données remplissent diverses fonctions ». Même le classement ou le modèle de valeur pour déterminer le score n’explique pas tout. Ainsi, « le poids élevé sur un contenu d’un type particulier ne signifie pas nécessairement qu’un utilisateur le verra beaucoup, car l’exposition dépend de nombreux autres facteurs, notamment la quantité de ce type de contenu produite par d’autres utilisateurs. »
Peu de plateformes offrent une grande transparence au niveau du code source. Reddit a publié en 2008 son code source, mais a cessé de le mettre à jour. En l’absence de mesures de transparence, comprendre les systèmes nécessite d’écluser le travail des journalistes, des militants et des chercheurs pour tenter d’en obtenir un aperçu toujours incomplet.
La recherche
Les plateformes mènent en permanence une multitude de projets de recherche internes voire externes et testent différentes approches pour leurs systèmes de recommandation. Certains des résultats finissent par être accessibles dans des revues ou des articles soumis à des conférences ou via des fuites d’informations. Quelques efforts de partenariats entre la recherche et les plateformes ont été faits, qui restent embryonnaires et ne visent pas la transparence, mais qui offrent la possibilité à des chercheurs de mener des expériences et donc permettent de répondre à des questions de nature causale, qui ne peuvent pas être résolues uniquement par l’accès aux données.
Enfin, les audits peuvent être considérés comme un type particulier de recherche. À l’heure actuelle, il n’existe pas de bons exemples d’audits de systèmes de recommandation menés à bien. Reste que le Digital Service Act (DSA) européen autorise les audits externes, qu’ils soient lancés par l’entreprise ou dans le cadre d’une surveillance réglementaire, avec des accès élargis par rapport à ceux autorisés pour l’instant. Le DSA exige des évaluations sur le public mineur, sur la sécurité, la santé, les processus électoraux… mais ne précise ni comment ces audits doivent être réalisés ni selon quelles normes. Des méthodes spécifiques ont été avancées pour contrôler la discrimination, la polarisation et l’amplification dans les systèmes de recommandation.
En principe, on pourrait évaluer n’importe quel préjudice par des audits. Ceux-ci visent à vérifier si « la conception et le fonctionnement d’un système de recommandation respectent les meilleures pratiques et si l’entreprise fait ce qu’elle dit qu’elle fait. S’ils sont bien réalisés, les audits pourraient offrir la plupart des avantages d’un code source ouvert et d’un accès aux données des utilisateurs, sans qu’il soit nécessaire de les rendre publics. » Reste qu’il est peu probable que les audits imposés par la surveillance réglementaire couvrent tous les domaines qui préoccupent ceux qui sont confrontés aux effets des outils de recommandations.
Autres moteurs de transparence : la gouvernance et les calculs
Les chercheurs concluent en soulignant qu’il existe donc une gamme d’outils à disposition, mais qu’elle manque de règles et de bonnes pratiques partagées. Face aux obligations de transparence et de contrôles qui arrivent (pour les plus gros acteurs d’abord, mais parions que demain, elles concerneront bien d’autres acteurs), les entreprises peinent à se mettre en ordre de marche pour proposer des outillages et des productions dans ces différents secteurs qui leur permettent à la fois de se mettre en conformité et de faire progresser leurs outils. Ainsi, par exemple, dans le domaine des données, documenter les jeux et les champs de données, à défaut de publier les jeux de données, pourrait déjà permettre un net progrès. Dans le domaine de la documentation, les cartes et les registres permettent également d’expliquer ce que les calculs opèrent (en documentant par exemple leurs marges d’erreurs).
Reste que l’approche très technique que mobilisent les chercheurs oublie quelques leviers supplémentaires. Je pense notamment aux conseils de surveillance, aux conseils éthiques, aux conseils scientifiques, en passant par les organismes de contrôle indépendants, aux comités participatifs ou consultatifs d’utilisateurs… à tous les outils institutionnels, participatifs ou militants qui permettent de remettre les parties prenantes dans le contrôle des décisions que les systèmes prennent. Dans la lutte contre l’opacité des décisions, tous les leviers de gouvernance sont bons à prendre. Et ceux-ci sont de très bons moyens pour faire pression sur la transparence, comme l’expliquait très pertinemment David Robinson dans son livre Voices in the Code.
Un autre levier me semble absent de nombre de propositions… Alors qu’on ne parle que de rendre les calculs transparents, ceux-ci sont toujours absents des discussions. Or, les règles de traitements sont souvent particulièrement efficaces pour améliorer les choses. Il me semble qu’on peut esquisser au moins deux moyens pour rendre les calculs plus transparents et responsables : la minimisation et les interdictions.
La minimisation vise à rappeler qu’un bon calcul ne démultiplie pas nécessairement les critères pris en compte. Quand on regarde les calculs, bien souvent, on est stupéfait d’y trouver des critères qui ne devraient pas être pris en compte, qui n’ont pas de fondements autres que d’être rendus possibles par le calcul. Du risque de récidive au score de risque de fraude à la CAF, en passant par l’attribution de greffes ou aux systèmes de calculs des droits sociaux, on trouve toujours des éléments qui apprécient le calcul alors qu’ils n’ont aucune justification ou pertinence autres que d’être rendu possibles par le calcul ou les données. C’est le cas par exemple du questionnaire qui alimente le calcul de risque de récidive aux Etats-Unis, qui repose sur beaucoup de questions problématiques. Ou de celui du risque de fraude à la CAF, dont les anciennes versions au moins (on ne sait pas pour la plus récente) prenaient en compte par exemple le nombre de fois où les bénéficiaires se connectaient à leur espace en ligne (sur cette question, suivez les travaux de la Quadrature et de Changer de Cap). La minimisation, c’est aussi, comme l’explique l’ex-chercheur de chez Google, El Mahdi El Mhamdi, dans une excellente interview, limiter le nombre de paramètres pris en compte par les calculs et limiter l’hétérogénéité des données.
L’interdiction, elle, vise à déterminer que certains croisements ne devraient pas être autorisés, par exemple, la prise en compte des primes dans les logiciels qui calculent les données d’agenda du personnel, comme semble le faire le logiciel Orion mis en place par la Sncf, ou Isabel, le logiciel RH que Bol.com utilise pour gérer la main-d’œuvre étrangère dans ses entrepôts de logistique néerlandais. Ou encore, comme le soulignait Narayan, le temps passé sur les contenus sur un réseau social par exemple, ou l’analyse de l’émotion dans les systèmes de recrutement (et ailleurs, tant cette technologie pose problème). A l’heure où tous les calculs sont possibles, il va être pertinent de rappeler que selon les secteurs, certains croisements doivent rester interdits parce qu’ils sont trop à risque pour être mobilisés dans le calcul ou que certains calculs ne peuvent être autorisés.
Priyanjana Bengani, Jonathan Stray et Luke Thorburn, pour en revenir à eux, notent enfin que l’exigence de transparence reste formulée en termes très généraux par les autorités réglementaires. Dans des systèmes vastes et complexes, il est difficile de savoir ce que doit signifier réellement la transparence. Pour ma part, je milite pour une transparence “projective”, active, qui permette de se projeter dans les explications, c’est-à-dire de saisir ses effets et dépasser le simple caractère narratif d’une explication loyale, mais bien de pouvoir agir et reprendre la main sur les calculs.
Plus récemment, les trois mêmes chercheurs, passé leur article séminal, ont continué à documenter leur réflexion. Ainsi, dans « Rendre l’amplification mesurable », ils expliquent que l’amplification est souvent bien mal définie (notamment juridiquement, ils ont consacré un article entier à la question)… mais proposent d’améliorer les propriétés permettant de la définir. Ils rappellent d’abord que l’amplification est relative, elle consiste à introduire un changement par rapport à un calcul alternatif ou précédent qui va avoir un effet sans que le comportement de l’utilisateur n’ait été, lui, modifié.
L’amplification agit d’abord sur un contenu et nécessite de répondre à la question de savoir ce qui a été amplifié. Mais même dire que les fake news sont amplifiées n’est pas si simple, à défaut d’avoir une définition précise et commune des fake news qui nécessite de comprendre les classifications opérées. Ensuite, l’amplification se mesure par rapport à un point de référence précédent qui est rarement précisé. Enfin, quand l’amplification atteint son but, elle produit un résultat qui se voit dans les résultats liés à l’engagement (le nombre de fois où le contenu a été apprécié ou partagé) mais surtout ceux liés aux impressions (le nombre de fois où le contenu a été vu). Enfin, il faut saisir ce qui relève de l’algorithme et du comportement de l’utilisateur. Si les messages d’un parti politique reçoivent un nombre relativement important d’impressions, est-ce parce que l’algorithme est biaisé en faveur du parti politique en question ou parce que les gens ont tendance à s’engager davantage avec le contenu de ce parti ? Le problème, bien sûr, est de distinguer l’un de l’autre d’une manière claire, alors qu’une modification de l’algorithme entraîne également une modification du comportement de l’utilisateur. En fait, cela ne signifie pas que c’est impossible, mais que c’est difficile, expliquent les chercheurs. Cela nécessite un système d’évaluation de l’efficacité de l’algorithme et beaucoup de tests A/B pour comparer les effets des évolutions du calcul. Enfin, estiment-ils, il faut regarder les effets à long terme, car les changements dans le calcul prennent du temps à se diffuser et impliquent en retour des réactions des utilisateurs à ces changements, qui s’adaptent et réagissent aux transformations.
Dans un autre article, ils reviennent sur la difficulté à caractériser l’effet bulle de filtre des médias sociaux, notamment du fait de conceptions élastiques du phénomène. S’il y a bien des boucles de rétroaction, leur ampleur est très discutée et dépend beaucoup du contexte. Ils en appellent là encore à des mesures plus précises des phénomènes. Certes, ce que l’on fait sur les réseaux sociaux influe sur ce qui est montré, mais il est plus difficile de démontrer que ce qui est montré affecte ce que l’on pense. Il est probable que les effets médiatiques des recommandations soient faibles pour la plupart des gens et la plupart du temps, mais beaucoup plus importants pour quelques individus ou sous-groupes relativement à certaines questions ou enjeux. De plus, il est probable que changer nos façons de penser ne résulte pas d’une exposition ponctuelle, mais d’une exposition à des récits et des thèmes récurrents, cumulatifs et à long terme. Enfin, si les gens ont tendance à s’intéresser davantage à l’information si elle est cohérente avec leur pensée existante, il reste à savoir si ce que l’on pense affecte ce à quoi l’on s’engage. Mais cela est plus difficile à mesurer car cela suppose de savoir ce que les gens pensent et pas seulement constater leurs comportements en ligne. En général, les études montrent plutôt que l’exposition sélective a peu d’effets. Il est probable cependant que là encore, l’exposition sélective soit faible en moyenne, mais plus forte pour certains sous-groupes de personnes en fonction des contextes, des types d’informations.
Bref, là encore, les effets des réseaux sociaux sont difficiles à percer.
Pour comprendre les effets de l’amplification algorithmique, peut-être faut-il aller plus avant dans la compréhension que nous avons des évolutions de celle-ci, afin de mieux saisir ce que nous voulons vraiment savoir. C’est ce que nous tenterons de faire dans la suite de cet article…
Un court billet où Nicolas Kayser-Bril opère une mise au point : la loi européenne et les grandes entreprises du Web peuvent donner accès au code source, mais ce n’est qu’un facteur parmi d’autres qui s’avère souvent inutile à lui seul…
Article original : The ideology behind publishing Twitter’s source code publié dans le bulletin d’information (en anglais ou allemand) d’Algorithmwatch auquel on peut s’abonner sur cette page.
Traduction Framalang relue et révisée par l’auteur : Squeeek, goofy, audionuma
Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité. Cette décision a été prise quelques jours après qu’il a été rendu public que de grandes parties de ce code avaient déjà été divulguées sur Github [Gizmodo, 31 mars].
Les 85 797 lignes de code ne nous apprennent pas grand-chose. Les tweets ne contenant pas de liens sont mis en avant. Ceux rédigés dans une langue que le système ne peut pas reconnaître sont rétrogradés – discriminant clairement les personnes qui parlent une langue qui n’est pas reconnue par les ingénieurs californiens. Les Spaces (la fonction de podcasting en direct de Twitter) sur l’Ukraine semblent également être cachés [Aakash Gupta, 2 avril].
Le plus intéressant dans cette affaire reste le billet de blog rédigé par ce qu’il reste de l’équipe d’ingénieurs de Twitter. Il explique bien comment fonctionne un fil d’actualité d’un point de vue technique.
Une entreprise a été pionnière pour rendre son code source public : Twitter. Il y a deux ans, son équipe « Éthique, Transparence et Responsabilité » a publié le code d’un algorithme de recadrage d’images et a organisé une compétition permettant à quiconque d’y trouver d’éventuels biais [AlgorithmWatch, 2021]. Cette équipe a été l’une des premières à être licenciée l’année dernière.
Il ne suffit pas de lire un code source pour l’auditer. Il faut le faire fonctionner (l’exécuter) sur un ordinateur. En ce qui concerne l’Ukraine, par exemple, nous savons seulement que les Spaces Twitter étiquetés « UkraineCrisisTopic » subissent le même traitement que les articles étiquetés « violence » ou « porno ». Mais nous ne savons pas comment cette étiquette est attribuée, ni quels en sont les effets. Il semble que le code de ces fonctionnalités n’ait même pas été rendu public.
Publier du code informatique sans expliquer comment le faire fonctionner peut être pire qu’inutile. Cela permet de prétendre à la transparence tout en empêchant tout réel audit. Twitter n’est pas la première organisation à suivre cette stratégie.
La Caisse Nationale des Allocations Familiales a publié les 7 millions de lignes du code de son calculateur d’allocations suite à une demande d’informations publiques (demande CADA) [NextINpact, 2018]. On ne pouvait rien en tirer. J’ai fait une demande de communication des « documents d’architecture fonctionnelle », qui sont mentionnés dans des commentaires du code. La CNAF a répondu qu’ils n’existaient pas.
La loi européenne sur les services numériques prévoit que les « chercheurs agréés » pourront accéder aux « données » des très grandes plateformes, y compris éventuellement au code source [AlgorithmWatch, 2022]. Pour que la loi sur les services numériques fonctionne, il est essentiel que les entreprises traitent ces demandes comme le Twitter de 2021, et non comme le Twitter de 2023.
Enfin, la focalisation sur le code source est au service d’un projet politique. J’entends souvent dire que le code est le cœur d’une entreprise, que c’est un secret commercial précieusement gardé. C’est faux. Si c’était le cas, les fuites de code source nuiraient aux entreprises. Suite à des intrusions ou des fuites, le code source de Yandex et de Twitch a été publié récemment [ArsTechnica, 2021 et 2023]. À ma connaissance, ces entreprises n’en ont pas souffert.
Le code source n’est qu’un facteur parmi d’autres pour une entreprise du Web. Parmi les autres facteurs, citons les employés, les relations avec des politiques, les procédures internes, la position sur le marché, l’environnement juridique et bien d’autres encore. Mettre le code sur un piédestal implique que les autres facteurs sont sans importance. Les propriétaires de Twitter et de Meta (et ils sont loin d’être les seuls) ont dit très clairement que les ingénieurs étaient beaucoup plus importants que le reste de leurs employé·e·s. Pour eux, tout problème est fondamentalement technique et peut être résolu par du code.
Je suis certain que la publication du code source de Twitter conduira certains technologues à prétendre que le harcèlement en ligne, les agressions et la désinformation peuvent désormais être « corrigés » par une pull request (lorsqu’un contributeur à un projet open source propose une modification du code). Ce serait un pas dans la mauvaise direction.
]]>Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…
source : The Breadth of the Fediverse
Traduction Framalang : CLC, Goofy, Henri-Paul
par Ross Schulman
Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.
Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.
Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.
Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…
Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.
Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.
… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.
Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.
On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.
Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.
Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.
Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.
Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.
]]>
On cause beaucoup de Mastodon en ce moment. Notre dessinateur Gee s’est dit que c’était le moment pour vous en parler, pas spécialement d’un point de vue technique, mais juste pour vous dire ce qui lui plaisait dans ce réseau.
On en profite pour vous rappeler qu’il existe un merveilleux guide de découverte de Mastodon (créé collaborativement par des mastonautes) si vous voulez en savoir plus
Sachez que Gee sera présent au Capitole du Libre avec la team Framasoft à Toulouse ce week-end ! Il y dédicacera les bouquins suivants :
Viendez beaucoup !
Avec le rachat de Twitter par Elon Musk, une nouvelle vague d’arrivées a atteint Mastodon, le réseau de microblog libre et décentralisé.
Je ne doute pas que la vague retombera, à commencer parce que Mastodon ne vous manipule pas pour vous rendre accro à son utilisation.
Ça fait partie des choses que j’aime sur Mastodon : un design qui tente de désamorcer les comportements malveillants.
Je pourrais aussi vous parler des CW, les « content warning » (avertissement sur le contenu) qui permettent de masquer un message en précisant juste le sujet en clair.
On peut également flouter les images par défaut, ce qui permet par exemple de commenter une image de film contenant un spoiler en prévenant les gens avant un clic malencontreux.
« Not Safe For Work », ne regardez pas ça au boulot.
Alors bien sûr, ce design qui se veut apaisé (et apaisant) implique aussi de se défaire de certains réflexes de Twitter…
En même temps, qu’est-ce que c’est reposant, même à un niveau purement technique.
Même les liens sur lesquels vous cliquez ne vous pistent pas, encore une fois contrairement à Twitter.
Après, Mastodon n’est pas non plus un havre de paix et de tranquillité. Le côté microblog encourage toujours les prises de bec et la recherche de la bonne réplique ciselée, au lieu des débats sereins. Même avec une limite de caractères plus haute que sur Twitter.
On fait également souvent le reproche qu’il n’y a pas d’outil intégré pour faire un « thread », un fil de message continu (il faut répondre manuellement à chaque message).
Pour finir, je ne peux m’empêcher de vous parler de ce que je préfère dans Mastodon, sans aucun doute la killer feature la plus disruptive #StartUpNation
, face à laquelle Twitter ne pourra jamais rivaliser : les messages s’y appellent des « pouets ».
Oui je sais, la dernière version remplace « pouet ! » par « publier », mais ça restera toujours des pouets dans mon cœur. #TeamPouet
Crédit : Gee (Creative Commons By-Sa)
Et nous vous rappelons qu’il existe un merveilleux guide de découverte de Mastodon et du fédiverse pour vous accompagner sur ce sujet !
]]>Nous vous avons proposé déjà trois articles qui font écho à l’actualité récente autour de Mastodon en voici un 4e, celui d’Aral Balkan, traduit pour vous par Framalang. Le héraut du SmallWeb insiste avec humour sur un point en effet crucial : la taille géante de certaines instances, due à la conception technique même du Fédiverse, risque d’être problématique…
Donc, après :
Voici Is the fediverse about to get Fryed ?
Traduction Framalang :
(Ou « Pourquoi chaque pouet est aussi potentiellement une attaque par déni de service »)
Stephen est un gros poisson dans une petite mare (oui, j’en ai d’autres en réserve).
Attention : le Fédivers est sur le point de frire. Stephen Fry(re) bien sûr.
À la suite du récent rachat de Twitter par un milliardaire proto-fasciste immature, des gens ont fui1 vers le Fédiverse2. Parmi eux, certains avaient, au moins sur Twitter, des millions de followers, comme Greta Thunberg et, plus récemment, Stephen Fry3
— Eh bien, c’est sûrement une bonne chose, non ? Tout le monde va parler du Fédiverse, de la décentralisation, et peut-être même de ce Small Web dont tu parles tout le temps, Aral, non ?
Eh bien, oui et non… Trop de bonnes choses tue les bonnes choses. Et, dans le Fédiverse actuel, les bonnes choses seraient les « comptes populaires ». En fait, cela pourrait bien être fatal (pour les instances Mastodon). Je vais essayer de détailler dans cet article ce que je veux dire en prenant mon propre compte comme exemple.
(indice : en étant bavard quand vous êtes populaire)
Inutile de le préciser, je ne suis pas une célébrité.
Et pourtant, dans le Fédiverse, je me retrouve dans une situation un peu unique dans laquelle :
1. J’ai ma propre instance Mastodon, juste pour moi4.
2. Je suis suivi par pas mal de personnes. Plus de 22 000, pour être précis5.
3. Je suis beaucoup de personnes, et j’aime vraiment avoir des conversations avec elles (je pense que c’est ce que les jeunes branchés appellent « l’engagement »).
Malheureusement, la combinaison de ces trois facteurs a créé la tempête parfaite6, ce qui veut dire que désormais, chaque fois que je poste quelque chose qui suscite beaucoup d’engagement, je finis par conduire une attaque par déni de service contre moi-même.
Hier, c’était mon anniversaire.
Et, bien sûr, j’ai posté sur ce sujet depuis mon instance Mastodon.
J’ai eu pas mal de réponses. Et, pour être poli, j’ai commencé à répondre à tout le monde avec des messages de remerciements. Oh non, mon pauvre naïf ! Qu’est-ce que tu n’avais pas fait ?
Je vais laisser mon ami Hugo Gameiro, qui gère masto.host et héberge mon instance, expliquer ce qui s’est passé ensuite7 :
Vous avez beaucoup d’engagement et cela sollicite beaucoup Sidekiq8.
Prenez, par exemple, votre message d’anniversaire. En plus de demander à des milliers de serveurs de traiter votre demande de réalisation (on appelle ça des « jobs ») pour propager votre message (pour 23 000 abonnés, disons 3 000 serveurs), votre serveur au moment de la création de votre message va créer 3 000 jobs Sidekiq. Et comme votre Sidekiq n’a que 12 threads, traiter 3 000 jobs va prendre du temps puisqu’il ne peut en traiter que 12 à la fois.
Ensuite, pour chaque réponse à ce message, 3 000 jobs sont à nouveau créés, afin que vos abonnés puissent voir votre réponse sans avoir à changer de serveur ou aller sur votre profil. Et puis, si vous répondez à votre réponse, 3 000 jobs supplémentaires sont créés, etc.
Si vous répondez aux 100 réponses que vous avez reçues en 10 minutes (en supposant que l’estimation de mon nombre de serveurs est correcte), vous créez 300 000 jobs Sidekiq. C’est pour cela que ça bouchonne.
Mais qu’est-ce que tout cela veut bien dire, si on omet le jargon technique ?
Eh bien, que je parlais trop en étant trop connu de tous.
Voilà à quoi ressemble un embouteillage sur Mastodon.
Alors, quelle est la solution ?
Eh bien, il n’y a qu’une chose à faire quand vous vous retrouvez dans ce pétrin : agrandir votre instance Mastodon9. Le problème ? Ça commence à coûter cher.
Avant la dernière migration de Twitter10, je payais environ 280 €/an (un peu plus de 20 €/mois) pour mon instance Mastodon grâce à un partenariat que j’avais avec Hugo depuis le début. Cette semaine, je l’ai agrandie avec un plan à 50 €/mois. Et ce n’est toujours pas assez, comme le montre mon message d’anniversaire, donc Hugo a gentiment suggéré de me proposer un plan sur mesure.
Le problème n’est pas résolu pour autant, il est juste repoussé (sauf si cet article énerve tout le monde, bien sûr).
Heureusement, comme j’ai ma propre instance, la seule personne pénalisée par cette dépense supplémentaire, c’est moi. Mais que se serait-il passé si j’étais sur une instance publique gérée par quelqu’un d’autre ?
Si Elon Musk voulait détruire mastodon.social, l’instance phare de Mastodon, il lui suffirait de s’y inscrire11.
Heureusement, Elon n’est pas assez intelligent pour ça.
Je plaisante, bien sûr… Eugen bannirait très probablement son compte dès qu’il le verrait. Mais ça illustre un problème : Elon est facile à bannir. Stephen Fry l’est beaucoup moins. C’est un véritable trésor national pour nous tous. On ne le bannit pas comme ça.
Et pourtant, Stephen peut lui aussi (bien qu’involontairement) coûter très cher aux gens qui gèrent des instances Mastodon, simplement en rejoignant l’une d’elles12..
La solution, pour Stephen tout du moins, est simple : il devrait gérer sa propre instance personnelle.
Ou demander à quelqu’un de le faire à sa place, comme je le fais13.
Gérer sa propre instance apporterait aussi à Stephen un autre bénéfice : il serait automatiquement vérifié. Après tout, si vous parlez à, mettons, @stephen@social.stephenfry.com, vous pouvez être certain que c’est bien lui parce que vous savez qu’il gère son propre domaine.
Mon discours au Parlement européen sur les problèmes avec la Big Tech et les approches différentes que proposent Mastodon, le Fédiverse, et le Small Web.
— Attends, je suis largué… Tu ne viens pas de dire que les instances personnelles étaient une partie du problème ?
— Oui et non : elles le sont et elles ne devraient pas l’être.
Si ActivityPub (le protocole) et Mastodon (un serveur qui adhère à ce protocole) avaient été conçus pour promouvoir la décentralisation, alors avoir plus d’instances sur le réseau ne serait pas un problème. En fait, ça serait même le signe d’un réseau décentralisé sain.
Cependant, ActivityPub et Mastodon ont été conçus de la même manière que la Big Tech / Big Web : pour encourager des services qui hébergent le plus d’utilisateurs14 possible.
Cette architecture est à la fois complexe (ce qui la rend difficile et coûteuse à héberger) et très efficace pour la Big Tech (où les choses sont centralisées et passent à l’échelle verticalement, et où le but est d’avoir / de contrôler / d’exploiter autant d’utilisateurs que possible).
Dans la Big Tech, le coût initial pour passer à l’échelle est subventionné par de nombreuses sociétés de capital-risque (des personnes riches investissant dans de nouveaux business d’extraction et d’exploitation – ce que la Silicon Valley appelle des startups – dans le but de devenir encore plus riches), et ça mène à ces silos géants15 que sont aujourd’hui les Google, Facebook et Twitter.
Toutefois, à la différence de la Big Tech, le but avoué du Fédiverse est de décentraliser les choses, pas de les centraliser. Du coup, comment pourrions-nous atteindre l’opposé des buts de la Big Tech en adoptant leurs architectures de base ?
Lorsque vous adoptez le design de quelque chose, vous héritez aussi des critères de réussite qui ont mené à ce design. Si ces critères de réussite ne correspondent pas à vos objectifs, vous avez un sacré problème.
Pour le dire plus simplement :
N’adoptez pas les critères de réussite de la Big Tech, sinon vous deviendrez la Big Tech.
Aujourd’hui, il y a une équivalence entre la taille de mastodon.social (l’instance gérée par Eugen) et le succès de Mastodon (le logiciel créé par Eugen). C’est très dangereux. Plus mastodon.social grossit, plus il va ressembler à Twitter.
Je peux presque vous entendre crier : « Mais Aral, c’est fédéré ! Au moins, il n’y a pas de verrous sur mastodon.social ! ».
Et c’est vrai.
Vous savez ce qui est également fédéré ? L’e-mail.
Avez-vous déjà entendu parler de cette petite et vieille instance appelée Gmail ? (Ou peut-être les termes « adopte, étend, étouffe » ?)
Savez-vous ce qui arrive à votre e-mail si Google déclare (à tort ou à raison) que vous êtes un spam ? Personne ne voit votre e-mail.
Vous savez ce qui se passe si mastodon.social bloque votre instance ? Des centaines de milliers de gens (bientôt des millions ?) ne pourront plus décider d’afficher ou non vos messages.
Que se passe-t-il quand votre instance bloque mastodon.social ? Absolument rien.
C’est un réel déséquilibre des puissances.
Mastodon est non-lucratif, et je n’ai pas de raison de croire qu’Eugen n’ait pas les meilleures intentions du monde. Et pourtant, la décentralisation commence par se décentraliser soi-même.
C’est dans l’intérêt du Fédiverse que mastodon.social donne le bon exemple en limitant sa taille volontairement.
En fait, ça devrait même être intégré au logiciel. Les instances Mastodon devraient être empêchées de croître au-delà d’une certaine taille. Les instances qui sont déjà trop grosses devraient avoir des moyens d’encourager les gens à migrer vers des plus petites.
En tant que communauté, nous devrions aborder les grandes instances comme des tumeurs : comment pouvons-nous les détruire pour qu’elles ne soient plus un danger pour l’organisme ?
En poussant ce raisonnement, on arrive au concept du Small Web, un internet où nous possédons et maîtrisons notre propre lieu (ou nos propres lieux).
Cliquez sur l’image pour voir une vidéo (sur aperi.tube, une instance PeerTube) : Aral expliquant ce qu’est pour lui le Small Web
Small is beautiful ! (Petit c’est mieux) (octobre 2022) : Qu’est-ce que le Small Web et pourquoi en avons-nous besoin ?
Je ne dis pas que les protocoles et applications actuels du Fédiverse peuvent, vont, ou même devraient évoluer vers le Small Web16. Pour l’instant, le Fédiverse est un palliatif inestimable qui fournit un lieu plus sûr que les fosses septiques centralisées de la Silicon Valley.
Le temps que durera le palliatif dépendra de notre capacité à résister à la centralisation. Les designs des serveurs et des protocoles qui incitent au passage à l’échelle vertical ne rendront pas forcément cette tâche plus facile. Et pourtant, il y a des moyens de pression sociaux que nous pouvons utiliser pour contrer leurs effets.
La dernière chose qu’on souhaite, c’est qu’une poignée de Zuckerbergs au petit pied gouvernent le Fédiverse. Ou pire encore, que vous deveniez vous-même un de ces mini-Zuckerbergs.
J’aime le fait que le Fédiverse existe. Et j’ai le plus grand respect pour les efforts gargantuesques qui lui sont dédiés. Mais je suis aussi très préoccupé par les décisions prises en termes d’architecture qui incitent à la centralisation, et non à la décentralisation. Je nous implore de reconnaître cela, pour limiter les risques du mieux que nous le pouvons, pour nous efforcer d’apprendre de nos erreurs, et pour faire encore mieux demain.
Gens d’ActivityPub et de Mastodon :
Considérez-moi comme votre canari dans une mine de charbon…
« Cui-cui ! Cui-cui ! Cui-cui ! »
*Si vous souhaitez soutenir la Small Technology Foundation, qui est sans but lucratif : https://small-tech.org/fund-us
]]>L’afflux récent d’inscriptions sur Mastodon, sous forme de vague inédite de cette ampleur, a largement retenti dans les médias.
Beaucoup se sont penchés sur le réseau social fédéré avec une curiosité nouvelle, pour expliquer (parfois de façon maladroite ou fragmentaire, mais c’est habituel1) de quoi il retourne aux nombreux « migrants » qui ont réagi vivement à la prise de contrôle de l’oiseau bleu par E. Musk.
L’événement, car c’en est un tant les réseaux sociaux sont devenus un enjeu crucial, a suscité, et c’est tout à fait sain, beaucoup d’interrogations, mais souvent selon une seule perspective : « Vous venez de l’oiseau qui a du plomb dans l’aile, que pouvez-vous trouver et que devez-vous craindre en vous inscrivant sur Mastodon ? ». Et en effet cela répond plus ou moins à une forte demande.
Cependant il nous est apparu intéressant d’adopter le temps d’un article une sorte de contre-champ : « que peuvent espérer ou redouter les mastonautes (ben oui on peut les appeler ainsi) avec de massives nouvelles arrivées ? »
C’est ce que propose d’analyser Hugh Rundle dans le billet que nous avons traduit ci-dessous. Il connaît bien Mastodon, dont il administre une instance depuis plusieurs années. Sa position pourra sembler exagérément pessimiste, car il estime qu’il faudra faire le deuil de Mastodon tel qu’on l’a connu depuis les débuts du Fédiverse. Qui sait ce qu’apporteront les prochains mois à la fédération de serveurs minuscules ou obèses qui par leur interconnexion fédèrent des êtres humains, hors de portée du capitalisme de surveillance ? Comme d’habitude, les commentaires sont ouverts et modérés.
Article original sur le blog de l’auteur : Mastodon’s Eternal September begins
Licence CC BY 4.0
Plus personne n’y va. Il y a trop de monde.
Cette fois, on dirait bien que c’est arrivé. Alors que les sites d’information commençaient à annoncer qu’Elon Musk avait finalisé l’achat de Twitter, l’éternel septembre du Fediverse – espéré et redouté en proportions égales par sa base d’utilisateurs existante – a commencé.
Nous avons déjà connu des vagues de nouvelles arrivées – la plus récente au début de cette année, lorsque Musk a annoncé son offre d’achat – mais ce qui se passe depuis une semaine est différent, tant par son ampleur que par sa nature. Il est clair qu’une partie non négligeable des utilisateurs de Twitter choisissent de se désinscrire en masse, et beaucoup ont été dirigés vers Mastodon, le logiciel le plus célèbre et le plus peuplé du Fediverse.
À Hobart, à la fin des années 1990, il y avait essentiellement trois boîtes de nuit. Elles étaient toutes plus ou moins louches, plus ou moins bruyantes, mais les gens y allaient parce que c’était là que les autres se trouvaient – pour s’amuser avec leurs amis, pour attirer l’attention, pour affirmer leur statut social, etc. Ça, c’est Twitter.
J’avais un ami qui vivait dans une colocation au coin d’un de ces clubs populaires. Il organisait des fêtes à la maison les week-ends. De petites fêtes, juste entre amis avec quelques amis d’amis. Ça, c’est le Fediverse.
Pour ceux d’entre nous qui utilisent Mastodon depuis un certain temps (j’ai lancé mon propre serveur Mastodon il y a 4 ans), cette semaine a été accablante. J’ai pensé à des métaphores pour essayer de comprendre pourquoi j’ai trouvé cela si bouleversant.
C’est censé être ce que nous voulions, non ? Pourtant, ça ressemble à autre chose. Comme lorsque vous êtes assis dans un wagon tranquille, discutant doucement avec quelques amis, et qu’une bande entière de supporters de football monte à la gare de Jolimont après la défaite de leur équipe. Ils n’ont pas l’habitude de prendre le train et ne connaissent pas le protocole. Ils supposent que tout le monde dans le train était au match ou du moins suit le football. Ils se pressent aux portes et se plaignent de la configuration des sièges.
Ce n’est pas entièrement la faute des personnes de Twitter. On leur a appris à se comporter d’une certaine manière. À courir après les likes et les retweets. À se mettre en valeur. À performer. Tout ce genre de choses est une malédiction pour la plupart des personnes qui étaient sur Mastodon il y a une semaine. C’est en partie la raison pour laquelle beaucoup sont venues à Mastodon en premier lieu, il y a quelques années.
Cela signifie qu’il s’est produit un choc culturel toute la semaine, pendant qu’une énorme déferlement de tweetos descendait sur Mastodon par vagues de plus en plus importantes chaque jour. Pour les utilisateurs de Twitter, c’est comme un nouveau monde déroutant, tandis qu’ils font le deuil de leur ancienne vie sur Twitter. Ils se qualifient de « réfugiés », mais pour les habitants de Mastodon, c’est comme si un bus rempli de touristes de Kontiki venait d’arriver, et qu’ils se baladaient en hurlant et en se plaignant de ne pas savoir comment commander le service d’étage. Nous aussi, nous regrettons le monde que nous sommes en train de perdre.
Samedi soir, j’ai publié un billet expliquant deux ou trois choses sur l’histoire de Mastodon concernant la gestion des nœuds toxiques sur le réseau. Puis tout s’est emballé. À 22 heures, j’avais verrouillé mon compte pour exiger que les abonnés soient approuvés et mis en sourdine tout le fil de discussion que j’avais moi-même créé.
Avant novembre 2022, les utilisateurs de Mastodon avaient l’habitude de dire pour blaguer que vous étiez « devenu viral » si vous obteniez plus de 5 repouets ou étoiles sur un post.
Au cours d’une semaine moyenne, une ou deux personnes pouvaient suivre mon compte. Souvent, personne ne le faisait. Et voilà que mon message recevait des centaines d’interactions. Des milliers. J’ai reçu plus de 250 demandes de suivi depuis lors – tellement que je ne peux pas supporter de les regarder, et je n’ai aucun critère pour juger qui accepter ou rejeter. En début de semaine, je me suis rendu compte que certaines personnes avaient crossposté mon billet sur le Mastodon sur Twitter. Quelqu’un d’autre en avait publié une capture d’écran sur Twitter.
Personne n’a pensé à me demander si je le voulais.
Pour les utilisateurs d’applications d’entreprise comme Twitter ou Instagram, cela peut ressembler à de la vantardise. Le but n’est-il pas de « devenir viral » et d’obtenir un grand nombre d’abonnés ? Mais pour moi, c’était autre chose. J’ai eu du mal à comprendre ce que je ressentais, ou à trouver le mot pour le décrire. J’ai finalement réalisé lundi que le mot que je cherchais était “traumatique”.
En octobre, j’avais des contacts réguliers avec une douzaine de personnes par semaine sur Mastodon, sur 4 ou 5 serveurs différents. Soudain, le fait que des centaines de personnes demandent (ou non) à se joindre à ces conversations sans s’être acclimatées aux normes sociales a été ressenti comme une violation, une agression. Je sais que je ne suis pas le seul à avoir ressenti cela.
Le fait que tous les administrateurs de serveurs Mastodon que je connais, y compris moi-même, aient été soudainement confrontés à un déluge de nouveaux inscrits, de demandes d’inscription (s’ils n’avaient pas d’inscription ouverte), puis aux inévitables surcharges des serveurs, n’a probablement pas aidé. Aus.social a cédé sous la pression, se mettant hors ligne pendant plusieurs heures alors que l’administrateur essayait désespérément de reconfigurer les choses et de mettre à niveau le matériel. Chinwag a fermé temporairement les inscriptions. Même l’instance phare mastodon.social publiait des messages plusieurs heures après leur envoi, les messages étant créés plus vite qu’ils ne pouvaient être envoyés. J’observais nerveusement le stockage des fichiers sur ausglam.space en me demandant si j’arriverais à la fin du week-end avant que le disque dur ne soit plein, et je commençais à rédiger de nouvelles règles et conditions d’utilisation pour le serveur afin de rendre explicites des choses que « tout le monde savait » implicitement parce que nous pouvions auparavant acculturer les gens un par un.
Jusqu’à cette semaine, je n’avais pas vraiment compris – vraiment apprécié – à quel point les systèmes de publication des entreprises orientent le comportement des gens. Twitter encourage une attitude très extractive de la part de tous ceux qu’il touche. Les personnes qui ont republié mes articles sur Mastodon sur Twitter n’ont pas pensé à me demander si j’étais d’accord pour qu’ils le fassent. Les bibliothécaires qui s’interrogent bruyamment sur la manière dont ce “nouvel” environnement de médias sociaux pourrait être systématiquement archivé n’ont demandé à personne s’ils souhaitaient que leurs pouets sur le Fediverse soient capturés et stockés par les institutions gouvernementales. Les universitaires qui réfléchissent avec enthousiasme à la manière de reproduire leurs projets de recherche sur Twitter sur un nouveau corpus de pouets “Mastodon” n’ont pas pensé à se demander si nous voulions être étudiés par eux. Les personnes créant, publiant et demandant des listes publiques de noms d’utilisateurs Mastodon pour certaines catégories de personnes (journalistes, universitaires dans un domaine particulier, activistes climatiques…) ne semblaient pas avoir vérifié si certaines de ces personnes se sentait en sécurité pour figurer sur une liste publique. Ils ne semblent pas avoir pris en compte le fait qu’il existe des noms pour le type de personne qui établit des listes afin que d’autres puissent surveiller leurs communications. Et ce ne sont pas des noms sympathiques.
Les outils, les protocoles et la culture du Fediverse ont été construits par des féministes trans et queer. Ces personnes avaient déjà commencé à se sentir mises à l’écart de leur propre projet quand des personnes comme moi ont commencé à y apparaître il y a quelques années. Ce n’est pas la première fois que les utilisateurs de Fediverse ont dû faire face à un changement d’état significatif et à un sentiment de perte. Néanmoins, les principes de base ont été maintenus jusqu’à présent : la culture et les systèmes techniques ont été délibérément conçus sur des principes de consentement, d’organisation et de sécurité communautaires. Bien qu’il y ait certainement des améliorations à apporter à Mastodon en termes d’outils de modération et de contrôle plus fin des publications, elles sont en général nettement supérieures à l’expérience de Twitter. Il n’est guère surprenant que les personnes qui ont été la cible de trolls fascistes pendant la plus grande partie de leur vie aient mis en place des protections contre une attention non désirée lorsqu’elles ont créé une nouvelle boîte à outils pour médias sociaux. Ce sont ces mêmes outils et paramètres qui donnent beaucoup plus d’autonomie aux utilisateurs qui, selon les experts, rendent Mastodon « trop compliqué ».
Si les personnes qui ont construit le Fediverse cherchaient généralement à protéger les utilisateurs, les plateformes d’entreprise comme Twitter cherchent à contrôler leurs utilisateurs. Twitter revendique la juridiction sur tout le « contenu » de la plateforme. Les plaintes les plus vives à ce sujet proviennent de personnes qui veulent publier des choses horribles et qui sont tristes lorsque la bureaucratie de Twitter finit, parfois, par leur dire qu’elles n’y sont pas autorisées. Le vrai problème de cet arrangement, cependant, est qu’il modifie ce que les gens pensent du consentement et du contrôle de nos propres voix. Les universitaires et les publicitaires qui souhaitent étudier les propos, les graphiques sociaux et les données démographiques des utilisateurs de Twitter n’ont qu’à demander la permission à la société Twitter. Ils peuvent prétendre que, légalement, Twitter a le droit de faire ce qu’il veut de ces données et que, éthiquement, les utilisateurs ont donné leur accord pour que ces données soient utilisées de quelque manière que ce soit lorsqu’ils ont coché la case « J’accepte » des conditions de service. Il s’agit bien sûr d’une idiotie complète (les Condition Générales d’Utilisation sont impénétrables, changent sur un coup de tête, et le déséquilibre des pouvoirs est énorme), mais c’est pratique. Les chercheurs se convainquent donc qu’ils y croient, ou bien ils s’en fichent tout simplement.
Cette attitude a évolué avec le nouvel afflux. On proclame haut et fort que les avertissements de contenu sont de la censure, que les fonctionnalités qui ont été délibérément non mises en œuvre pour des raisons de sécurité de la communauté sont « manquantes » ou « cassées », et que les serveurs gérés par des bénévoles qui contrôlent qui ils autorisent et dans quelles conditions sont « excluants ». Aucune considération n’est donnée à la raison pour laquelle les normes et les possibilités de Mastodon et du Fediverse plus large existent, et si l’acteur contre lequel elles sont conçues pour se protéger pourrait être vous. Les gens de Twitter croient au même fantasme de « place publique » que la personne qu’ils sont censés fuir. Comme les Européens du quatorzième siècle, ils apportent la contagion avec eux lorsqu’ils fuient.
L’ironie de tout cela est que mon « fil de discussion viral » était largement consacré à la nature anarchiste et consensuelle du Fediverse. Beaucoup de nouveaux arrivants ont vu très vite que les administrateurs de leurs serveurs se battaient héroïquement pour que tout fonctionne, et ont donné de l’argent ou se sont inscrits sur un compte Patreon pour s’assurer que les serveurs puissent continuer à fonctionner ou être mis à niveau pour faire face à la charge. Les administrateurs se sont envoyés des messages de soutien privés et publics, partageant des conseils et des sentiments de solidarité. Les anciens partageaient des #FediTips pour aider à orienter les comportements dans une direction positive. Il s’agit, bien sûr, d’entraide.
C’est très excitant de voir autant de personnes expérimenter des outils sociaux en ligne anarchistes. Les personnes intelligentes qui ont conçu ActivityPub et d’autres protocoles et outils Fediverse l’ont fait de manière à échapper à la prédation monopolistique. Le logiciel est universellement libre et open source, mais les protocoles et les normes sont également ouverts et extensibles. Alors que beaucoup seront heureux d’essayer de reproduire ce qu’ils connaissent de Twitter – une sorte de combinaison de LinkedIn et d’Instagram, avec les 4chan et #auspol toujours menaçants – d’autres exploreront de nouvelles façons de communiquer et de collaborer. Nous sommes, après tout, des créatures sociales. Je suis surpris de constater que je suis devenu un contributeur régulier (comme dans « contributeur au code » 😲) à Bookwyrm, un outil de lecture sociale (pensez à GoodReads) construit sur le protocole ActivityPub utilisé par Mastodon. Ce n’est qu’une des nombreuses applications et idées dans le Fediverse élargi. D’autres viendront, qui ne seront plus simplement des « X pour Fedi » mais plutôt de toutes nouvelles idées. Alors qu’il existe déjà des services commerciaux utilisant des systèmes basés sur ActivityPub, une grande partie des nouvelles applications seront probablement construites et exploitées sur la même base d’entraide et de volontariat qui caractérise actuellement la grande majorité du Fediverse.
Beaucoup de personnes ont été enthousiasmées par ce qui s’est passé cette semaine. Les nouveaux arrivants ont vu les possibilités du logiciel social fédéré. Les anciens ont vu les possibilités de la masse critique.
Mais il est important que ce ne soit pas la seule chose qu’on retienne du début de novembre 2022. Mastodon et le reste du Fediverse peuvent être très nouveaux pour ceux qui sont arrivés cette semaine, mais certaines personnes œuvrent et jouent dans le Fediverse depuis presque dix ans. Il existait déjà des communautés sur le Fediverse, et elles ont brusquement changé pour toujours.
J’ai été un utilisateur relativement précoce de Twitter, tout comme j’ai été un utilisateur relativement précoce de Mastodon. J’ai rencontré certains de mes meilleurs amis grâce à Twitter, qui a contribué à façonner mes opportunités de carrière. Je comprends donc et je compatis avec ceux qui ont fait le deuil de leur expérience sur Twitter – une vie qu’ils savent désormais terminée. Mais Twitter s’est lentement dégradé depuis des années – j’ai moi-même traversé ce processus de deuil il y a quelques années et, franchement, je ne comprends pas vraiment ce qui est si différent maintenant par rapport à il y a deux semaines.
Il y a un autre groupe, plus restreint, de personnes qui pleurent une expérience des médias sociaux qui a été détruite cette semaine – les personnes qui étaient actives sur Mastodon et plus largement le Fediverse, avant novembre 2022. La boîte de nuit a un nouveau propriétaire impétueux, et la piste de danse s’est vidée. Les gens affluent vers la fête tranquille du coin, cocktails à la main, demandant que l’on monte le volume de la musique, mettent de la boue sur le tapis, et crient par-dessus la conversation tranquille.
Nous avons tous perdu quelque chose cette semaine. Il est normal d’en faire le deuil.
]]>Le potentiel rachat de Twitter par Elon Musk inquiète les membres de ce réseau, qui cherchent des alternatives et se créent en masse des comptes sur Mastodon, dans le fédiverse. Vous n’avez rien compris à tous ces mots ? Tout va bien, on vous explique tout ça dans cet article et en vidéo !
Cette nouvelle qui agite le monde des affaires de la Silicon Valley illustre une certitude qui nous habite depuis des années : derrière le choix des outils numériques, il y a un choix de société.
Que ce rachat de Twitter par le milliardaire conservateur se finalise ou non, au final peu importe : le danger a toujours été là.
C’est le trop grand pouvoir des géants du web. C’est le danger de l’accumulation des informations et des attentions de centaines de millions d’êtres humains. Lorsqu’on centralise tout le monde sur une plateforme, lorsqu’un outil numérique peut accéder à votre cerveau, alors les personnes qui s’achètent un accès à ces outils s’achètent un accès à nos cerveaux.
Cumulez des accès précis à suffisamment de cerveaux et vous pouvez manipuler une société vers vos intérêts.
C’est ce que Steve Bannon a fait lorsqu’il a utilisé Cambridge Analytica et son site d’information/fake news BreitBart News pour viraliser l’extrême droite et polariser les USA (voir l’excellent dossier de Hacking Social sur Cambridge Analytica, dont l’article consacré au travail de manipulation culturelle réalisé par Steve Bannon et financé par des milliardaires).
Car Twitter, comme Facebook mais aussi comme Framapad, n’est pas neutre. Aucun outil n’est neutre, mais c’est encore plus vrai pour les logiciels, qui sont des outils complexes. Le code fait loi, car il permet de déterminer quelles actions seront possibles ou pas, donc d’influencer l’expérience que vous vivrez en utilisant cet outil.
L’architecture d’un logiciel, c’est (par exemple) faire le choix de fonctionner avec une unique plateforme centralisatrice ou de multiples instances fédérées. Ces choix d’architecture déterminent la politique du logiciel, l’organisation sociale qu’il induit, donc le choix de société qui est porté par l’outil numérique sur lequel vous passez les précieuses minutes de votre vie.
Si vous désirez tester une alternative indépendante, résiliente et conviviale à Twitter, nous vous recommandons de faire des « pouets » sur un drôle d’éléphant : Mastodon.
Mastodon, ce n’est pas une plateforme qui cumule tous les gens, toute l’attention et donc tout le pouvoir (coucou Twitter 😘) : c’est une fédération de fournisseuses qui se connectent ensemble (un peu comme l’email).
Ces fournisseuses hébergent une installation du logiciel Mastodon sur leur serveur : si vous vous y créez un compte, vos données se retrouveront sur ce serveur, chez cet hébergeuse. Vous pouvez imaginer que c’est une propriétaire qui vous loue une chambre, ou un stand à la foire : est-ce que vous voulez être chez la méga propriétaire de la foire immensissime et déshumanisée (Twitter) ou chez la petite propriétaire de la petite foire qui s’est connectée avec les foires des villages voisins ? (Mastodon)
Votre mission, c’est de trouver où vous créer un compte. Vous avez donc le choix entre plusieurs fournisseuses de Mastodon, qui ont chacune des motivations, des moyens, des conditions d’utilisations différentes.
C’est important de dire que votre compte Mastodon ne sera pas hébergé par une méga entreprise déshumanisée qui vous considérerait comme une vache-à-données. Les personnes qui fournissent du Mastodon le font par passion, sur leur temps à elles, et c’est du boulot !
Beaucoup de fournisseuses auront des règles (modération, fake news, pornographie…) liées à leurs motivations : vous avez donc tout intérêt à vous demander si leur politique de modération et de publication correspond à vos valeurs. Car liberté ne veut pas dire fête du slip de l’inconséquence : si vous êtes libres d’utiliser Mastodon comme vous voulez (sur votre serveur à vous), les personnes qui vous offrent un compte sur leur hébergement Mastodon n’ont pas pour devoir de vous offrir une plateforme… D’autant plus si elles estiment que vous ne vous arrêtez pas là où commence la liberté des autres.
En fait, on ne s’inscrit pas chez une telle fournisseuse comme on rentre dans un hypermarché, car vous n’êtes ni une cliente ni un produit.
Par ailleurs, il est souvent demandé (ou de bon ton) de se présenter lorsqu’on demande à rentrer sur une instance, ou lorsqu’on vient d’y être acceptée. Ainsi, n’hésitez pas à ce que votre premier pouet inclue le hashtag #introduction pour vous présenter à la communauté.
Pour vous aider, on va vous faire une sélection juste après, parmi les amies des CHATONS. Car ce collectif d’hébergeuses alternatives s’engage à appliquer des valeurs de manière concrète (pas de pistage ni de GAFAM, neutralité, transparence) qui inspirent la confiance.
Mais avant de vous créer un compte, souvenez-vous que c’est toujours compliqué de tester un nouveau réseau social : il faut se présenter, se faire de nouvelles amies, comprendre les codes… 🤯 Vous vous doutez bien que Twitter veut garder les gens chez lui, et n’offrira aucune compatibilité, ni moyen de retrouver des personnes. Bref, il faut prendre Mastodon comme un nouveau média social, où on recommence à construire sa communauté de zéro.
Soyez choues avec vous : donnez-vous le temps, et n’hésitez pas à garder Twitter en parallèle, au moins au début. Il existe même des outils qui permettent de prendre vos pouets sur Mastodon et de les copier sur votre compte Twitter, histoire que ce soit pas trop dur de maintenir vos deux comptes pendant votre transition.
Bonne nouvelle : si vous ne choisissez pas la bonne fournisseuse du premier coup, c’est pas si grave : on peut migrer son compte d’une fournisseuse à l’autre. Peu importe chez qui vous vous inscrivez, vous pourrez communiquer avec tout cet univers fédéré (« federated universe » = fédiverse : on vous explique ça plus bas en vidéo !)
À Framasoft, nous hébergeons Framapiaf, notre installation de Mastodon. Mais il y a déjà beaucoup trop de monde d’inscrit dessus : nous n’y acceptons plus de nouveaux comptes. Grossir indéfiniment pourrait créer des déséquilibres dans la fédération et surcharger les épaules de notre petite équipe de modération !
Parce que le but, c’est de garder des « instances » Mastodon (c’est le nom qu’on donne au serveur d’une fournisseuse de Mastodon), à taille humaine, dont l’équipe, les choix, les motivations, etc. vous inspirent confiance. Et qu’à cela ne tienne, il en existe beaucoup !
Voici donc notre sélection, mais qui n’est pas exhaustive : il y en a plein d’autres des super bien, et vous pouvez en trouver la plupart sur le site joinmastodon.org.
Vous pouvez aller chez Zaclys, une association franc-comtoise qui, pour professionnaliser ses services, est devenue une SARL, mais avec la même équipe et la même éthique.
Underworld, en revanche, c’est une personne sur Paris qui héberge des services avec amour, pour le plaisir et le savoir, et qui vous aide si vous lui payez l’apéro 🍻
Immaeu, c’est une petite entreprise d’une personne, qui ne cherche pas à faire de profit sur ses services (mais qui accepte les tips ou fait payer les grosses demandes spécifiques).
G3L est une association en Drôme-Ardèche qui promeut les logiciels libres. Elle vit principalement des dons et cotisations de ses membres.
FACIL est une association québecoise qui œuvre à l’appropriation collective de l’informatique libre. Leur instance Mastodon a le plus beau nom au monde : « Jasette ».
Si vous voulez qu’on vous installe votre propre instance Mastodon en quelques clics (moyennant quelques sous), Ethibox est la micro entreprise là pour vous !
Enfin, Chapril, c’est le chaton de l’APRIL, l’association de défense et de promotion du logiciel libre. Elle vit grâce aux cotisations et dons de ses membres : rejoignez-là !
Les pouets de Mastodon, les vidéos de PeerTube, les événements et groupes de Mobilizon, etc., toutes ces informations se retrouvent dans le « Fédiverse ».
Mais c’est quoi, le fédiverse ? Pour vous répondre, nous avons travaillé avec l’association LILA afin de produire une courte vidéo en anglais (déjà sous-titrée en français : aidez nous à la traduire depuis l’anglais dans d’autres langues sur notre plateforme de traduction).
Nous profitons donc de cet article pour vous dévoiler cette vidéo, que vous pouvez partager massivement autour de vous !
]]>L’équipe de traduction des bénévoles de Framalang vous propose aujourd’hui le bref témoignage de Silvia, une designeuse indépendante1, qui avait atteint comme beaucoup un degré d’addiction élevé aux réseaux sociaux. Comme d’autres aussi, elle a renoncé progressivement à ces réseaux, et fait le bilan après six mois du nouvel état d’esprit dont elle a bénéficié, une sorte de sentiment de soulagement, celui d’avoir retrouvé un peu de liberté…
Bien sûr chacun a une trajectoire différente et la démarche peut n’être pas aussi facile, mais pourquoi ne pas tenter ?
Article original sur le blog de l’autrice : Life off social media, six months in
Traduction Framalang : Bromind, Diane, Florence, goofy, Marius, ngfchristian, Penguin
par Silvia Maggi
J’étais vraiment partout. Citez-moi un réseau social, et sans doute, j’y avais un compte… Internet a toujours été important pour moi, et un certain degré de présence en ligne était bon pour mon travail, mes hobbies et mes relations sociales.
Mes préférés étaient Twitter, Flickr et LinkedIn. J’ai été une utilisatrice plutôt précoce. Puis sont arrivés Facebook et Instagram, qui sont ensuite devenus les principales raisons pour lesquelles j’ai fermé la plupart de mes comptes. Dès l’origine, j’ai eu une relation d’amour-haine avec Facebook. La première fois que je m’y suis connectée, j’ai détesté l’interface, les couleurs, et j’avais du mal à voir l’intérêt. D’ailleurs, j’ai aussitôt fermé le compte que je venais d’ouvrir, et je n’y suis revenue que plus tard, poussée par des amis qui me disaient « on y est tous et c’est marrant ».
Avec Instagram, le ressentiment est monté progressivement. Mon amour pour la photographie aurait pu être satisfait par l’application mais c’était également une période où les filtres étaient utilisés à outrance – à l’époque, l’autre application en vogue pour la prise de photos était Hipstamatic – et je préférais de toute façon prendre des clichés plutôt avec un appareil photo.
À mesure que la popularité d’Instagram augmentait, associée à la qualité du contenu, je suis devenue accro. Je n’ai jamais effacé mon compte Flickr, mais je ne visitais que rarement la plateforme : à un moment, on a eu l’impression que tout le monde avait migré vers l’application aux photos carrées. Cependant, quand Facebook a acheté Instagram pour 1 milliard de dollars en 2012, son avenir est devenu malheureusement évident. Avance rapide jusqu’à janvier 2021 : j’ai désactivé ce que je considérais à une époque comme mon précieux compte Instagram, et j’ai également fermé mon compte WhatsApp. Avant cela, j’avais fermé mes comptes Twitter, Facebook et Pinterest. Six mois plus tard, je peux dire comment les choses se sont passées.
Au début, c’était une sensation étrange : quelque chose manquait. Dans ma vie, je m’étais habituée à un certain niveau de bruit, au point de ne plus m’en rendre compte. Une fois qu’il a disparu, cela est devenu si évident que je m’en suis sentie soulagée. J’ai désormais moins d’opportunités de distractions et ainsi, il m’est devenu progressivement, plus facile de rester concentrée plus longtemps. En conséquence, cela a considérablement amélioré ma productivité et désormais, je suis à même de commencer et terminer la lecture de livres.
Je ne prête plus l’oreille aux mèmes, scandales ni à tout ce qui devient viral ou tendance sur les réseaux sociaux. Au lieu d’avoir peur de rater quelque chose, j’y suis indifférente. Le temps que je passais à suivre ce qui arrivait en ligne, je le passe ailleurs. Et le mieux dans tout ça, c’est que je ne me sens pas obligée de donner mon avis. J’ai des opinions précises sur les choses qui me tiennent à cœur, mais je doute que le monde entier ait besoin de les connaître.
En ce moment historique, tout peut être source de division, et les réseaux sociaux sont un endroit où la plupart des gens choisissent un camp. C’est un triste spectacle à voir car les arguments clivants sont amplifiés mais jamais réellement apaisés.
Il y a quelques années, je pensais qu’avoir du succès sur Instagram pourrait devenir mon boulot d’appoint. C’est arrivé à beaucoup de gens, alors pourquoi pas moi ? J’avais acheté un cours en ligne, proposé par un influenceur célèbre, pour comprendre comment rendre mon compte Instagram digne d’intérêt, et faire monter mes photos tout en haut grâce à l’algorithme.
À partir de ce moment, je me suis retrouvée enfermée dans une boucle. Je sortais et prenais avec frénésie plein de photos, les publiais puis je vérifiais les statistiques pour voir comment elles évoluaient. J’ai eu de bons moments, rencontré des personnes géniales, mais ce n’était jamais assez. En tant que photographe, je n’en faisais jamais assez. Les statistiques sont devenues un problème : j’en étais obsédée. Je les vérifiais tout le temps, me demandant ce que je faisais mal. Quand tout cela est devenu trop, je suis passée à un compte personnel, espérant résoudre mon problème en cliquant sur un simple bouton. Ça ne s’est pas passé ainsi : les chiffres n’étaient pas le vrai problème.
À chaque fois que j’éprouvais comme une démangeaison de photographier, et que je ne pouvais pas prendre de photos, je me sentais coupable parce que je n’avais rien à poster. Ma passion pour la photographie est passée d’une activité qui ne m’a jamais déçue, à une source d’anxiété et de sentiment d’infériorité. Depuis que j’ai désactivé mon compte Instagram, je prends des photos quand j’en ai envie. Je les poste sur Flickr, ou bien je les garde pour moi. Ça ne compte plus vraiment, tant que c’est un exutoire créatif.
Chaque fois que j’avais quelque chose à dire ou à montrer, je postais presque immédiatement sur un réseau social. C’était la chose normale à faire. Même si cela a diminué pendant les dernières années, je vois cela comme une attitude étrange de ma part. C’est peut-être une réflexion due au fait que je me connais un peu mieux désormais, mais il m’a toujours fallu du temps pour assimiler des concepts et me forger des opinions. C’est pour cela que je préfère écrire sur mon blog et que j’ai réduit récemment ma fréquence de publication : je donne davantage de détails sur mes apprentissages et mes réalisations récentes.
Quitter les réseaux sociaux a été une bonne décision pour moi. Je suis plus concentrée, moins anxieuse et j’ai à présent plus de temps libre. Cela, en plus des divers confinements, m’a permis de mieux me concentrer et réfléchir davantage à ce qui compte vraiment. Prendre cette décision ne conviendrait certainement pas à tout le monde, mais il est important de réaliser à quel point les réseaux sociaux influencent nos vies, et à quel point ils peuvent changer nos habitudes ainsi que notre manière de penser. Et ainsi, prendre des décisions à notre place.
Pour aller plus loin
Des articles en anglais
Des très nombreux témoignages en français qui mettent souvent l’accent sur la difficulté à se « sevrer »…
Mise à jour
22 Novembre 2021. Il y a deux mois, je me suis connectée à Instagram et n’ai rien ressenti. J’ai vu une vidéo d’un ami, mais je n’ai nullement éprouvé le besoin de regarder plus loin.
Il n’y avait aucun intérêt à maintenir ce compte en mode inactif, alors j’ai demandé sa suppression.
Maintenant c’est fini.
]]>
Même si Facebook Meta s’est efforcé de démentir rapidement, la nouvelle a eu le temps de recueillir un beau succès : ne serait-ce qu’envisager de priver l’Europe de Facebook et Instagram a semblé une si plaisante perspective que beaucoup sur les rézosocios ont crié « chiche ! » ou » bon débarras » en assortissant les messages ironiques d’une quantité de mèmes.
C’est l’occasion pour Aral Balkan, qui se réjouit d’un tel rejet implicite de facebook, d’examiner les bonnes raisons de renoncer non seulement à Facebook, mais aussi à toutes sortes de services qui nous asservissent. Tous jouent la même partition, celle du capitalisme de surveillance prédateur de nos données.
Dans ce bref article traduit par Framalang, il invite aussi à adopter des solutions alternatives plus respectueuses de l’humain et de la démocratie.
Article original : Everyone Hates Facebook (but this is more than just about Facebook)
Traduction Framalang : Bromind, Claire, Fabrice, goofy, Julien, mo, Sysy
par Aral Balkan
— Mark Zuckerberg et son équipe envisagent de fermer Facebook et Instagram en Europe si Meta ne peut pas traiter les données des Européens sur des serveurs américains.
(source)
« C’est alors que mon fil Twitter a pris feu avec une rare unanimité, la gauche et la droite, les riches et les pauvres, les bien portants et les malades, tous d’accord et acquiesçant pour répondre oui, mais oui, allez-y, faites-le. »
Bon, c’est désormais officiel, tout le monde déteste Facebook.
Mais les raisons de cette détestation ont leur importance. Il en va de même pour ce que nous voulons en faire.
D’autres bonnes raisons de détester Facebook et les éleveurs d’humains, dans ma conférence : The Camera Panopticon
Nous sommes donc toutes et tous d’accord pour dire que Facebook est un problème.
Certains pour de bonnes raisons, d’autres pour de mauvaises raisons…
Mais il ne s’agit pas que de Facebook : cela concerne toute société qui utilise le même modèle économique que Facebook.
Ce modèle économique que j’appelle « un élevage d’humains ».
Il s’agit donc également de Google. Et de Snapchat. Et de TikTok. Et aussi de… et de… ad nauseam. Car tel est le modèle économique utilisé aujourd’hui par les technologies grand public.
Nous avons donc un plus gros problème, systémique, sur les bras (youpi !). Et tout le monde semble avoir une idée ou une autre sur la façon dont nous devrions agir différemment à l’avenir.
Eh oui, c’est exactement l’actuelle stratégie de canard sans tête de la Commission européenne, vu que ses membres sont incapables de voir au-delà des marchés et de l’antitrust.
Regardez mon intervention au Parlement européen dans laquelle je résume le problème et propose une solution.
Regardez les enregistrements de Small is Beautiful, l’émission mensuelle de la Small Technology Foundation, pour en savoir plus à propos de mes travaux sur le Small Web.
Détester Facebook, c’est très bien, mais surtout n’oublions pas qu’il n’est pas seulement question de Facebook. Il s’agit plus largement d’élevage d’humains.
Si Facebook disparaît demain mais qu’un autre Facebook le remplace, nous n’aurons rien gagné au change.
Alors, je vous en prie, assurons-nous de bien comprendre les différences entre les diverses alternatives et choisissons celles qui aboutiront à un progrès significatif dans la protection de l’identité individuelle et de la démocratie.
(Un indice ? Regardez l’intention qui est derrière l’organisation. Est-ce que son but, c’est de gagner des milliards de dollars ou de protéger les droits humains et la démocratie ? Et oui, peu importe ce que les capitalistes vous diront, les deux buts sont diamétralement opposés et mutuellement exclusifs.)
Si vous avez aimé cet article, vous pouvez soutenir la fondation de son auteur, Small Technology, qui est petite, indépendante, et à but non-lucratif.
Le but de cette fondation de 2 personnes est de protéger les personnes et la démocratie à l’ère numérique.
]]>La question compliquée et parfois houleuse du militantisme nous intéresse depuis longtemps à Framasoft, aussi avons-nous demandé à Viciss de Hacking Social, de s’atteler à la tâche.
Voici déjà le troisième épisode [si vous avez raté les épisodes précédents] de son intéressante contribution, dans laquelle elle établit une intéressante analogie entre les techniques de sabotage conseillées par les services secrets et les processus parfois involontaires par lesquelles le militantisme déconnant sabote la construction d’un projet militant.
Nous publions un nouveau chapitre de son travail chaque vendredi à 13:37 sur le Framablog, mais si vous préférez, vous pouvez télécharger dès maintenant l’essai intégral de Viciss qui comprend une bibliographie revue et augmentée :
Quand le militantisme déconne, format .pdf (5,6 Mo)
Toutes les sources sont sous licence Creative Commons CC-BY-SA et disponibles sur ce dépôt.
Si nous parlons ici de sabotage, c’est parce que nous allons dans un premier temps prendre exemple sur l’activité malveillante d’infiltration dans des mouvements militants afin de les rendre inefficaces voire de les détruire, une activité pratiquée par les adversaires au mouvement : il peut s’agir par exemple d’adversaires idéologiques qui ne sont pas des professionnels, comme les fascistes peuvent créer de faux profils « SJW »1 (qu’ils estiment ennemis) et jouer à la militance déconnante pour les décrédibiliser et détruire globalement l’image de la cause. L’histoire évoquée précédemment où il a été exigé d’ajouter un « TW »2 sur une recette contenant du Kiri ressemble fortement à une pratique de ce genre, jouée par quelqu’un qui chercherait à ridiculiser les végans, à les faire passer pour des « fragiles » (mais ce n’est qu’une hypothèse, rien ne permet d’affirmer qu’il y aurait derrière un véritable saboteur anti-vegan, je me permets de prendre cette illustration justement parce qu’un saboteur hostile ne s’y serait pas mieux pris).
Ici, on va surtout aborder le jeu de l’infiltration selon les conseils des renseignements, à savoir l’OSS (ex-CIA, qui a déclassifié des documents datant de la Seconde Guerre Mondiale).
Attention, si nous nous appuyons sur les techniques de sabotage social de l’OSS pour illustrer le militantisme déconnant, ce n’est aucunement pour affirmer que tout saboteur qui nuit au mouvement est systématiquement un adversaire infiltré. Ce que nous voulons au contraire montrer, c’est qu’un militant déconnant s’évertue sans le vouloir à saboter de l’intérieur son propre mouvement, à savoir : susciter de la méfiance ou de la répulsion chez le potentiel allié ou spectateur, offrir à l’adversaire une relative tranquillité permettant à ce dernier de nuire de plus belle, de gripper le travail d’information efficace, empêcher de construire et de régler les problèmes de fond qui sapent la militance.
Dans les années 40, l’OSS a rédigé un guide à l’usage des citoyens de pays occupés durant la Seconde Guerre Mondiale afin de les aider à entraver l’activité des Nazis, notamment parce que les citoyens étaient forcés de travailler pour eux. Tout était bon à prendre pour générer et propager l’improductivité, l’inefficacité dans presque tous les corps de métiers, ce qui était bénéfique pour les citoyens, résistants et alliés puisque la production était pompée par l’occupant et servait à la destructivité. Ainsi, ces leçons font l’inventaire de ce qui pourra perturber, entraver les environnements sociaux.
Par exemple, l’OSS conseille aux saboteurs ceci :
(2) faites des « discours ». Parlez aussi fréquemment que possible et très longuement. Illustrez vos « points » par de longues anecdotes et expériences personnelles. N’hésitez pas à faire quelques commentaires patriotiques appropriés.
(6) Reportez-vous aux questions résolues de la dernière réunion et tentez de rouvrir le débat à leur sujet.
(8) Inquiétez-vous au sujet de la légalité et de la légitimité de toute décision : posez la question de savoir si telle action envisagée relève ou non de la compétence du groupe, inquiétez-vous publiquement du fait que cela pourrait être une action qui entre en conflit avec la politique des supérieurs.
On pourrait retrouver ces comportements dans la militance : par exemple, lors de réunions ou de communication portant sur la création d’un site web, les saboteurs vont discourir sans fin sur un point hors-sujet ou peu pertinent alors que l’ordre du jour était clair et précis ; ils vont s’énerver sur l’usage inapproprié d’un smiley ; ils vont tenir un discours narcissisant en vantant leurs victoires/qualités ou compétences ; ils vont débattre sans fin sur la pureté éthique de l’hébergeur ; etc. Sur les réseaux sociaux/les tchats, cela peut se faire en détournant une conversation portant sur un sujet X très clair en parlant de tout autre chose, par exemple en lançant un débat enflammé sur tel mot employé (et en ignorant totalement le sujet X).
Résultat : l’action n’avance pas, donc la cause non plus. Tout le monde craint la future réunion ou communication parce que ça va être très saoulant et inutile, certains n’osent plus soulever des points pertinents tant la parole est occupée et le débat dominé par ces individus. Le sentiment d’impuissance s’installe.
« (4) Posez des questions non pertinentes aussi fréquemment que possible.
- donnez des explications longues et incompréhensibles quand vous êtes interrogé »
Par exemple, lors d’un live sur Internet, cela peut se manifester par le fait de soulever des questions qui ne sont pas du tout dans le sujet. Imaginons une discussion portant sur la place de la philosophie dans la vulgarisation, une remarque sapante consistera à demander pourquoi l’interlocuteur boit un coca, emblème d’une horrible multinationale alors qu’il faudrait tous être parfaitement anticapitalistes/écolos ; en lui posant des questions sans lien avec le propos, s’il connaît l’UPR (question qui sera réitérée autant de fois que possible) ; le suspecter de mensonge et d’incompétence parce qu’il ne cite pas de tête l’intégralité des chiffres de telle étude et ceux des 15 méta-analyses qui ont suivi ; en lui demandant avec un ton accusateur pourquoi il ne parle pas de l’attentat qui a eu lieu il y a 7 mois alors que c’était horrible et que c’est ça le vrai ennemi, le principal sujet, etc.
On pourrait aussi taxer ces méthodes de trolling, mais le but du trolling consiste juste à instaurer une forme de chaos et pour le troll, le but de tester n’importe quel comportement ; or un militant déconnant peut sincèrement croire que sa technique autosabotante est bonne pour son mouvement :
Résultat : ça saoule les intervenants et ceux qui sont intéressés par le sujet, ça coupe ou empêche de voir les questions pertinentes (donc ça entrave une communication, un débat constructif qui aurait pu avancer), ça dégrade l’image de la cause des questionneurs auprès des spectateurs parce que c’est associé à une espèce de prosélytisme intempestif ou à des interruptions non pertinentes.
« (5) Soyez tatillon sur les formulations précises des communications, des procès-verbaux, des bilans.
- soyez aussi irritable et querelleur que possible sans pour autant vous mettre dans l’ennui. »
Ici on arrive à un grand classique des réseaux sociaux, qui a débuté il me semble par le mouvement des grammar nazis (qui sont à ma grande surprise de « vrais » militants qui croient sincèrement en leur croisade3, même si manifestement personne n’est jamais tombé amoureux de la langue française en se faisant juger comme un criminel sous prétexte qu’il avait mal gèrè l’inclinaison d’un accent) qui va commenter uniquement pour souligner les fautes d’orthographe, de grammaire, ou pour critiquer l’usage des anglicismes, la prononciation des mots, l’accent, l’espace en trop, la TYpogrAPHie……………… ETC………… Et ça donne ce genre de chose :
« Un jour, j’ai discuté avec un mec qui avait signalé une faute de ponctuation dans le statut Facebook d’une amie qui remerciait les gens pour leurs condoléances à la suite du décès de sa mère… Il n’avait même pas vraiment lu le statut en question. Et j’ai compris que moi non plus, je ne lisais pas vraiment les statuts. Je me contentais de chercher les fautes. » (20minutes.fr)
Ce type de chasse et de procès à la « faute » peut aussi se faire à l’encontre de termes qui sont accusés d’être malveillants : par exemple, une personne vient se confier, à bout, dans l’espoir de trouver du réconfort et de l’aide (même en privé) auprès de ses alliés, et ne reçoit en retour qu’une violente correction « ce mot que tu as employé est psychophobe/insultant envers les travailleurs du sexe/homophobe/, etc », sans que son propos ait même été entendu :
« Récemment, elle [une militante] a vu avec amertume une jeune mère, victime de violences, qui sollicitait de l’aide sur un groupe Facebook de parentalité féministe, se faire corriger, car elle n’employait pas les termes jugés inclusifs pour les personnes trans ou non binaires. « Elle avait besoin de manger, pas qu’on lui dise comment s’exprimer. » (neonmag.fr)
On voit que cette tatillonerie s’oppose directement au travail militant, dans le sens où s’attaquer au terme mal employé a pour conséquence de ne pas aider cette femme bien que ce soit pourtant un objectif central du mouvement. Le travail est donc directement saboté avant même de commencer.
La formulation précise devient un devoir tellement suprême que le militant déconnant semble supprimer toute empathie pour autrui, nie son émotion, ses besoins et encore plus si c’est un allié.
Résultat : les personnes n’osent pas parler sans over-justifier leur propos, n’osent pas exprimer des émotions ou aborder des sujets qui les touchent de peur d’utiliser de mauvais termes malgré eux, voire n’osent même pas rejoindre les mouvements de peur de ne pas avoir les bons mots, les bons codes :
« Elle est étudiante et souhaite s’engager pour la première fois dans l’association dont je suis membre. Au téléphone, elle tourne autour du pot, hésitante, comme tourmentée. Et finit par admettre qu’elle a très peur de mal s’exprimer. De ne pas employer les mots justes. De ne pas savoir. Sa crainte a étouffé jusqu’ici ses envies d’engagement. Tandis que je tente de la rassurer, je lis dans son angoisse la confirmation d’un phénomène que j’observe depuis que j’ai l’œil sur les mouvements de défense de la justice sociale : une forme d’intransigeance affichée, propre à inhiber ou décourager certaines bonnes volontés. Une course à la pureté militante qui fait des ravages. (neonmag.fr).
L’autre conséquence de tout cela est d’en venir à percevoir le mouvement comme un ennemi, puisqu’à force les seules interactions que l’on peut avoir avec lui en tant que tiers peuvent n’être qu’attaque et réprobation, et par un phénomène d’escalade et de réactance4, le tiers ciblé va progressivement se positionner dans le clan adverse.
Globalement, l’action est freinée, l’adversité n’est pas combattue, voire est protégée par ces comportements (elle peut continuer sa destructivité en toute tranquillité). Plutôt que de convaincre, la cause est de plus en plus décrédibilisée et associée à une nuisance, les alliés et spectateurs sont usés de tant d’inefficacité ou de subir tant de reproches constamment. Il y a donc sabotage de la cause. Du moins ce sont des pratiques conseillées par les renseignements si on veut rendre inefficace, infécond un environnement social qu’on estime adversaire et ne pas être repéré comme saboteur. Si on est un militant sincère dans ses engagements, je doute que d’obtenir ces résultats soit satisfaisant.
Je n’ai parlé que de l’OSS pour montrer à quel point le militantisme déconnant ressemble à un sabotage (donc, pourquoi le poursuivre, pourquoi persister à croire que c’est un « bon » jeu ?), mais on aurait pu poursuivre le parallèle avec le travail d’infiltration ou de contre-propagande, avec des exemples plus modernes comme ceux du renseignement/contre-renseignement (Cointelpro5, JTRIG6) ou même les stratégies des fascistes7.
(à suivre…)
Si vous trouvez ce dossier intéressant, vous pouvez témoigner de votre soutien aux travaux de Hacking Social par un don sur tipee ou sur Liberapay |
Le feuilleton en 8 épisodes dont nous entamons aujourd’hui la publication n’est pas un simple mouvement d’humeur contre certaines dérives du militantisme mais une réflexion de fond sous l’angle de la psychologie sociale, nourrie et illustrée d’exemples analysés.
Comme la question compliquée et parfois houleuse du militantisme nous intéresse depuis longtemps à Framasoft, nous avons demandé à l’autrice, Viciss de Hacking Social, de s’atteler à la tâche.
Voici une première partie introductive de son intéressante contribution, dans laquelle elle explique son cheminement, entre éloge du militantisme et constat lucide de ses dérives toxiques, qui l’ont amenée à adopter un regard analytique qu’elle partage avec vous.
Nous publierons un nouveau chapitre de son travail chaque vendredi à 13:37 sur le Framablog, mais si vous préférez, vous pouvez télécharger dès maintenant l’essai intégral de Viciss qui comprend une bibliographie revue et augmentée :
Toutes les sources sont sous licence Creative Commons CC-BY-SA et disponibles sur ce dépôt.
Si vous cherchez un article à charge contre le militantisme en général, je me dois de vous prévenir d’emblée, ce ne sera pas le cas ici : j’ai été militante à trois reprises, dans des milieux radicalement différents (en syndicat, parmi des hackers grey hat1, parmi des youtubeurs) et ces trois expériences ont été mémorables à bien des titres. J’ai appris énormément auprès des autres militant·es, dans l’action, même dans les moments les plus pénibles, comme ces moments de confrontation avec « l’adversaire » (celui qui représentait/défendait le maintien des problèmes structurels pour lesquels on luttait). J’ai eu des opportunités de faire des choses que je ne pensais jamais pouvoir faire dans ma vie. Cela m’a prouvé que même si l’on est officiellement « sans pouvoir », en fait si, on peut choper un pouvoir d’agir, pour transformer les choses, et ensemble ça peut marcher, avoir des effets conséquents. Jamais je ne regretterais d’avoir participé à tout ça, connu de telles expériences, même avec tous les aspects négatifs qu’elles ont pu avoir, que ce soit à travers les pressions, les déceptions, les difficultés, la violence et la paranoïa, les faux pas : parce qu’on était là, ensemble, et on sortait de l’impuissance, on créait quelque chose qui transformait un peu les choses, qui comptait, qui était juste.
J’ai aussi une énorme sympathie pour les milieux militants que je n’ai pas expérimentés. Par exemple, je n’ai jamais milité directement pour le libre, mais j’ai toujours eu plaisir à découvrir les nouveautés libres, à les tester, à les adopter parfois. Et ça vaut pour tout un tas de mouvements très variés.
Pourquoi cette sympathie et gratitude générale pour les militants ? Très sincèrement parce que leurs actions répondent parfois à mes besoins (psychologiques ou non) et ont une résonance particulièrement empuissantante que j’aime ressentir, que ce soit grâce à l’astuce d’une chimiste écolo pour fabriquer ses produits cools, les crises de rire devant le Pap 40, l’appréciation esthétique qu’offre le travail souvent engagé de Banksy, le réseau social libre qui me laisse plus de caractères que Twitter, la sororité féministe qui m’a permis d’éviter mes foutus biais d’internalité, l’accès à l’info rendu possible grâce par des grey hat qui littéralement me permet de travailler pleinement au quotidien (Merci Aaron Swartz, Alexandra Elbakyan, Edward Snowden, et tous les inconnu·es qui bidouillent dans l’ombre à libérer l’info), etc. Et si tout cela répond à mes besoins, résonne, m’augmente, aide à me développer, m’offre des solutions ou m’ouvre l’esprit à d’autres solutions, cela doit avoir cet effet bénéfique chez d’autres. Et c’est effectivement le cas, quand on étudie la militance sous une perspective historique, à travers les décennies.
Là, le bénéfice est à un autre niveau que je qualifierais de totalement épique : les changements sociaux proviennent toujours d’abord de collectifs qui militent pour faire avancer les choses.
On découvre que cette puissance de l’action militante résonne à travers les siècles, on peut la sentir lorsqu’on étudie l’histoire des Afro-américains et la conquête de leurs droits, l’histoire des résistances sans armes durant la Seconde Guerre Mondiale, l’histoire du féminisme, l’histoire LGBT, l’histoire des hackers et bien d’autres mouvements !
Tout, de la petite info à la petite innovation, du mouvement massif à l’action solitaire la plus risquée, nous offre un espoir de dingue : on peut changer le monde en mieux, on peut le faire ici et maintenant, on peut avoir ce courage, et ce qu’importe la taille de la destructivité contre laquelle on lutte, que ce soit contre un régime autoritaire, contre une situation de génocide, d’esclavage, de manipulation, de crise, d’oppression, de dangers… On peut tenter quelque chose pour que cette résistance fonctionne au mieux, même si on n’a rien. Et on peut le faire avec une arme de compassion massive qui irradiera pour des générations entières. Franchement, c’est à pleurer de joie et de soulagement prosocial que de lire les histoires des sauveteurs durant la Seconde Guerre Mondiale, c’est ouf la force de construction que transmettent les écrits de Rosa Parks, Martin Luther King, et tant d’autres.
J’ai tellement de gratitude pour toutes ces personnes, pour quantité de mouvements, c’est pourquoi je tente d’en parler quand je le peux, sous l’angle des sciences humaines : je suis partageuse de contenus sur le Net à travers Hacking-social/Horizon-gull depuis plus de 7 ans avec Gull, d’une façon engagée. On vulgarise les sciences humaines d’une façon volontairement non-neutre, c’est-à-dire en prenant parti contre tout ce qui peut détruire, oppresser, exploiter, manipuler les gens, et en partageant tout ce qui pourrait aider à viser plus d’autodétermination.
L’œuvre des militants, des activistes et autres engagés fait donc partie de ma ligne éditoriale depuis la création du site HS.
Mes angles éditoriaux se sont transformés au fil du temps, d’une part pour une raison assez positive qui est une addiction de plus en plus prononcée pour fouiner dans la littérature scientifique, et d’autre part parce que j’ai commencé à rechigner à parler des combats militants actuels, quand bien même je les soutenais, et parce que j’avais plein de choses positives à dire.
Progressivement, j’ai opté pour des compromis, comme parler de militance uniquement si celle-ci avait pu être étudiée au travers de recherches scientifiques en sciences humaines et sociales. C’est ce que j’ai pu faire d’ailleurs en toute tranquillité avec la justice transformatrice, qui aborde en partie le travail de militants abolitionnistes du système pénal, et qui a été bien accueilli sans doute parce que ce n’était pas un sujet ni d’actu, ni français. Ça n’a hurlé que très peu, et seulement sur un réseau social pour lequel je m’attendais à ce genre de réaction épidermique.
Je me rends compte aussi que plus les années ont filé, moins j’ai repartagé de contenus divers sur les réseaux sociaux (tout confondus), moins j’ai fait de posts sur ceux-ci, moins j’ai osé m’exprimer, poser des questions, faire des remarques, etc. Actuellement, je constate que je ne partage que des infos liées à nos thèmes habituels (alors que je croise tout un tas de contenus que je pourrais partager). Parfois, je n’informe même pas de notre activité sur certains réseaux sociaux parce que je n’ai pas l’énergie/la patience de gérer certaines réactions : l’énervement à cause d’une image/ de l’entête pour des raisons qui n’ont rien à voir avec l’article ; le mépris parce que j’ai posté ça aussi sur une plateforme impure liée aux GAFAM2 ; la colère parce que le sujet principal de l’article ne portait pas précisément sur celui que certains auraient voulu ; le dégoût parce qu’il y a un anglicisme/un néologisme ; les injonctions à mettre des TW3 ou autres balises alors que j’ai consacré des paragraphes complets à faire des avertissements dans l’article ; la condescendance pour la recherche/la statistique/l’expert·e citée, car elle a été pointée du doigt un jour par un tribunal pseudo-scientifique/pseudo-zététicien/pseudo-sceptique (que je prenne en compte pendant X pages de critiques scientifiques et que je les discutent ne compte pas, j’aurais dû ne pas en parler tout simplement, car y faire référence c’est déjà trop) ; le rejet par un tribunal grammar-nazi-académique parce que j’ai mis mes sources bibliographiques à la fin de l’article et non dans le corps de texte, etc.
Et dans ma tête, il y a ainsi une liste noire qui grandit au fur et à mesure, de sujets à ne pas ou ne plus aborder sur le Net, quand bien même je les estime avec amour ou qu’ils comptent à mes yeux, que je sens que ça pourrait être utile à autrui, parce que je sais que cela ne sera pas entendu de la sorte, et que, avouons-le, je n’ai pas le courage d’encaisser ce qui va s’ensuivre. J’ai autocensuré notamment des problématiques militantes pour lesquelles je suis directement concernée, parce que lisant comment cela se passait pour d’autres sur les réseaux sociaux, en découvrant la pureté requise pour pouvoir en parler, et la méfiance qu’on aurait d’emblée à mon égard de part mes « endogroupes »4 si je les révélais, je sais d’expérience que les attaques toucheraient trop à ma personne et que, sous le feu de l’émotion, je serais capable de m’auto-annuler, c’est-à-dire détruire mon existence sur le Net, et mon travail avec. Le fait d’avoir vu tant de collègues détruits de la sorte, alors qu’ils avaient un propos doux, juste, socialement tellement utile, créatif, me confirme malheureusement que cette liste noire de sujets, je dois la maintenir pour l’instant si je veux continuer à faire ce que je fais.
« Encore un boomer qui crie “on peut plus rien dire gnagnagnaa” parce que des militants soulignent ses erreurs et qu’il ne veut pas les assumer ! ! » pourriez-vous me dire ; je comprends tout à fait qu’on puisse avoir ce réflexe quand quelqu’un se plaint du militantisme-correcteur du Net. Mais cette liste noire qu’est la mienne ne veut pas dire que j’estime que je ne peux plus rien dire. Elle veut surtout dire que j’ai dû développer au fil du temps des stratégies et des hacks plus ou moins sournois non pas pour pouvoir m’exprimer sans me prendre des reproches plein la tête, non pas pour convaincre5, mais pour ne pas être dégoûtée de mes propres engagements à cause de quelques militants qui partagent ces mêmes engagements. Pour le dire plus simplement : j’ai peur du jugement des alliés.
Je n’ai pas d’angoisses particulières vis-à-vis des individus que je sais « adversaires » de ce dont je vais parler. Par exemple, je suis assez détendue sur le fait de parler de l’autoritarisme comme quelque chose de problématique et j’attends parfois avec impatience les défenseurs de l’autoritarisme pour discuter avec eux. Comme je ne cherche pas à convaincre, je n’ai absolument pas de problème à ce qu’ils rejettent le contenu avec véhémence, ce qui est d’ailleurs plutôt cohérent de leur part. Je peux même être admirative quand ils arrivent à exprimer pleinement, sans complexes, ce qui les gêne, parce qu’ils s’affichent sincèrement avec leurs valeurs, quand bien même elles sont parfois horribles (au hasard, en appeler à tuer les 3/4 de la population ou envoyer en enfer les gens comme moi). Et dans cette confrontation sincère, je récolte des informations précieuses pour de futurs contenus (les adversaires véhéments sont au fond d’excellents contributeurs involontaires).
Par contre, c’est vraiment dur de se prendre de la haine de la part d’individus qui, je le constate après discussion, ont les mêmes valeurs que celles diffusées dans le contenu qu’ils blâment, ont les mêmes engagements, les mêmes objectifs. Ils me crient dessus parce que je n’ai pas parlé de ceci ou de cela, que j’ai utilisé un mot qui ne leur plaît pas, un en-tête qui aurait dû d’une manière ou d’une autre contenir tout l’article, parce que je n’ai pas utilisé un mot ou cité une référence qui leur paraissait indispensable, etc. Bref, ces reproches et cette colère de la part d’alliés, de camarades, de confrères, j’ai eu beaucoup de mal à les digérer et à les comprendre, d’autant plus qu’ils sont advenus pour des sujets auxquels je ne m’attendais pas le moins du monde.
Un jour j’ai parlé par exemple d’une expérience d’éducation alternative6. Je me suis centrée sur ce qui s’y faisait et était particulièrement cool dans le développement de l’autonomie et de l’empuissantement de l’enfant, au top vis-à-vis de ce qu’on sait en psycho- et neuro-. Puis j’ai fait ce que j’estime à présent une erreur, j’ai repris toutes les critiques disponibles à l’encontre de cette expérience afin de les debunker. C’était du débunkage ultra simple, puisque les 3/4 des critiques portaient sur des éléments qui n’étaient même pas présents dans cette expérience ou encore s’attaquaient personnellement à la personne qui l’avait menée sous forme de procès d’intention, or ces caractéristiques n’avaient strictement aucun lien avec l’expérience elle-même. Plus important à mes yeux, les critiques vantaient parallèlement un mode d’éducation autoritaire, très conservateur (globalement, on revenait 100/150 ans en arrière) basé sur le contrôle ; ils voyaient le plein développement de l’autonomie chez l’enfant comme une menace. Scientifiquement7, on sait pourtant que le contrôle autoritaire sape la motivation et le potentiel des enfants ; le seul « atout » de l’éducation autoritaire est de transformer la personne en pion, contrôlable extérieurement par des autorités, et intérieurement par des normes pressantes.
Les critiques n’ont pas fait gaffe à ça, et se sont plutôt ralliés à ces autoritaires pour tenter de me convaincre à quel point la personne ayant mené l’expérience devait être annulée pour de soi-disant accointances avec le néolibéralisme (ce qui est totalement faux quand on analyse le travail dans les faits), ignorant totalement les détails de l’expérience et ses apports. Et ce type d’accusations venait d’individus qui, très souvent, était des militants actifs menant des expériences éducatives quasi similaires à celles que cette expérience vantait… C’était ouf, et même des années après publication de ce contenu je reçois encore des messages pour tenter de me convaincre que cette personne est mauvaise, donc que l’expérience l’est, et que je devrais annuler mon avis positif.
Tout ceci a été vraiment saoulant, d’autant plus que naïvement je pensais qu’on pouvait espérer une sorte de cohésion contre les modes éducatifs autoritaires/contrôlants, ce qui est le point commun à quasi toutes les expériences d’éducation alternative. Mais non. Ça a été l’article le plus « polémique » du site, je n’en reviens toujours pas.
Depuis ce jour, je n’ai plus parlé d’éducation alternative, même si pourtant d’autres militants m’avaient proposé de façon stratégiquement plus intéressante de faire découvrir leur école et leur mode de fonctionnement. Je suis passée à des sujets plus safe, l’un de mes pare-feux étant désormais de parler d’études, expériences, actions se déroulant hors de notre pays et n’étant pas d’actualité, ou très indirectement.
Aussi, je ne debunke plus rien (du moins, pas de cette façon officiellement affichée), parce que cela n’a strictement aucune résonance constructive8, et j’ai l’impression que certains se servent de ce qui est alors estimé comme « vrai » pour se permettre d’attaquer (de manière disproportionnée) ceux qui sont dans le « faux », ce qui est une dynamique qui ne m’intéresse pas du tout d’alimenter.
À la place, je bidouille pour trouver des sujets à écho et je les tricote d’une façon à ce que, quand même, ils fassent résonance avec ce que nous vivons ici et maintenant. D’un côté, cela aura eu le grand avantage de me pousser à chercher des sujets inédits et à développer une forme de créativité plus hackeuse que je n’aurais peut-être pas eu sans cette saoulance.
Bref, tout ça pour dire que je ne m’autocensure pas par peur des « ennemis », mais davantage par crainte de la punition des alliés et acteurs de cette cause commune que nous défendons. Je constate que d’autres créateurs de contenus partagent cette même crainte de l’endogroupe davantage que de leur ennemi :
Et ça vaut malheureusement aussi pour le libre : j’ai toujours autant de respect et de sympathie pour le libre, parce que j’ai la chance de connaître des libristes fortement prosociaux que j’adore, et que j’utilise au quotidien du libre – ça répond à mes besoins de compétence et de sécurité numérique –, et, ayant adopté depuis longtemps une certaine éthique hacker, j’adhère au discours libriste qui fait partie de la grande famille hacker.
Mais la campagne de certains militants pour PeerTube a été, malgré tout, extrêmement soûlante.
Au départ, Gull et moi-même étions enthousiastes pour promouvoir et publier sur PeerTube, on s’est vite renseignés, on a été hébergés sur une instance dès que cela a été possible. Parfois, il y avait des down sur l’instance en question, alors selon l’état de la mise en ligne, je partageais ou non le lien des vidéos via PeerTube. Qu’importe notre présence ou absence ponctuelle, on nous a reproché de ne pas être sur PeerTube, on nous a fait de longs messages condescendants pour nous expliquer pourquoi il fallait être sur PeerTube et pourquoi il fallait arrêter d’être sur YouTube, on nous a engueulés parce que l’instance était down et que de fait telle vidéo ne pouvait ponctuellement être vue que sur Youtube. On ne pouvait pas annoncer une vidéo avec joie sans que celle-ci soit instantanément rabattue par un commentaire reprochant notre manque d’éthique à mettre un lien Youtube et non PeerTube (alors qu’au début on partageait prioritairement le lien PeerTube) ou encore rappeler une énième fois ce qu’était PeerTube comme si nous l’ignorions et en quoi nous devions moralement y être. On faisait au mieux, on était déjà convaincus par PeerTube, on se démenait pour trouver des alternatives, même sur YouTube on avait pris le parti dès le départ de démonétiser tout notre contenu, mais visiblement ce n’était pas encore assez parfait.
J’étais également très enthousiaste à notre arrivée sur Mastodon, j’y postais même des trucs que je ne postais pas sur les autres réseaux, j’envisageais de faire là-bas un compte perso. Mais, à part quelques personnes que je connaissais et qui étaient bien sympas, progressivement les retours que j’avais sur un article, un dossier, un bouquin, un live, ne concernaient plus que notre faute à ne pas être des libristes avant toute chose, il y avait suspicion que ce qu’on utilisait était éthiquement incorrect (par exemple, la plateforme lulu pour publier mes livres – c’est sacrément ironique car justement je l’avais choisie exclusivement pour éviter la vague de reproches que des collègues peuvent avoir lorsqu’ils publient via Amazon…).
Et d’autres personnes ont pu rencontrer ce même type d’expérience :
C’est terrible, mais d’une plateforme pour laquelle j’étais enthousiaste, j’en suis venue à avoir la même politique de communication que celle que j’avais sur Facebook (plateforme que je déteste depuis des années), c’est-à-dire : un minimum de publications, pas d’interactions même quand il y a des remarques, écriture du message la plus épurée possible par anticipation des quiproquos, etc. Et si on me fait des corrections légitimes sur la forme, mais sur un ton condescendant, je les prends en compte à ma sauce (je n’obéis pas, je transforme d’une nouvelle façon), et je ne fais aucun retour. Je ne fais pas ça contre ce type de critiques, mais davantage pour rester concentrée sur mon travail et ne pas être plongée dans un énième débat où potentiellement je dois me justifier pendant des heures d’un choix incompris, débat qui est totalement infécond pour toutes les parties, et où j’ai l’impression d’être la pire des merdes tant je dois m’inférioriser pour calmer l’individu et lui offrir la « supériorité » morale/intellectuelle qui l’apaise.
J’ai pris des exemples libristes, mais si cela peut vous rassurer, j’ai le même vécu pénible avec des communautés zététiques/sceptiques qui ont été hautement moralisatrices et condescendantes, nous reprochant un manque de détails dans le report des données scientifiques ou suspectant que nous partagions une étude « biaisée » parce qu’ils n’avaient pas compris un résultat (alors qu’il suffisait d’aller simplement jeter un coup œil rapide à la source que nous mettions à disposition). Ça a eu un impact sur notre activité et notre motivation, nous amenant à un perfectionnisme infructueux qui consistait à donner encore plus de détails mais qui étaient pourtant inutiles à préciser, voire nuisibles à une vulgarisation limpide9. Plus grave, j’ai vu des phénomènes dans des communautés zététiques/sceptiques qu’on a décidé de quitter très rapidement tant le climat devenait malsain : des activités marrantes selon eux étaient de se faire des soirées foutage de gueule d’un créateur de la même communauté zététique, faire des débats sans fin inféconds sur l’usage d’un mot, et surtout ne jamais créer ensemble, coopérer, s’attaquer aux problèmes de fond, aux « véritables » adversaires qui ne sont pas tant des individus, mais des systèmes, des structures, des normes, etc. Mais que les zététiciens/sceptiques se rassurent, j’ai aussi vu ces mêmes mécaniques chez des membres de syndicat (par exemple, Gull s’est vu une fois reprocher d’aller simplement discuter avec des membres d’un autre syndicat…), chez des militants antipub (où Gull s’est vu corrigé non sans une pointe de mépris parce qu’il avait osé citer une marque pour la dénoncer car pour ce critique il était interdit de citer une marque…), etc.
Là encore, ce n’est pas qu’un souci qui nous arriverait par manque de bol, une fois de plus Contrapoints explique à merveille ces mécaniques qui arrivent potentiellement dans n’importe quel groupe réuni autour de n’importe quel sujet :
Le fait que je considère la culpabilisation, le jugement, le mépris, la condescendance, l’attaque, l’injonction, l’appel à la pureté, comme du militantisme déconnant (à entendre comme dysfonctionnel)10 n’est évidemment pas étranger au fait que je sois fragile, état que j’assume pleinement, parfois même avec fierté : oui je craque en privé devant ce militant pour l’Histoire qui, dans un mail de 3 pages, argumente sur le fait que je suis médiocre, inutile et tellement inférieure aux hommes présents à cette table ronde publique car j’ai osé utiliser le mot « facho », usage qui selon lui prouvait que je n’y connaissais strictement rien parce que X et Y (imaginez un cours d’histoire sur la Seconde Guerre Mondiale). J’ai répondu en partie en assumant l’un de mes défauts (être nulle à l’oral) et en envoyant les liens vers mon bouquin en libre accès sur le fascisme qui justifie en plus de 300 pages pourquoi je garde ce mot et pourquoi il est pertinent pour décrire certains contenus (il ne m’a pas répondu en retour).
J’assume aussi comme mon « problème » la déprime que je peux avoir quand j’ai pour premier commentaire une engueulade sur l’utilisation d’un anglicisme dans un article qui a nécessité des heures de recherches et d’écriture.
J’assume comme mon « problème » mon surmenage et la lâcheté que je me permets à ne plus avoir à me justifier ni répondre aux reproches hors-sujet.
J’ai ma sensibilité, mes faiblesses, mon temps et des capacités limitées, je fais avec, je ne me plains pas de souffrir de ces attitudes militantes qui me sont reloues, et je sais à peu près comment gérer ça et transformer ça11. Je ne me sens pas victime de quoi que ce soit, je ne suis pas à plaindre. Au final, j’estime que nous sommes très chanceux d’avoir une communauté si soutenante, de ne pas avoir été harcelés ou annulés massivement comme d’autres acteurs du Net.
Ce qui m’enrage dans un premier temps avec ces histoires de militance déconnante, c’est que cela a détruit l’œuvre de collègues très talentueux dont j’aurais voulu découvrir encore de nouvelles œuvres, qui avaient un magnifique potentiel d’influences positives, autodéterminatrices, émancipatrices. Mais merde, mais c’était tellement, tellement injuste de s’en être pris à eux, pour un mot, une tournure de phrase. De les avoir détruits pour ça, pas tant avec une seule remarque, mais bien avec cette répétition incessante de chipotage à chaque nouveau contenu. Tellement inapproprié de les voir en adversaire alors qu’il n’y avait pas meilleur allié.
À force de voir cette histoire de déconnance se répéter inlassablement partout dans tous les domaines, je m’inquiète pour les visées fécondes de ces mouvements. J’en viens à avoir peur que ces militants puristes dépensent une forte énergie pour des ennemis qui n’en sont pas, qui ne représentent pas une menace, qui au contraire sont de potentiels alliés qui feraient avancer leur cause. J’ai peur que cette division, voire hiérarchisation, entre personnes potentiellement alliées ne serve finalement qu’à donner davantage de pouvoir à leurs adversaires. Peur que toute cette énergie gaspillée, au fond, ne profite qu’à l’avancée de ce qu’on dénonce pourtant tous et que les acteurs des oppressions, des exploitations, des dominations, des manipulations, aient le champ libre pour développer pleinement leur œuvre destructrice, puisque les personnes pouvant les en empêcher sont plus occupées à s’entre-taper dessus pour ou contre le point médian, pour ou contre l’anglicisme, pour ou contre l’usage de Facebook, et j’en passe.
Au-delà de ces peurs, je me désole aussi que tant d’opportunités de collaboration, de construction commune, de coopération, d’entraide passent alors à la trappe au profit du militantisme déconnant qui ne fait que corriger, sanctionner et contrôler. Parce que toutes les réussites que j’ai pu voir étaient fondées sur une entraide, une cohésion et une convergence entre militants, entre des groupes différents, avec des acteurs qui, de base, ne suivaient même pas le combat, n’avaient pas les mêmes buts. Les réussites les plus belles que j’ai pu avoir la chance d’apprécier regroupaient à la fois des groupes militants assez radicaux (méthodes hautement destructives mais sans violence sur les personnes), des groupes militants faisant du lobbying auprès du monde distal12 (politiques, structures de pouvoir), spectateurs lambda (soutien et sympathie pour la cause), et résultat, une loi injuste ne passait pas, et tout le monde était en sympathie avec tout le monde, ce n’était que joie.
C’est pourquoi dans cet article on va tenter de comprendre pourquoi on peut avoir tendance à attaquer, injonctiver et pourquoi ça peut être déconnant vis-à-vis des buts d’un mouvement, et ce qu’on pourrait faire à la place de potentiellement plus efficace.
Vous l’aurez sans doute compris, mais je précise pour éviter tout malentendu :
★ Cet article porte sur le militantisme déconnant, ou pureté militante, et non sur le militantisme tout court. Nous nous considérons nous-mêmes comme des personnes engagées à travers notre activité sur Hacking-social/Horizon-gull, et engagées contre l’autoritarisme sous toutes ses formes, et donc par définition, militantes.
★ Je ne catégorise pas tout le militantisme libriste comme uniquement associé à des pratiques déconnantes, pas du tout, d’autant que nous écrivons sur le Framablog, ce qui serait un comble. Idem, si vous avez des affinités avec un groupe dont je décris la pratique déconnante. N’endossez pas la responsabilité ou la culpabilité des pratiques déconnantes si vous ne les avez jamais faites mais que vous partagez le même groupe que ceux qui y ont recours. On ne peut pas être responsable du comportement des autres individus en permanence, ce serait un fardeau trop lourd à porter et impossible à gérer. La responsabilité incombe à celui qui fait l’acte, sans omettre, bien sûr, les raisons extérieures qui ont poussé celui-ci à faire l’acte (évitons d’internaliser ces problématiques aux seuls individus, nous verrons que c’est plus complexe que cela).
★ On parlera de militantisme interpersonnel, c’est-à-dire entre personnes ne représentant pas une autorité quelconque. Par exemple, untel corrige unetelle sur un de ses mots sur Internet/lors d’un repas de famille/lorsqu’elle se confie/lorsqu’elle présente une création/etc. ; untel critique untel car il a osé parler de fromages sans mettre de trigger warning13, etc. J’exclus de cette catégorie les rapports de pouvoirs entre personnes, par exemple une négociation entre un syndicat et un DRH autour d’un conflit, le débat public entre un individu fasciste et une personne au combat antifasciste, etc. Les deux derniers cas désignent des porte-paroles d’un groupe et la situation n’a rien du rapport interpersonnel habituel, il est hautement stratégique et préparé en amont pour les deux parties en confrontation.
★ On ne parlera pas du militantisme d’extrême-droite, fasciste ou lié à des poussées de haines sur une personne ciblée (par exemple les raids de harcèlement). Parce que – et c’est terrible à dire – il est cohérent avec l’autoritarisme de droite composé d’une valorisation de l’agressivité autoritaire, de la soumission autoritaire et du conventionnalisme14. Si c’est cohérent au vu de leur combat, alors ce n’est pas déconnant. Ils sont convaincus du bienfait d’attaquer et de soumettre une personne, donc il est logique de s’attendre à ce qu’ils attaquent une personne, qu’ils l’injonctivent, la poussent à rentrer dans des normes conventionnelles ou à fuir la sphère publique. Cependant, si cela vous intéresse : – voici un excellent article qui montre leur méthode militante : Un militant repenti balance les secrets de l’ultra-droite, (Midi Libre, 2012) ; – On a parlé d’autoritarisme aussi dans un dossier ; – et cet article, le résumé des recherches qui ont suivi ; – Et dans cette vidéo qui est le début d’une série.
★ Pour cet article, il serait incohérent que je m’autocensure par peur de la pureté militante, ainsi y aura-t-il des néologismes, des anglicismes, des points médians et parfois une absence de points médians, des liens YouTube ou pointant vers des réseaux sociaux, structures non-libres. Cependant, je justifierai parfois certains de mes choix « impurs » en note de bas de page quand j’estime que cela est nécessaire. J’y mettrai aussi les références. Désolée pour l’énervement futur que cela pourrait vous causer.
Avec un ton acerbe contre les géants du numérique, Aral Balkan nourrit depuis plusieurs années une analyse lucide et sans concession du capitalisme de surveillance. Nous avons maintes fois publié des traductions de ses diatribes.
Ce qui fait la particularité de ce nouvel article, c’est qu’au-delà de l’adieu à Twitter, il retrace les étapes de son cheminement.
Sa trajectoire est mouvementée, depuis l’époque où il croyait (« quel idiot j’étais ») qu’il suffisait d’améliorer le système. Il revient donc également sur ses années de lutte contre les plateformes prédatrices et les startups .
Il explique quelle nouvelle voie constructive il a adoptée ces derniers temps, jusqu’à la conviction qu’il faut d’urgence « construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements ». Dans cette perspective, le Fediverse a un rôle important à jouer selon lui.
Article original : Hell Site
Traduction Framalang : Aliénor, Fabrice, goofy, Susy, Wisi_eu
par Aral Balkan
Sur le Fédiverse, ils ont un terme pour Twitter.
Ils l’appellent « le site de l’enfer ».
C’est très approprié.
Lorsque je m’y suis inscrit, il y a environ 15 ans, vers fin 2006, c’était un espace très différent. Un espace modeste, pas géré par des algorithmes, où on pouvait mener des discussions de groupe avec ses amis.
Ce que je ne savais pas à l’époque, c’est que Twitter, Inc. était une start-up financée avec du capital risque.
Même si j’avais su, ça n’aurait rien changé, vu que je n’avais aucune idée sur le financement ou les modèles commerciaux. Je pensais que tout le monde dans la tech essayait simplement de fabriquer les nouvelles choses du quotidien pour améliorer la vie des gens.
Même six ans après, en 2012, j’en étais encore à me concentrer sur l’amélioration de l’expérience des utilisateurs avec le système actuel :
« Les objets ont de la valeur non par ce qu’ils sont, mais par ce qu’ils nous permettent de faire. Et, en tant que personnes qui fabriquons des objets, nous avons une lourde responsabilité. La responsabilité de ne pas tenir pour acquis le temps limité dont chacun d’entre nous dispose en ce monde. La responsabilité de rendre ce temps aussi beau, aussi confortable, aussi indolore, aussi exaltant et aussi agréable que possible à travers les expériences que nous créons.
Parce que c’est tout ce qui compte.
Et il ne tient qu’à nous de le rendre meilleur. »
– C’est tout ce qui compte.
Quel idiot j’étais, pas vrai ?
Vous pouvez prendre autant de temps que nécessaire pour me montrer du doigt et ricaner.
Ok, c’est fait ? Continuons…
À cette époque, je tenais pour acquis que le système en général est globalement bon. Ou du moins je ne pensais pas qu’il était activement mauvais 1.
Bien sûr, j’étais dans les rues à Londres, avec des centaines de milliers de personnes manifestant contre la guerre imminente en Irak. Et bien sûr, j’avais conscience que nous vivions dans une société inégale, injuste, raciste, sexiste et classiste (j’ai étudié la théorie critique des médias pendant quatre ans, du coup j’avais du Chomsky qui me sortait de partout), mais je pensais, je ne sais comment, que la tech existait en dehors de cette sphère. Enfin, s’il m’arrivait de penser tout court.
Ce qui veut clairement dire que les choses n’allaient pas assez mal pour m’affecter personnellement à un point où je ressentais le besoin de me renseigner à ce sujet. Et ça, tu sais, c’est ce qu’on appelle privilège.
Il est vrai que ça me faisait bizarre quand l’une de ces start-ups faisait quelque chose qui n’était pas dans notre intérêt. Mais ils nous ont dit qu’ils avaient fait une erreur et se sont excusés alors nous les avons crus. Pendant un certain temps. Jusqu’à ce que ça devienne impossible.
Et, vous savez quoi, j’étais juste en train de faire des « trucs cools » qui « améliorent la vie des gens », d’abord en Flash puis pour l’IPhone et l’IPad…
Mais je vais trop vite.
Retournons au moment où j’étais complètement ignorant des modèles commerciaux et du capital risque. Hum, si ça se trouve, vous en êtes à ce point-là aujourd’hui. Il n’y a pas de honte à avoir. Alors écoutez bien, voici le problème avec le capital risque.
Le capital risque est un jeu de roulette dont les enjeux sont importants, et la Silicon Valley en est le casino.
Un capital risqueur va investir, disons, 5 millions de dollars dans dix start-ups tout en sachant pertinemment que neuf d’entre elles vont échouer. Ce dont a besoin ce monsieur (c’est presque toujours un « monsieur »), c’est que celle qui reste soit une licorne qui vaudra des milliards. Et il (c’est presque toujours il) n’investit pas son propre argent non plus. Il investit l’argent des autres. Et ces personnes veulent récupérer 5 à 10 fois plus d’argent, parce que ce jeu de roulette est très risqué.
Alors, comment une start-up devient-elle une licorne ? Eh bien, il y a un modèle commercial testé sur le terrain qui est connu pour fonctionner : l’exploitation des personnes.
Voici comment ça fonctionne :
Offrez votre service gratuitement à vos « utilisateurs » et essayez de rendre dépendants à votre produit le plus de gens possible.
Pourquoi ?
Parce qu’il vous faut croître de manière exponentielle pour obtenir l’effet de réseau, et vous avez besoin de l’effet de réseau pour enfermer les gens que vous avez attirés au début.
Bon dieu, des gens très importants ont même écrit des guides pratiques très vendus sur cette étape, comme Hooked : comment créer un produit ou un service qui ancre des habitudes.
Voilà comment la Silicon Valley pense à vous.
Collectez autant de données personnelles que possible sur les gens.
Pistez-les sur votre application, sur toute la toile et même dans l’espace physique, pour créer des profils détaillés de leurs comportements. Utilisez cet aperçu intime de leurs vies pour essayer de les comprendre, de les prédire et de les manipuler.
Monétisez tout ça auprès de vos clients réels, qui vous paient pour ce service.
C’est ce que certains appellent le Big Data, et que d’autres appellent le capitalisme de surveillance.
Une start-up est une affaire temporaire, dont le but du jeu est de se vendre à une start-up en meilleure santé ou à une entreprise existante de la Big Tech, ou au public par le biais d’une introduction en Bourse.
Si vous êtes arrivé jusque-là, félicitations. Vous pourriez fort bien devenir le prochain crétin milliardaire et philanthrope en Bitcoin de la Silicon Valley.
De nombreuses start-ups échouent à la première étape, mais tant que le capital risque a sa précieuse licorne, ils sont contents.
Je ne savais donc pas que le fait de disposer de capital risque signifiait que Twitter devait connaître une croissance exponentielle et devenir une licorne d’un milliard de dollars. Je n’avais pas non plus saisi que ceux d’entre nous qui l’utilisaient – et contribuaient à son amélioration à ce stade précoce – étaient en fin de compte responsables de son succès. Nous avons été trompés. Du moins, je l’ai été et je suis sûr que je ne suis pas le seul à ressentir cela.
Tout cela pour dire que Twitter était bien destiné à devenir le Twitter qu’il est aujourd’hui dès son premier « investissement providentiel » au tout début.
C’est ainsi que se déroule le jeu du capital risque et des licornes dans la Silicon Valley. Voilà ce que c’est. Et c’est tout ce à quoi j’ai consacré mes huit dernières années : sensibiliser, protéger les gens et construire des alternatives à ce modèle.
Voici quelques enregistrements de mes conférences datant de cette période, vous pouvez regarder :
Dans le cadre de la partie « sensibilisation », j’essayais également d’utiliser des plateformes comme Twitter et Facebook à contre-courant.
Comme je l’ai écrit dans Spyware vs Spyware en 2014 : « Nous devons utiliser les systèmes existants pour promouvoir nos alternatives, si nos alternatives peuvent exister tout court. » Même pour l’époque, c’était plutôt optimiste, mais une différence cruciale était que Twitter, au moins, n’avait pas de timeline algorithmique.
Qu’est-ce qu’une timeline algorithmique ? Essayons de l’expliquer.
Ce que vous pensez qu’il se passe lorsque vous tweetez : « j’ai 44 000 personnes qui me suivent. Quand j’écris quelque chose, 44 000 personnes vont le voir ».
Ce qui se passe vraiment lorsque vous tweetez : votre tweet pourrait atteindre zéro, quinze, quelques centaines, ou quelques milliers de personnes.
Et ça dépend de quoi ?
Dieu seul le sait, putain.
(Ou, plus exactement, seul Twitter, Inc. le sait.)
Donc, une timeline algorithmique est une boîte noire qui filtre la réalité et décide de qui voit quoi et quand, sur la base d’un lot de critères complètement arbitraires déterminés par l’entreprise à laquelle elle appartient.
En d’autres termes, une timeline algorithmique est simplement un euphémisme pour parler d’un enfumage de masse socialement acceptable. C’est de l’enfumage 2.0.
La nature de l’algorithme reflète la nature de l’entreprise qui en est propriétaire et l’a créé.
Étant donné que les entreprises sont sociopathes par nature, il n’est pas surprenant que leurs algorithmes le soient aussi. En bref, les algorithmes d’exploiteurs de personnes comme Twitter et Facebook sont des connards qui remuent la merde et prennent plaisir à provoquer autant de conflits et de controverses que possible.
Hé, qu’attendiez-vous exactement d’un milliardaire qui a pour bio #Bitcoin et d’un autre qui qualifie les personnes qui utilisent sont utilisées par son service de « pauvres cons » ?
Ces salauds se délectent à vous montrer des choses dont ils savent qu’elles vont vous énerver dans l’espoir que vous riposterez. Ils se délectent des retombées qui en résultent. Pourquoi ? Parce que plus il y a d’« engagement » sur la plateforme – plus il y a de clics, plus leurs accros (« utilisateurs ») y passent du temps – plus leurs sociétés gagnent de l’argent.
Eh bien, ça suffit, merci bien.
Certes je considère important de sensibiliser les gens aux méfaits des grandes entreprises technologiques, et j’ai probablement dit et écrit tout ce qu’il y a à dire sur le sujet au cours des huit dernières années. Rien qu’au cours de cette période, j’ai donné plus d’une centaine de conférences, sans parler des interviews dans la presse écrite, à la radio et à la télévision.
Voici quelques liens vers une poignée d’articles que j’ai écrits sur le sujet au cours de cette période :
Est-ce que ça a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
J’ai également interpellé d’innombrables personnes chez les capitalistes de la surveillance comme Google et Facebook sur Twitter et – avant mon départ il y a quelques années – sur Facebook, et ailleurs. (Quelqu’un se souvient-il de la fois où j’ai réussi à faire en sorte que Samuel L. Jackson interpelle Eric Schmidt sur le fait que Google exploite les e-mails des gens ?) C’était marrant. Mais je m’égare…
Est-ce que tout cela a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
Mais voici ce que je sais :
Est-ce que dénoncer les gens me rend malheureux ? Oui.
Est-ce que c’est bien ? Non.
Est-ce que j’aime les conflits ? Non.
Alors, trop c’est trop.
Les gens viennent parfois me voir pour me remercier de « parler franchement ». Eh bien, ce « parler franchement » a un prix très élevé. Alors peut-être que certaines de ces personnes peuvent reprendre là où je me suis arrêté. Ou pas. Dans tous les cas, j’en ai fini avec ça.
Une chose qu’il faut comprendre du capitalisme de surveillance, c’est qu’il s’agit du courant dominant. C’est le modèle dominant. Toutes les grandes entreprises technologiques et les startups en font partie2. Et être exposé à leurs dernières conneries et aux messages hypocrites de personnes qui s’y affilient fièrement tout en prétendant œuvrer pour la justice sociale n’est bon pour la santé mentale de personne.
C’est comme vivre dans une ferme industrielle appartenant à des loups où les partisans les plus bruyants du système sont les poulets qui ont été embauchés comme chefs de ligne.
J’ai passé les huit dernières années, au moins, à répondre à ce genre de choses et à essayer de montrer que la Big Tech et le capitalisme de surveillance ne peuvent pas être réformés.
Et cela me rend malheureux.
J’en ai donc fini de le faire sur des plates-formes dotées d’algorithmes de connards qui s’amusent à m’infliger autant de misère que possible dans l’espoir de m’énerver parce que cela « fait monter les chiffres ».
Va te faire foutre, Twitter !
J’en ai fini avec tes conneries.
À bien des égards, cette décision a été prise il y a longtemps. J’ai créé mon propre espace sur le fediverse en utilisant Mastodon il y a plusieurs années et je l’utilise depuis. Si vous n’avez jamais entendu parler du fediverse, imaginez-le de la manière suivante :
Imaginez que vous (ou votre groupe d’amis) possédez votre propre copie de twitter.com
. Mais au lieu de twitter.com
, le vôtre se trouve sur votre-place.org
. Et à la place de Jack Dorsey, c’est vous qui fixez les règles.
Vous n’êtes pas non plus limité à parler aux gens sur votre-place.org
.
Je possède également mon propre espace sur mon-espace.org
(disons que je suis @moi@mon-espace.org
). Je peux te suivre @toi@ton-espace.org
et aussi bien @eux@leur.site
et @quelquun-dautre@un-autre.espace
. Ça marche parce que nous parlons tous un langage commun appelé ActivityPub.
Donc imaginez un monde où il y a des milliers de twitter.com
qui peuvent tous communiquer les uns avec les autres et Jack n’a rien à foutre là-dedans.
Eh bien, c’est ça, le Fediverse.
Et si Mastodon n’est qu’un moyen parmi d’autres d’avoir son propre espace dans le Fediverse, joinmastodon.org est un bon endroit pour commencer à se renseigner sur le sujet et mettre pied à l’étrier de façon simple sans avoir besoin de connaissances techniques. Comme je l’ai déjà dit, je suis sur le Fediverse depuis les débuts de Mastodon et j’y copiais déjà manuellement les posts sur Twitter.
Maintenant j’ai automatisé le processus via moa.party et, pour aller de l’avant, je ne vais plus me connecter sur Twitter ou y répondre3.
Vu que mes posts sur Mastodon sont maintenant automatiquement transférés là-bas, vous pouvez toujours l’utiliser pour me suivre, si vous en avez envie. Mais pourquoi ne pas utiliser cette occasion de rejoindre le Fediverse et vous amuser ?
Si je pense toujours qu’avoir des bonnes critiques de la Big Tech est essentiel pour peser pour une régulation efficace, je ne sais pas si une régulation efficace est même possible étant donné le niveau de corruption institutionnelle que nous connaissons aujourd’hui (lobbies, politique des chaises musicales, partenariats public-privé, captation de réglementation, etc.)
Ce que je sais, c’est que l’antidote à la Big Tech est la Small Tech.
Nous devons construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements. C’est un prérequis pour un futur qui respecte la personne humaine, les droits humains, la démocratie et la justice sociale.
Dans le cas contraire, nous serons confrontés à des lendemains sombres où notre seul recours sera de supplier un roi quelconque, de la Silicon Valley ou autre, « s’il vous plaît monseigneur, soyez gentil ».
Je sais aussi que travailler à la construction de telles alternatives me rend heureux alors que désespérer sur l’état du monde ne fait que me rendre profondément malheureux. Je sais que c’est un privilège d’avoir les compétences et l’expérience que j’ai, et que cela me permet de travailler sur de tels projets. Et je compte bien les mettre à contribution du mieux possible.
Pour aller de l’avant, je prévois de concentrer autant que possible de mon temps et de mon énergie à la construction d’un Small Web.
Si vous avez envie d’en parler (ou d’autre chose), vous pouvez me trouver sur le Fediverse.
Vous pouvez aussi discuter avec moi pendant mes live streams S’update et pendant nos live streams Small is beautiful avec Laura.
Des jours meilleurs nous attendent…
Prenez soin de vous.
Portez-vous bien.
Aimez-vous les uns les autres.
]]>
On peut rêver d’une solution technologique ou juridique pour limiter ou interdire l’utilisation d’un logiciel à des groupes ou personnes qui ne partagent pas les valeurs auxquelles on tient ou pire veulent les détruire.
L’entreprise est bien plus délicate qu’il n’y paraît, y compris pour les réseaux alternatifs décentralisés (ou plutôt acentrés) qu’on regroupe sous le terme de Fediverse. Il ne suffit pas en effet de dire que chaque instance décide de ses propres règles pour se débarrasser des difficultés.
Dans l’article qui suit, Christophe Masutti prend acte de la fin d’une illusion : l’idéal d’un grand espace de communication démocratique, égalitaire et ouvert à tous n’existe pas plus avec les Gafam qu’avec le Fediverse et ses réseaux alternatifs.
Face aux grandes plateformes centralisées de médias sociaux qui ne recherchent nullement à diffuser ou promouvoir le débat démocratique éclairé comme elles le prétendent mais à monétiser le spectacle d’un pseudo-débat, nous sommes confrontées au grand fourre-tout où distinguer le pire du meilleur renvoie chacun à une tâche colossale et indéfiniment renouvelée.
Cependant ce qui change la donne avec le Fediverse, c’est que la question de la fermeture à d’autres ne prend en compte ni le profit ni le facteur nombre : les instances sans objectif lucratif ont leurs qualités et leurs défauts propres, qu’elles aient deux ou deux cent mille utilisatrices. Et selon Christophe, les rapports entre les instances restent à écrire, à la manière dont les rapports variables entre les habitants d’un quartier déterminent leurs rapports individuels et collectifs…
par Christophe Masutti
Lors d’une récente interview avec deux autres framasoftiennes à propos du Fediverse et des réseaux sociaux dits « alternatifs », une question nous fut posée :
dans la mesure où les instances de service de micro-blogging (type Mastodon) ou de vidéo (comme Peertube) peuvent afficher des « lignes éditoriales » très différentes les unes des autres, comment gérer la modération en choisissant de se fédérer ou non avec une instance peuplée de fachos ou comment se comporter vis-à-vis d’une instance communautaire et exclusive qui choisit délibérément de ne pas être fédérée ou très peu ?
De manière assez libérale et pour peu que les conditions d’utilisation du service soient clairement définies dans chaque instance, on peut répondre simplement que la modération demande plus ou moins de travail, que chaque instance est tout à fait libre d’adopter sa propre politique éditoriale, et qu’il s’agit de choix individuels (ceux du propriétaire du serveur qui héberge l’instance) autant que de choix collectifs (si l’hébergeur entretient des relations diplomatiques avec les membres de son instance). C’est une évidence.
La difficulté consistait plutôt à expliquer pourquoi, dans la conception même des logiciels (Mastodon ou Peertube, en l’occurrence) ou dans les clauses de la licence d’utilisation, il n’y a pas de moyen mis en place par l’éditeur du logiciel (Framasoft pour Peertube, par exemple) afin de limiter cette possibilité d’enfermement de communautés d’utilisateurs dans de grandes bulles de filtres en particulier si elles tombent dans l’illégalité. Est-il légitime de faire circuler un logiciel qui permet à ♯lesgens de se réunir et d’échanger dans un entre-soi homogène tout en prétendant que le Fediverse est un dispositif d’ouverture et d’accès égalitaire ?
Une autre façon de poser la question pourrait être la suivante : comment est-il possible qu’un logiciel libre puisse permettre à des fachos d’ouvrir leurs propres instance de microblogging en déversant impunément sur le réseau leurs flots de haine et de frustrations ?1
Bien sûr nous avons répondu à ces questions, mais à mon avis de manière trop vague. C’est qu’en réalité, il y a plusieurs niveaux de compréhension que je vais tâcher de décrire ici.
Il y a trois aspects :
Mais est-ce suffisant ? se réfugier derrière une prétendue neutralité de la technique (qui n’est jamais neutre), les limites éthiques ou la loi, ce n’est pas une bonne solution. Il faut se poser la question : que fait-on concrètement non pour interdire certains usages du Fediverse, mais pour en limiter l’impact social négatif ?
La principale réponse, c’est que le modèle économique du Fediverse ne repose pas sur la valorisation lucrative des données, et que se détacher des modèles centralisés implique une remise en question de ce que sont les « réseaux » sociaux. La vocation d’un dispositif technologique comme le Fediverse n’est pas d’éliminer les pensées fascistes et leur expression, pas plus que la vocation des plateformes Twitter et Facebook n’est de diffuser des modèles démocratiques, malgré leur prétention à cet objectif. La démocratie, les échanges d’idées, et de manière générale les interactions sociales ne se décrètent pas par des modèles technologiques, pas plus qu’elles ne s’y résument.
Prétendre le contraire serait les restreindre à des modèles et des choix imposés (et on voit bien que la technique ne peut être neutre). Si Facebook, Twitter et consorts ont la prétention d’être les gardiens de la liberté d’expression, c’est bien davantage pour exploiter les données personnelles à des fins lucratives que pour mettre en place un débat démocratique.
Exit le vieux rêve du global village ? En fait, cette vieille idée de Marshall McLuhan ne correspond pas à ce que la plupart des gens en ont retenu. En 1978, lorsque Murray Turoff et Roxanne Hiltz publient The Network Nation, ils conceptualisent vraiment ce qu’on entend par « Communication médiée par ordinateur » : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, Murray Turoff et Roxanne Hiltz sont aujourd’hui considérés comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui. Ce qu’on a retenu de leurs travaux, et par la suite des nombreuses applications, c’est que l’avenir du débat démocratique, des processus de décision collective (M. Turoff travaillait pour des institutions publiques) ou de la recherche de consensus, reposent pour l’essentiel sur les technologies de communication. C’est vrai en un sens, mais M. Turoff mettait en garde3 :
Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.
Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs.
Aujourd’hui, communiquer dans un espace unique globalisé, centralisé et ouvert à tous les vents signifie que nous devons nous protéger individuellement contre les atteintes morales et psychiques de celleux qui s’immiscent dans nos échanges. Cela signifie que nos écrits puissent être utilisés et instrumentalisés plus tard à des fins non souhaitées. Cela signifie qu’au lieu du consensus et du débat démocratique nous avons en réalité affaire à des séries de buzz et des cancans. Cela signifie une mise en concurrence farouche entre des contenus discursifs de qualité et de légitimités inégales mais prétendument équivalents, entre une casserole qui braille La donna è mobile et la version Pavarotti, entre une conférence du Collège de France et un historien révisionniste amateur dans sa cuisine, entre des contenus journalistiques et des fake news, entre des débats argumentés et des plateaux-télé nauséabonds.
Tout cela ne relève en aucun cas du consensus et encore moins du débat, mais de l’annulation des chaînes de valeurs (quelles qu’elles soient) au profit d’une mise en concurrence de contenus à des fins lucratives et de captation de l’attention. Le village global est devenu une poubelle globale, et ce n’est pas brillant.
Là où les médias sociaux centralisés impliquaient une ouverture en faveur d’une croissance lucrative du nombre d’utilisateurs, le Fediverse se fout royalement de ce nombre, pourvu qu’il puisse mettre en place des chaînes de confiance.
Dans cette perspective, le Fediverse cherche à inverser la tendance. Non par la technologie (le protocole ActivityPub ou autre), mais par le fait qu’il incite à réfléchir sur la manière dont nous voulons conduire nos débats et donc faire circuler l’information.
On pourrait aussi bien affirmer qu’il est normal de se voir fermer les portes (ou du moins être exclu de fait) d’une instance féministe si on est soi-même un homme, ou d’une instance syndicaliste si on est un patron, ou encore d’une instance d’un parti politique si on est d’un autre parti. C’est un comportement tout à fait normal et éminemment social de faire partie d’un groupe d’affinités, avec ses expériences communes, pour parler de ce qui nous regroupe, d’actions, de stratégies ou simplement un partage d’expériences et de subjectivités, sans que ceux qui n’ont pas les mêmes affinités ou subjectivités puissent s’y joindre. De manière ponctuelle on peut se réunir à l’exclusion d’autre groupes, pour en sortir à titre individuel et rejoindre d’autre groupes encore, plus ouverts, tout comme on peut alterner entre l’intimité d’un salon et un hall de gare.
Dans ce texte paru sur le Framablog, A. Mansoux et R. R. Abbing montrent que le Fediverse est une critique de l’ouverture. Ils ont raison. Là où les médias sociaux centralisés impliquaient une ouverture en faveur d’une croissance lucrative du nombre d’utilisateurs, le Fediverse se fout royalement de ce nombre, pourvu qu’il puisse mettre en place des chaînes de confiance.
Un premier mouvement d’approche consiste à se débarrasser d’une conception complètement biaisée d’Internet qui fait passer cet ensemble de réseaux pour une sorte de substrat technique sur lequel poussent des services ouverts aux publics de manière égalitaire. Évidemment ce n’est pas le cas, et surtout parce que les réseaux ne se ressemblent pas, certains sont privés et chiffrés (surtout dans les milieux professionnels), d’autres restreints, d’autres plus ouverts ou complètement ouverts. Tous dépendent de protocoles bien différents. Et concernant les médias sociaux, il n’y a aucune raison pour qu’une solution technique soit conçue pour empêcher la première forme de modération, à savoir le choix des utilisateurs. Dans la mesure où c’est le propriétaire de l’instance (du serveur) qui reste in fine responsable des contenus, il est bien normal qu’il puisse maîtriser l’effort de modération qui lui incombe. Depuis les années 1980 et les groupes usenet, les réseaux sociaux se sont toujours définis selon des groupes d’affinités et des règles de modération clairement énoncées.
À l’inverse, avec des conditions générales d’utilisation le plus souvent obscures ou déloyales, les services centralisés tels Twitter, Youtube ou Facebook ont un modèle économique tel qu’il leur est nécessaire de drainer un maximum d’utilisateurs. En déléguant le choix de filtrage à chaque utilisateur, ces médias sociaux ont proposé une représentation faussée de leurs services :
Les médias sociaux mainstream sont tout sauf des espaces où serait censée s’exercer la démocratie bien qu’ils aient été considérés comme tels, dans une sorte de confusion entre le brouhaha débridé des contenus et la liberté d’expression. Lors du « printemps arabe » de 2010, par exemple, on peut dire que les révoltes ont beaucoup reposé sur la capacité des réseaux sociaux à faire circuler l’information. Mais il a suffi aux gouvernements de censurer les accès à ces services centralisés pour brider les révolutions. Ils se servent encore aujourd’hui de cette censure pour mener des négociations diplomatiques qui tantôt cherchent à attirer l’attention pour obtenir des avantages auprès des puissances hégémoniques tout en prenant la « démocratie » en otage, et tantôt obligent les GAFAM à se plier à la censure tout en facilitant la répression. La collaboration est le sport collectif des GAFAM. En Turquie, Amnesty International s’en inquiète et les exemples concrets ne manquent pas comme au Vietnam récemment.
Si les médias sociaux comme Twitter et Facebook sont devenus des leviers politiques, c’est justement parce qu’ils se sont présentés comme des supports technologiques à la démocratie. Car tout dépend aussi de ce qu’on entend par « démocratie ». Un mot largement privé de son sens initial comme le montre si bien F. Dupuis-Déri4. Toujours est-il que, de manière très réductrice, on tient pour acquis qu’une démocratie s’exerce selon deux conditions : que l’information circule et que le débat public soit possible.
Même en réduisant la démocratie au schéma techno-structurel que lui imposent les acteurs hégémoniques des médias sociaux, la question est de savoir s’il permettent la conjonction de ces conditions. La réponse est non. Ce n’est pas leur raison d’être.
Alors qu’Internet et le Web ont été élaborés au départ pour être des dispositifs égalitaires en émission et réception de pair à pair, la centralisation des accès soumet l’émission aux conditions de l’hébergeur du service. Là où ce dernier pourrait se contenter d’un modèle marchand basique consistant à faire payer l’accès et relayer à l’aveugle les contenus (ce que fait La Poste, encadrée par la loi sur les postes et télécommunications), la salubrité et la fiabilité du service sont fragilisés par la responsabilisation de l’hébergeur par rapport à ces contenus et la nécessité pour l’hébergeur à adopter un modèle économique de rentabilité qui repose sur la captation des données des utilisateurs à des fins de marketing pour prétendre à une prétendue gratuité du service5. Cela implique que les contenus échangés ne sont et ne seront jamais indépendants de toute forme de censure unilatéralement décidée (quoi qu’en pensent les politiques qui entendent légiférer sur l’emploi des dispositifs qui relèveront toujours de la propriété privée), et jamais indépendants des impératifs financiers qui justifient l’économie de surveillance, les atteintes à notre vie privée et le formatage comportemental qui en découlent.
Paradoxalement, le rêve d’un espace public ouvert est tout aussi inatteignable pour les médias sociaux dits « alternatifs », où pour des raisons de responsabilité légale et de choix de politique éditoriale, chaque instance met en place des règles de modération qui pourront toujours être considérées par les utilisateurs comme abusives ou au moins discutables. La différence, c’est que sur des réseaux comme le Fediverse (ou les instances usenet qui reposent sur NNTP), le modèle économique n’est pas celui de l’exploitation lucrative des données et n’enferme pas l’utilisateur sur une instance en particulier. Il est aussi possible d’ouvrir sa propre instance à soi, être le seul utilisateur, et néanmoins se fédérer avec les autres.
De même sur chaque instance, les règles d’usage pourraient être discutées à tout moment entre les utilisateurs et les responsables de l’instance, de manière à créer des consensus. En somme, le Fediverse permet le débat, même s’il est restreint à une communauté d’utilisateurs, là où la centralisation ne fait qu’imposer un état de fait tout en tâchant d’y soumettre le plus grand nombre. Mais dans un pays comme le Vietnam où l’essentiel du trafic Internet passe par Facebook, les utilisateurs ont-ils vraiment le choix ?
Ce sont bien la centralisation et l’exploitation des données qui font des réseaux sociaux comme Facebook, YouTube et Twitter des instruments extrêmement sensibles à la censure d’État, au service des gouvernements totalitaires, et parties prenantes du fascisme néolibéral.
L’affaire Cambridge Analytica a bien montré combien le débat démocratique sur les médias sociaux relève de l’imaginaire, au contraire fortement soumis aux effets de fragmentation discursive. Avant de nous demander quelles idéologies elles permettent de véhiculer nous devons interroger l’idéologie des GAFAM. Ce que je soutiens, c’est que la structure même des services des GAFAM ne permet de véhiculer vers les masses que des idéologies qui correspondent à leurs modèles économiques, c’est-à-dire compatibles avec le profit néolibéral.
En reprenant des méthodes d’analyse des années 1970-80, le marketing psychographique et la socio-démographie6, Cambridge Analytica illustre parfaitement les trente dernières années de perfectionnement de l’analyse des données comportementales des individus en utilisant le big data. Ce qui intéresse le marketing, ce ne sont plus les causes, les déterminants des choix des individus, mais la possibilité de prédire ces choix, peu importent les causes. La différence, c’est que lorsqu’on applique ces principes, on segmente la population par stéréotypage dont la granularité est d’autant plus fine que vous disposez d’un maximum de données. Si vous voulez influencer une décision, dans un milieu où il est possible à la fois de pomper des données et d’en injecter (dans les médias sociaux, donc), il suffit de voir quels sont les paramètres à changer. À l’échelle de millions d’individus, changer le cours d’une élection présidentielle devient tout à fait possible derrière un écran.
C’est la raison pour laquelle les politiques du moment ont surréagi face au bannissement de Trump des plateformes comme Twitter et Facebook (voir ici ou là). Si ces plateformes ont le pouvoir de faire taire le président des États-Unis, c’est que leur capacité de caisse de résonance accrédite l’idée qu’elles sont les principaux espaces médiatiques réellement utiles aux démarches électoralistes. En effet, nulle part ailleurs il n’est possible de s’adresser en masse, simultanément et de manière segmentée (ciblée) aux populations. Ce faisant, le discours politique ne s’adresse plus à des groupes d’affinité (un parti parle à ses sympathisants), il ne cherche pas le consensus dans un espace censé servir d’agora géante où aurait lieu le débat public. Rien de tout cela. Le discours politique s’adresse désormais et en permanence à chaque segment électoral de manière assez fragmentée pour que chacun puisse y trouver ce qu’il désire, orienter et conforter ses choix en fonction de ce que les algorithmes qui scandent les contenus pourront présenter (ou pas). Dans cette dynamique, seul un trumpisme ultra-libéral pourra triompher, nulle place pour un débat démocratique, seules triomphent les polémiques, la démagogie réactionnaire et ce que les gauches ont tant de mal à identifier7 : le fascisme.
Face à cela, et sans préjuger de ce qu’il deviendra, le Fediverse propose une porte de sortie sans toutefois remettre au goût du jour les vieilles représentations du village global. J’aime à le voir comme une multiplication d’espaces (d’instances) plus où moins clos (ou plus ou moins ouverts, c’est selon) mais fortement identifiés et qui s’affirment les uns par rapport aux autres, dans leurs différences ou leurs ressemblances, en somme dans leurs diversités.
C’est justement cette diversité qui est à la base du débat et de la recherche de consensus, mais sans en constituer l’alpha et l’oméga. Les instances du Fediverse, sont des espaces communs d’immeubles qui communiquent entre eux, ou pas, ni plus ni moins. Ils sont des lieux où l’on se regroupe et où peuvent se bâtir des collectifs éphémères ou non. Ils sont les supports utilitaires où des pratiques d’interlocution non-concurrentielles peuvent s’accomplir et s’inventer : microblog, blog, organiseur d’événement, partage de vidéo, partage de contenus audio, et toute application dont l’objectif consiste à outiller la liberté d’expression et non la remplacer.
Angélisme ? Peut-être. En tout cas, c’est ma manière de voir le Fediverse aujourd’hui. L’avenir nous dira ce que les utilisateurs en feront.
« Il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité. » écrit Laurent Chemla. Diable, il n’y va pas de main morte, le « précurseur dans le domaine d’Internet » selon sa page Wikipédia.
Nous reproduisons ici avec son accord l’article qu’il vient de publier sur son blog parce qu’il nous paraît tout à fait intéressant et qu’il est susceptible de provoquer le débat : d’aucuns trouveront sa proposition nécessaire pour franchir une étape dans la lutte contre des Léviathans numériques et le consentement à la captivité. D’autres estimeront peut-être que sa conception a de bien faibles chances de se concrétiser : est-il encore temps de réguler les Gafam ?
Nous souhaitons que s’ouvre ici (ou sur son blog bien sûr) la discussion. Comme toujours sur le Framablog, les commentaires sont ouverts mais modérés.
« Interopérabilité » : ce mot m’ennuie. Il est moche, et beaucoup trop long.
Pourtant il est la source même d’Internet. Quasiment sa définition, au moins sémantique puisqu’il s’agit de faire dialoguer entre eux des systèmes d’information d’origines variées mais partageant au sein d’un unique réseau de réseaux la même « lingua franca » : TCP/IP et sa cohorte de services (ftp, http, smtp et tant d’autres) définis par des standards communs. Des machines « interopérables », donc.
Faisons avec.
L’interopérabilité, donc, est ce qui a fait le succès d’Internet, et du Web. Vous pouvez vous connecter sur n’importe quel site Web, installé sur n’importe quel serveur, quelle que soit sa marque et son système d’exploitation, depuis votre propre ordinateur, quelle que soit sa marque, son système d’exploitation, et le navigateur installé dessus.
Avant ça existaient les silos. Compuserve, AOL, The Microsoft Network en étaient les derniers représentants, dinosaures communautaires enterrés par la comète Internet. Leur volonté d’enfermer le public dans des espaces fermés, contrôlés, proposant tant bien que mal tous les services à la fois, fut ridiculisée par la décentralisation du Net.
Ici vous ne pouviez échanger qu’avec les clients du même réseau, utilisant le même outil imposé par le vendeur (« pour votre sécurité »), là vous pouviez choisir votre logiciel de mail, et écrire à n’importe qui n’importe où. Interopérabilité.
Ici vous pouviez publier vos humeurs, dans un format limité et imposé par la plateforme (« pour votre sécurité »), là vous pouviez installer n’importe quel « serveur web » de votre choix et y publier librement des pages accessibles depuis n’importe quel navigateur. Interopérabilité.
Bref. Le choix était évident, Internet a gagné.
Il a gagné, et puis… Et puis, selon un schéma désormais compris de tous, le modèle économique « gratuité contre publicité » a envahi le Web, en créant – une acquisition après l’autre, un accaparement de nos données après l’autre – de nouveaux géants qui, peu à peu, se sont refermés sur eux-mêmes (« pour votre sécurité »).
Il fut un temps où vous pouviez écrire à un utilisateur de Facebook Messenger depuis n’importe quel client, hors Facebook, respectant le standard (en l’occurrence l’API) défini par Facebook. Et puis Facebook a arrêté cette fonctionnalité. Il fut un temps où vous pouviez développer votre propre client Twitter, qui affichait ses timelines avec d’autres règles que celles de l’application officielle, pourvu qu’il utilise le standard (encore une API) défini par Twitter. Et puis Twitter a limité cette fonctionnalité. De nos jours, il devient même difficile d’envoyer un simple email à un utilisateur de Gmail si l’on utilise pas soi-même Gmail, tant Google impose de nouvelles règles (« pour votre sécurité ») à ce qui était, avant, un standard universel.
On comprend bien les raisons de cette re-centralisation : tout utilisateur désormais captif devra passer davantage de temps devant les publicités, imposées pour pouvoir utiliser tel ou tel service fermé. Et il devra – pour continuer d’utiliser ce service – fournir toujours davantage de ses données personnelles permettant d’affiner son profil et de vendre plus cher les espaces publicitaires. Renforçant ainsi toujours plus les trésoreries et le pouvoir de ces géants centralisateurs, qui ainsi peuvent aisément acquérir ou asphyxier tout nouveau wanabee concurrent, et ainsi de suite.
C’est un cercle vertueux (pour les GAFAM) et vicieux (pour nos vies privées et nos démocraties), mais c’est surtout un cercle « normal » : dès lors que rien n’impose l’interopérabilité, alors – pour peu que vous soyez devenu assez gros pour vous en passer – vous n’avez plus aucun intérêt à donner accès à d’autres aux données qui vous ont fait roi. Et vous abandonnez alors le modèle qui a permis votre existence au profit d’un modèle qui permet votre croissance. Infinie.
Imaginez, par exemple, qu’à l’époque des cassettes vidéo (respectant le standard VHS) un fabricant de magnétoscopes ait dominé à ce point le marché qu’on ait pu dire qu’il n’en existait virtuellement pas d’autres : il aurait évidemment modifié ce standard à son profit, en interdisant par exemple l’utilisation de cassettes d’autres marques que la sienne (« pour votre sécurité »), de manière à garantir dans le temps sa domination. C’est un comportement « normal », dans un monde libéral et capitaliste. Et c’est pour limiter ce comportement « normal » que les sociétés inventent des régulations (standards imposés, règles de concurrence, lois et règlements).
Et il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité.
Nous devons pouvoir, de nouveau, écrire depuis n’importe quel logiciel de messagerie à un utilisateur de Facebook Messenger, pourvu qu’on respecte le standard défini par Facebook, comme nous devons écrire à n’importe quel utilisateur de Signal en respectant le standard de chiffrement de Signal. Il n’est pas question d’imposer à Signal (ou à Facebook) un autre standard que celui qu’il a choisi (ce qui empêcherait toute innovation), pourvu que le standard choisi soit public, et libre d’utilisation. Mais il est question de contraindre Facebook à (ré)ouvrir ses API pour permettre aux utilisateurs d’autres services d’interagir de nouveau avec ses propres utilisateurs.
Au passage, ce point soulève une problématique incidente : l’identité. Si je peux écrire à un utilisateur de Messenger, celui-ci doit pouvoir me répondre depuis Messenger. Or Messenger ne permet d’écrire qu’aux autres utilisateurs de Messenger, identifiés par Facebook selon ses propres critères qu’il n’est pas question de lui imposer (il a le droit de ne vouloir admettre que des utilisateurs affichant leur « identité réelle », par exemple : ce choix est le sien, comme il a le droit de limiter les fonctionnalités de Messenger pour lui interdire d’écrire à d’autres : ce choix est aussi le sien).
Il est donc cohérent d’affirmer que – pour pouvoir écrire à un utilisateur de Messenger depuis un autre outil – il faut avoir soi-même un compte Messenger. Il est donc logique de dire que pour pouvoir lire ma timeline Twitter avec l’outil de mon choix, je dois avoir un compte Twitter. Il est donc évident que pour accéder à mon historique d’achat Amazon, je dois avoir un compte Amazon, etc.
L’obligation d’avoir une identité reconnue par le service auquel on accède, c’est sans doute le prix à payer pour l’interopérabilité, dans ce cas (et – au passage – c’est parce que la Quadrature du Net a décidé d’ignorer cette évidence que j’ai choisi de quitter l’association).
Ce qui ne doit évidemment pas nous obliger à utiliser Messenger, Amazon ou Twitter pour accéder à ces comptes : l’interopérabilité doit d’accéder à nos contacts et à nos données depuis l’outil de notre choix, grâce à l’ouverture obligatoire des API, pourvu qu’on dispose d’une identité respectant les standards du service qui stocke ces données.
On pourrait résumer ce nouveau type de régulation avec cette phrase simple :
« si ce sont MES données, alors je dois pouvoir y accéder avec l’outil de MON choix ».
Je dois pouvoir lire ma timeline Twitter depuis l’outil de mon choix (et y publier, si évidemment j’y ai un compte, pour que les autres utilisateurs de Twitter puissent s’y abonner).
Je dois pouvoir consulter mon historique d’achats chez Amazon avec l’outil de mon choix.
Je dois pouvoir écrire à (et lire les réponses de) mes contacts Facebook avec l’outil de mon choix.
Il y aura, évidemment, des résistances.
On nous dira (« pour votre sécurité ») que c’est dangereux, parce que nos données personnelles ne seront plus aussi bien protégées, dispersées parmi tellement de services décentralisés et piratables. Mais je préfère qu’une partie de mes données soit moins bien protégée (ce qui reste à démontrer) plutôt que de savoir qu’une entreprise privée puisse vendre (ou perdre) la totalité de ce qui est MA vie.
On nous dira que c’est « excessivement agressif pour le modèle économique des grandes plateformes », alors qu’évidemment c’est justement le modèle économique des grandes plateformes qui est excessivement agressif pour nos vies privées et nos démocraties, d’une part, et que d’autre part l’interopérabilité ne modifie en rien ce modèle économique : dès lors qu’elles stockent toujours une partie de nos données elles restent (hélas) en capacité de les vendre et/ou de les utiliser pour « éduquer » leurs IA. Tout au plus constateront-elles un manque-à-gagner comptable, mais ne gagnent-elles pas déjà largement assez ?
À ce jour, l’interopérabilité s’impose comme la seule solution réaliste pour limiter le pouvoir de nuisance de ces géants, et pour rétablir un peu de concurrence et de décentralisation dans un réseau qui, sinon, n’a plus d’autre raison d’être autre chose qu’un simple moyen d’accéder à ces nouveaux silos (qu’ils devraient donc financer, eux, plutôt que les factures de nos FAI).
À ce jour, l’ARCEP, la Quadrature du Net (même mal), l’EFF, le Sénat, et même l’Europe (Margrethe Vestager s’est elle-même déclarée en faveur de cette idée) se sont déclarés pour une obligation d’intéropérabilité. C’est la suite logique (et fonctionnelle) du RGPD.
Qu’est-ce qu’on attend ?
Suite à ce billet des discussions sur Twitter et Mastodon, indépendamment, m’ont amené à préciser ceci : prenons par exemple mamot.fr (l’instance Mastodon de la Quadrature) et gab.ai (l’instance Mastodon de la fachosphère). Mamot.fr, comme nombre d’autres instances, a refusé de se fédérer avec Gab. C’est son droit. En conséquence, les utilisateurs de Gab ne peuvent pas poster sur Mamot, et inversement.
Pour autant, les deux sont bel et bien interopérables, et pour cause : elles utilisent le même logiciel. Gab pourrait parfaitement développer un bout de code pour permettre à ses utilisateurs de publier sur Mamot, pour peu qu’ils s’y soient identifiés (via une OAuth, pour les techniciens) prouvant ainsi qu’ils en acceptent les CGU.
Ce qu’elles ne sont pas, c’est interconnectées : il n’est pas possible de publier sur l’une en s’identifiant sur l’autre, et inversement.
Je crois qu’au fond, les tenants de l’idée qu’on devrait pouvoir publier n’importe quoi n’importe où, sans identification supplémentaire, confondent largement ces deux notions d’interconnexion et d’interopérabilité. Et c’est fort dommage, parce que ça brouille le message de tous.
Pour aller plus loin dans la technique, vous pouvez aussi lire cette réponse de Laurent dans les commentaires de NextINpact.
]]>Aude Vidal qui signe l’article ci-dessous est autrice d’Égologie (Le Monde à l’envers) et de La Conjuration des ego. Féminismes et individualisme (Syllepse), éditrice d’On achève bien les éleveurs (L’Échappée).
Nous la remercions de nous autoriser à reproduire ici le 300e billet de son blog sur l’écologie politique où elle aborde avec vigueur et acuité les diverses facettes de son engagement : écologie, féminisme, anti-capitalisme…
Il s’agit ici d’une réflexion sur la difficulté, y compris en milieu militant, à renoncer au confort (« c’est pratique ») procuré par nos outils numériques, pour réapprendre peut-être à… se faire chier ?
Je n’aime pas me faire chier dans la vie, et je ne dois pas être la seule.
Il m’arrive pourtant souvent d’être surprise que ce soit, autour de moi, un critère décisif pour organiser sa vie : aller au plus pratique. À ce qui engage le moins d’efforts. Les pubs fourmillent d’invitations à se laisser dorloter en échange de quelques euros. Le champ des services ne cesse jamais de s’étendre – et de libérer la croissance. Plus besoin de sortir se faire couper les cheveux, le coiffeur vient chez vous. Inutile de penser à mettre de la bière au frigo, un livreur vous l’apporte. Des services auparavant réservés aux client·es des grands hôtels se massifient désormais : faites livrer des fleurs, chercher un document à la maison, etc. Votre maison est devenue le centre du monde, si vous le voulez bien. Il doit bien être possible de faire autrement, c’est comme cela que nous vivions il y a encore cinq ans.
Tous ces services se déploient dans une société de plus en plus inégalitaire : d’un côté des gens qui méritent de bien bouffer après leur journée de boulot ou une réunion exigeante (voir les pubs qui mettent en scène le réconfort après l’effort), de l’autre des galériens qui sont payés une misère pour leur livrer un pad thai ou un kit apéro (ici le témoignage d’un livreur chez Frichti). C’est surtout parce que le chômage reste massif et l’armée de réserve importante, parce que les emplois ont été délibérément déqualifiés en auto-entreprise que ces entreprises prolifèrent. Si les galériens en ont marre de risquer leur vie et la vôtre en conduisant comme des dingues, ils trouveront un migrant à qui faire faire le boulot. Mais le tout s’appuie sur un mélange de paresse et de sens de ce qui lui est dû qui saisit l’individu en régime libéral au moment de faire à bouffer ou de s’occuper de la dimension matérielle de sa vie. Certes nous devons encore être quelques-un·es à cuire des nouilles quand nous avons la flemme de cuisiner et qui apprécions de sortir au restaurant pour nous changer les idées, découvrir un autre monde, des odeurs,une ambiance (et je n’oublie pas que ces lieux aussi sont propices à l’exploitation du travail). Mais la compétition économique pousse au cul tout le monde pour inventer des services innovants – c’est à dire dont personne n’avait vraiment besoin, qui étaient des rêves d’enfants gâtés mais qui, intelligemment marketés, nous laissent imaginer que nos vies sont vachement mieux avec. Ils constituent une industrie de la compensation sur laquelle il faudra mettre le doigt un jour et qui en attendant offre aux winners des vies de merde pleines de gratifications.
C’est pratique aussi, quand votre smartphone pense à votre place, que le logiciel va chercher vos mots de passe sur une autre bécane, recueille et transfère vos données à votre insu… Pratique, mais un peu inquiétant. Qu’importe, c’est surtout bien pratique ! Je suis la première à ne pas faire en matière de sécurité tous les efforts que me proposent des camarades plus cultivés que moi sur ces questions. Mais malgré cette désinvolture, je flippe quand je vois le niveau d’indépendance acquis par mon smartphone. Après des années de résistance et bien qu’il soit encore possible d’acheter neufs des téléphones bien conçus qui permettent de téléphoner (et d’avoir l’heure), j’ai cédé pour le côté pratique (1) : plus besoin de m’inquiéter d’avoir une connexion Internet régulière, de préparer mes déplacements et ma vie sociale comme je le faisais, avec capture d’écran de plans, schémas dessinés dans l’agenda, infos importantes notées sur papier, etc. Mais je me sens sous tutelle, dépossédée, comme une gamine gâtée sauf que je sais ce que c’est que l’autonomie et je regrette celle que j’avais avant.
Car c’est pratique mais c’est une dépossession : plus la peine de se soucier de la dimension matérielle de sa vie (et de savoir cuire des nouilles), pas besoin de garder la maîtrise de ses outils… Jusqu’ici, tout va bien, tant qu’on fait encore partie de la petite bourgeoisie qui peut se payer tout ça, tant que des pans entiers du macro-système technicien ne s’effondrent pas. Mais tout cela nous déqualifie humainement et il est des menaces plus immédiates encore que l’effondrement écologique ou une vraie crise de l’énergie : nos libertés, individuelles et collectives.
Je côtoie beaucoup de personnes engagées, qui n’ont pas de mots assez durs pour stigmatiser le capitalisme et le productivisme, qui éteignent la lumière dans les pièces qu’elles n’utilisent pas et qui pourtant maintiennent des comptes dans des réseaux sociaux devenus plus gros que des États, qui consomment un paquet de ressources et d’énergie pour calculer ce qu’elles aiment et vendre le résultat à d’autres boîtes, censurent leurs images, détournent leurs « ami·es » d’elles ou réciproquement sur base algorithmique, censurent les noms de groupes pas assez familiaux, gèrent leur environnement social comme un pensionnat dans les années 1950 en attendant de purement et simplement censurer leurs propos (2). Et ces personnes, parfois ces collectifs et associations, restent parce que c’est « pratique »(3).
J’ai toujours reçu un minimum d’écho dans des groupes anti-capitalistes, écologistes ou féministes, quand j’ai suggéré que Facebook, Twitter, Google Drive et autres n’étaient pas nos amis et proposé d’utiliser les outils créés et maintenus par des groupes politiques plus proches de nous et soucieux de nos libertés : les outils Framasoft (qui vont du pad à l’agenda en ligne, en passant par l’interface de sondages et la feuille de calcul), le Crabgrass de Riseup qui offre des fonctionnalités magiques et je me désole de ne faire partie d’aucun groupe qui l’utilise, etc. Et j’ai régulièrement mis en cause chez mes correspondant·es l’idée saugrenue d’avoir un compte Gmail qui vous pousse à garder dix ans de données en ligne plutôt que de ranger dans des fichiers dédiés et régulièrement sauvegardés les images qui vous tiennent à cœur. Et chaque fois, ce que j’entends, c’est que ce serait sympa de sauver la banquise mais… quand même, c’est pratique. Et j’ai vu des bonnes volontés s’arrêter au fait que Framacalc ne propose pas de mettre en couleur les cases, même quand cette couleur contribue à la lisibilité de la feuille sans rajouter aucune information digne d’intérêt. Aucune. Ces outils sont parfois moins bien que leur concurrence commerciale mais ne peut-on arbitrer sur d’autres critères ?
Nous n’allons pas nous flageller, non : si ces entreprises prolifèrent, de la start-up aux GAFA, c’est bien parce que les États leur laissent la bride sur le col. Ils démontent le droit du travail au profit de la micro-entreprise, ils votent des législations liberticides et laissent passer des pratiques intrusives et des concentrations industrielles qui devraient normalement tomber sous le coup de lois anti-trust (Messenger + Facebook + WhatsApp + Instagram, what else ?). C’est bien simple : les appels au contrôle des GAFA viennent aujourd’hui du sein desdits GAFA (et pas forcément des concurrents !) autant que des politiques. Visiblement, ça nous touche moins que la dernière vidéo de pandas mignons qui fait le buzz. Mais ça devrait. Et bien que notre marge de manœuvre soit limitée, bien qu’une défection individuelle ne signifie pas grand-chose numériquement, même si c’est dur de se passer des centaines de likes qui saluent vos traits d’esprit et vos indignations sur Twitter, même si votre organisation a fait son trou sur Facebook, il me semble que la première chose à faire, dans cette situation, c’est de quitter ces réseaux pour en faire vivre de plus démocratiques, sobres et décentralisés. Votre engagement anti-capitaliste, écologiste et anti-autoritaire le mérite bien…
Mauvaise nouvelle : il va falloir réapprendre à se faire un peu chier, dans la vie.
PS : Ceci est mon 300e billet sur ce blog, ouvert il y a exactement dix ans. 300 billets, ça ne veut pas dire 300 textes, il y a quelques annonces sur le lot. Mais oui, cela fait deux textes par mois en moyenne. Les meilleurs ont été publiés ailleurs (notamment dans les journaux papier L’An 02, CQFD, L’Âge de faire, Moins ! et d’autres encore) ou reformulés dans le cadre des livres Égologie (Le Monde à l’envers, 2007) et La Conjuration des ego (Syllepse, 2019). Je prépare aussi la réédition de ma brochure sur le revenu garanti (aux éditions du Monde à l’envers cet hiver). C’est un blog qui m’a aidée à écrire dans des formats courts puis un peu plus longs (mais toujours pas très longs !) et à faire œuvre malgré le chômage de longue durée et le manque de sollicitations. Je me fais chier à payer le nom de domaine chaque année, ce qui permet de bénéficier d’un hébergement offert par Gandi.net et de ne pas livrer votre cerveau à la publicité.
(1) À vrai dire j’ai cédé dans la perspective d’un travail de terrain à l’étranger, où les seuls accès à Internet se faisaient par mobile et où mes informateurs utilisaient WhatsApp plus volontiers que des sms hors de prix. Et j’y ai gagné un dictaphone de bien meilleure qualité. Mais au quotidien, en France, je me laisse convaincre par le smartphone alors que j’ai encore le choix tous les matins de mettre plutôt mon vieux Nokia dans ma poche.
(2) Ces réseaux sociaux hébergent vos propos, vous permettent de mettre en ligne vos textes, images, fichiers vidéo et audio. Vous restez responsable de vos publications. Tout va bien. Sauf que les dernières innovations en matière de libertés civiles (qui s’accompagnent de la remise en cause d’un droit de la presse qui fonctionne très bien depuis 1881) font de ces réseaux vos éditeurs, lesquels partagent avec vous la responsabilité pénale de vos publications. Devinez la peine que vont prendre ces gros acteurs capitalistes à faire vérifier par des petites mains rémunérées que vos propos sont en effet contraires à la loi, diffamatoires, insultants ou appelant à la haine ? C’est moins cher de le mettre à la poubelle dès qu’une personne qui ne vous aime pas les signale, d’autant plus que vous ne représentez rien (à moins que vous ne soyez Donald Trump, dans ce cas l’appel à la haine est acceptable). Les organisations qui pourraient se saisir de ce cas de censure pour le rendre public sont elles aussi sur ces réseaux (qui contrôlent leur audience) ou ailleurs et plus personne ne les entend crier parce que tout le monde est sur Facebook. Monde de rêve, hein ?
(3) Moi aussi, je reste, tentant de limiter ma participation et préférant socialiser dans des lieux plus proches de mes valeurs, Seenthis.net ou Mastodon.
]]>
La traduction suivante est la suite et la continuation du travail entamé la semaine dernière sur le long rapport final élaboré par le comité « Digital, Culture, Media and Sport » du Parlement britannique, publié le 14 février dernier, sur la désinformation et la mésinformation.
Maintenant que le décor est posé, on aborde les questions réglementaires. Après avoir clairement défini ce qu’est une fake news, que nous avons traduit par « infox » et que les auteurs regroupent sous le terme plus précis de « désinformation », il est question de définir une nouvelle catégorie de fournisseurs de service pour caractériser leur responsabilité dans les préjudices faits à la société ainsi que des solutions pour protéger le public et financer l’action des structures de contrôle.
Le groupe Framalang a en effet entrepris de vous communiquer l’intégralité du rapport en feuilleton suivant l’avancement de la traduction.
Vous trouverez le texte intégral en suivant ce lien vers le PDF original (3,8 Mo).
La traduction est effectuée par le groupe Framalang, avec l’aide de toutes celles et ceux qui veulent bien participer et pour cet opus :
Traducteurs : Khrys, Lumibd, Maestox, simon, Fabrice, serici, Barbara, Angie, Fabrice, simon
11. Dans notre rapport intermédiaire, nous avons désavoué le terme d’« infox » puisqu’il a « pris de nombreux sens, notamment une description de toute affirmation qui n’est pas appréciée ou en accord avec l’opinion du lecteur » et nous avons recommandé à la place les termes de « mésinformation » ou de « désinformation ». Avec ces termes viennent « des directives claires à suivre pour les compagnies, organisations et le Gouvernement » liées à « une cohérence partagée de la définition sur les plateformes, qui peuvent être utilisées comme la base de la régulation et de l’application de la loi »1.
12. Nous avons eu le plaisir de voir que le Gouvernement a accepté notre point de vue sur le fait que le terme « infox » soit trompeur, et ait essayé à la place d’employer les termes de « désinformation » et de « mésinformation ». Dans sa réponse, le gouvernement a affirmé :
Dans notre travail, nous avons défini le mot « désinformation » comme la création et le partage délibérés d’informations fausses et/ou manipulées dans le but de tromper et d’induire en erreur le public, peu importe que ce soit pour porter préjudice, ou pour des raisons politiques, personnelles ou financières. La « mésinformation » se réfère au partage par inadvertance de fausses informations2.
13. Nous avons aussi recommandé une nouvelle catégorie d’entreprises de réseaux sociaux, qui resserrent les responsabilités des entreprises de technologie et qui ne sont pas forcément « une plateforme » ou un « éditeur ». le gouvernement n’a pas du tout répondu à cette recommandation, mais Sharon White, Pdg de Of.com a qualifié cette catégorie de « très soignée » car les « plateformes ont vraiment des responsabilités, même si elles ne génèrent pas les contenus, concernant ce qu’elles hébergent et promeuvent sur leur site ».3.
14. Les entreprises de réseaux sociaux ne peuvent se cacher derrière le fait qu’elles seraient simplement une plateforme, et maintenir qu’elles n’ont elles-mêmes aucune responsabilité sur la régulation du contenu de leurs sites. Nous répétons la recommandation de notre rapport provisoire, qui stipule qu’une nouvelle catégorie d’entreprises technologiques doit être définie qui renforcera les responsabilités des entreprises technologiques et qui ne sont pas forcément « une plateforme » ou un « éditeur ». Cette approche voudrait que les entreprises de technologie prennent leur responsabilité en cas de contenu identifié comme étant abusif après qu’il a été posté par des utilisateurs. Nous demandons au gouvernement de prendre en compte cette nouvelle catégorie de compagnies technologiques dans son livre blanc qui va paraître prochainement.
15. Plus tôt dans le cadre de notre enquête, nous avons écouté le témoignage de Sandy Parakilas et Tristan Harris, qui étaient tous deux à l’époque impliqués dans le Center for Human Technology, situé aux États-Unis. Le centre a compilé un « Recueil de Préjudices » qui résume les « impacts négatifs de la technologie qui n’apparaissent pas dans les bilans des entreprises, mais dans le bilan de la société ».4 Le Recueil de Préjudices contient les impacts négatifs de la technologie, notamment la perte d’attention, les problèmes de santé mentale, les confusions sur les relations personnelles, les risques qui pèsent sur nos démocraties et les problèmes qui touchent les enfants.5.
16. La prolifération des préjudices en ligne est rendu plus dangereuse si on axe des messages spécifiques sur des individus suite à des « messages micro-ciblés », qui jouent souvent sur les opinions négatives qu’ont les gens d’eux-mêmes et des autres et en les déformant. Cette déformation est rendue encore plus extrême par l’utilisation de « deepfakes » 6 audio et vidéos qui sonnent et ressemblent à une personne existante tenant des propos qui ne lui appartiennent pas.7 Comme nous l’avons dit dans notre rapport intermédiaire, la détection de ces exemples ne deviendra que plus complexe et plus difficile à démasquer au fur et à mesure de la sophistication des logiciels 8.
17. Le ministre de la santé, le député Hon Matthew Hancock, a récemment mis en garde les sociétés informatiques, notamment Facebook, Google et Twitter, qu’elles étaient en charge de la suppression des contenus inappropriés, blessants suite à la mort de Molly Russel, qui à 14 ans s’est suicidée en novembre 2017. Son compte Instagram contenait du contenu en lien avec la dépression, l’auto-mutilation et le suicide. Facebook, propriétaire d’Instagram, s’est déclaré profondément désolé de l’affaire.9 Le directeur d’Instagram, Adam Mosseri, a rencontré le secrétaire de la Santé début février 2019 et déclaré qu’Instagram n’était pas « dans une situation où il était nécessaire de traiter le problème de l’auto-mutilation et du suicide » et que cela revenait à arbitrer entre « agir maintenant et agir de manière responsable » 10
18. Nous relevons également que dans son discours du 5 février 2019, la députée Margot James, ministre du numérique dans le département du numérique, de la culture, des médias et du sport a exprimé ses craintes :
La réponse des principales plateformes est depuis trop longtemps inefficace. Il y a eu moins de 15 chartes de bonne conduite mises en place volontairement depuis 2008. Il faut maintenant remettre absolument en cause un système qui n’a jamais été suffisamment encadré par la loi. Le livre blanc, que le DCMS produit en collaboration avec le ministère de l’intérieur sera suivi d’une consultation durant l’été et débouchera sur des mesures législatives permettant de s’assurer que les plateformes supprimeront les contenus illégaux et privilégieront la protection des utilisateurs, particulièrement des enfants, adolescents et adultes vulnérables. 11
19. Comme nous l’avons écrit dans notre rapport intermédiaire, les sociétés fournissant des réseaux sociaux tout comme celles fournissant des moteurs de recherche utilisent des algorithmes ou des séquences d’instructions pour personnaliser les informations et autres contenus aux utilisateurs. Ces algorithmes sélectionnent le contenu sur la base de facteurs tels que l’activité numérique passée de l’utilisateur, ses connexions sociales et leur localisation. Le modèle de revenus des compagnies d’Internet repose sur les revenus provenant de la vente d’espaces publicitaires et parce qu’il faut faire du profit, toute forme de contenu augmentant celui-ci sera priorisé. C’est pourquoi les histoires négatives seront toujours mises en avant par les algorithmes parce qu’elles sont plus fréquemment partagées que les histoires positives.12
20. Tout autant que les informations sur les compagnies de l’internet, les informations sur leurs algorithmes doivent être plus transparentes. Ils comportent intrinsèquement des travers, inhérents à la façon dont ils ont été développés par les ingénieurs ; ces travers sont ensuite reproduits diffusés et renforcés. Monica Bickert, de Facebook, a admis « que sa compagnie était attentive à toute forme de déviance, sur le genre, la race ou autre qui pourrait affecter les produits de l’entreprise et que cela inclut les algorithmes ». Facebook devrait mettre plus d’ardeur à lutter contre ces défauts dans les algorithmes de ses ingénieurs pour éviter leur propagation.
13
21. Dans le budget de 2017, le Centre des données Ethiques et de l’innovation a été créé par le gouvernement pour conseiller sur « l’usage éthique, respectueux et innovant des données, incluant l’IA ». Le secrétaire d’état a décrit son rôle ainsi :
Le Centre est un composant central de la charte numérique du gouvernement, qui définit des normes et des règles communes pour le monde numérique. Le centre permettra au Royaume-Uni de mener le débat concernant l’usage correct des données et de l’intelligence artificielle.14
22. Le centre agira comme un organisme de recommandation pour le gouvernement et parmi ses fonctions essentielles figurent : l’analyse et l’anticipation des manques en termes de régulation et de gestion ; définition et orchestration des bonnes pratiques, codes de conduites et standards d’utilisations de l’Intelligence Artificielle ; recommandation au gouvernement sur les règles et actions réglementaires à mettre en place en relation avec l’usage responsable et innovant des données. 15
23. La réponse du gouvernement à notre rapport intermédiaire a mis en lumière certaines réponses à la consultation telle que la priorité de l’action immédiate du centre, telle que « le monopole sur la donnée, l’utilisation d’algorithme prédictifs dans la police, l’utilisation de l’analyse des données dans les campagnes politiques ainsi que l’éventualité de discrimination automatisée dans les décisions de recrutement ». Nous nous félicitons de la création du Centre et nous nous réjouissons à la perspective d’en recueillir les fruits de ses prochaines travaux.
24. D’autres pays ont légiféré contre le contenu malveillant sur les plateformes numériques. Comme nous l’avons relevé dans notre rapport intermédiaire, les compagnies d’internet en Allemagne ont été contraintes initialement de supprimer les propos haineux en moins de 24 heures. Quand cette auto-régulation s’est montrée inefficace, le gouvernement allemand a voté le Network Enforcement Act, aussi connu sous le nom de NetzDG, qui a été adopté en janvier 2018. Cette loi force les compagnies technologiques à retirer les propos haineux de leurs sites en moins de 24 heures et les condamne à une amende de 20 millions d’euros si ces contenus ne sont pas retirés16. Par conséquent, un modérateur sur six de Facebook travaille désormais en Allemagne, ce qui prouve bien que la loi peut être efficace.17.
25. Une nouvelle loi en France, adoptée en novembre 2018 permet aux juges d’ordonner le retrait immédiat d’articles en ligne s’ils estiment qu’ils diffusent de la désinformation pendant les campagnes d’élection. La loi stipule que les utilisateurs doivent recevoir « d’informations qui sont justes, claires et transparentes » sur l’utilisation de leurs données personnelles, que les sites doivent divulguer les sommes qu’elles reçoivent pour promouvoir des informations, et la loi autorise le CSA français à pouvoir suspendre des chaînes de télévision contrôlées ou sous influence d’un état étranger, s’il estime que cette chaîne dissémine de manière délibérée des fausses informations qui pourraient affecter l’authenticité du vote. Les sanctions imposées en violation de la loi comprennent un an de prison et une amende de 75000 euros18.
26. Comme la Commissaire de l’Information du Royaume-Uni, Elisabeth Denham, nous l’a expliqué en novembre 2018, il y a une tension entre le modèle économique des médias sociaux, centré sur la publicité, et les droits humains tels que la protection de la vie privée. « C’est notre situation actuelle et il s’agit d’une tâche importante à la fois pour les régulateurs et le législateur de s’assurer que les bonnes exigences, la surveillance et sanctions sont en place » 19. Elle nous a dit que Facebook, par exemple, devrait en faire plus et devrait faire « l’objet d’une régulation et d’une surveillance plus stricte »20. Les activités de Facebook dans la scène politique sont en augmentation ; l’entreprise a récemment lancé un fil d’actualités intitulé « Community Actions » avec une fonctionnalité de pétition pour, par exemple, permettre aux utilisateurs de résoudre des problèmes politiques locaux en créant ou soutenant des pétitions. Il est difficile de comprendre comment Facebook sera capable d’auto-réguler une telle fonctionnalité ; plus le problème local va être sujet à controverse et litiges, plus il entrainera de l’engagement sur Facebook et donc de revenus associés grâce aux publicités 21.
27. En dépit de toutes les excuses formulées par Facebook pour ses erreurs passées, il semble encore réticent à être correctement surveillé. Lors de la session de témoignage verbal au « Grand Comité International », Richard Alland, vice-président des solutions politiques de Facebook, a été interrogé à plusieurs reprises sur les opinions de Facebook sur la régulation, et à chaque fois il a déclaré que Facebook était très ouvert au débat sur la régulation, et que travailler ensemble avec les gouvernements seraient la meilleure option possible :
« Je suis ravi, personnellement, et l’entreprise est vraiment engagé, de la base jusqu’à notre PDG — il en a parlé en public — à l’idée d’obtenir le bon type de régulation afin que l’on puisse arrêter d’être dans ce mode de confrontation. Cela ne sert ni notre société ni nos utilisateurs. Essayons de trouver le juste milieu, où vous êtes d’accord pour dire que nous faisons un travail suffisamment bon et où vous avez le pouvoir de nous tenir responsable si nous ne le faisons pas, et nous comprenons quel le travail que nous avons à faire. C’est la partie régulation22. »
28. Ashkan Soltani, un chercheur et consultant indépendant, et ancien Responsable Technologique de la Commission Fédérale du Commerce des USA 23, a questionné la volonté de Facebook à être régulé. À propos de la culture interne de Facebook, il a dit : « Il y a ce mépris — cette capacité à penser que l’entreprise sait mieux que tout le monde et tous les législateurs » 24. Il a discuté de la loi californienne pour la vie privée des consommateurs 25 que Facebook a supporté en public, mais a combattu en coulisses 26.
29. Facebook ne semble pas vouloir être régulé ou surveillé. C’est considéré comme normal pour les ressortissants étrangers de témoigner devant les comités. En effet, en juin 2011, le Comité pour la Culture, les Médias et le Sport 27 a entendu le témoignage de Rupert Murdoch lors de l’enquête sur le hacking téléphonique 28 et le Comité au Trésor 29 a récemment entendu le témoignage de trois ressortissants étrangers 30. En choisissant de ne pas se présenter devant le Comité et en choisissant de ne pas répondre personnellement à aucune de nos invitations, Mark Zuckerberg a fait preuve de mépris envers à la fois le parlement du Royaume-Uni et le « Grand Comité International », qui compte des représentants de neufs législatures dans le monde.
30. La structure managériale de Facebook est opaque pour les personnes extérieures, et semble conçue pour dissimuler la connaissance et la responsabilité de certaines décisions. Facebook a pour stratégie d’envoyer des témoins dont ils disent qu’ils sont les plus adéquats, mais qui n’ont pas été suffisamment informés sur les points cruciaux, et ne peuvent répondre ou choisissent de ne pas répondre à nombre de nos questions. Ils promettent ensuite d’y répondre par lettre, qui —sans surprise— échouent à répondre à toutes nos questions. Il ne fait pas de doute que cette stratégie est délibérée.
31. Au Royaume-Uni, les principales autorités compétentes — Ofcom, l’autorité pour les standards publicitaires 31, le bureau du commissaire à l’information 32, la commission électorale 33 et l’autorité pour la compétition et le marché 34 — ont des responsabilités spécifiques sur l’utilisation de contenus, données et comportements. Quand Sharon White, responsable de Ofcom, est passé devant le comité en octobre 2018, après la publication de notre rapport intermédiaire, nous lui avons posé la question si leur expérience comme régulateur de diffusion audiovisuelle pourrait être utile pour réguler les contenus en ligne. Elle a répondu :
« On a essayé d’identifier quelles synergies seraient possibles. […] On a été frappé de voir qu’il y a deux ou trois domaines qui pourraient être applicable en ligne. […] Le fait que le Parlement 35 ait mis en place des standards, ainsi que des objectifs plutôt ambitieux, nous a semblé très important, mais aussi durable avec des objectifs clés, que ce soit la protection de l’enfance ou les préoccupations autour des agressions et injures. Vous pouvez le voir comme un processus démocratique sur quels sont les maux que l’on croit en tant que société être fréquent en ligne. L’autre chose qui est très importante dans le code de diffusion audiovisuelle est qu’il explicite clairement le fait que ces choses peuvent varier au cours du temps comme la notion d’agression se modifie et les inquiétudes des consommateurs changent. La mise en œuvre est ensuite déléguée à un régulateur indépendant qui traduit en pratique ces objectifs de standards. Il y a aussi la transparence, le fait que l’on publie nos décisions dans le cas d’infractions, et que tout soit accessible au public. Il y a la surveillance de nos décisions et l’indépendance du jugement 36 ».
32. Elle a également ajouté que la fonction du régulateur de contenu en ligne devrait évaluer l’efficacité des compagnies technologiques sur leurs mesures prises contre les contenus qui ont été signalés comme abusifs. « Une approche serait de se dire si les compagnies ont les systèmes, les processus, et la gouvernance en place avec la transparence qui amène la responsabilité publique et la responsabilité devant le Parlement, que le pays serait satisfait du devoir de vigilance ou que les abus seront traités de manière constante et efficace ».37.
33. Cependant, si on demandait à Ofcom de prendre en charge la régulation des capacités des compagnies des réseaux sociaux, il faudrait qu’il soit doté de nouveaux pouvoirs d’enquête. Sharon White a déclaré au comité « qu’il serait absolument fondamental d’avoir des informations statutaires, réunissant des pouvoirs sur un domaine large ».38.
34. UK Council for Internet Safety(UKCIS) est un nouvel organisme, sponsorisé par le Ministère du Numérique, de la Culture, des Médias et du Sport, le Ministère de l’Éducation et le Ministère de l’Intérieur, il réunit plus de 200 organisations qui ont pour but de garantir la sécurité des enfants en ligne. Son site web affirme « si c’est inacceptable hors ligne, c’est inacceptable en ligne ». Son attention tiendra compte des abus en lignes comme le cyberharcèlement et l’exploitation sexuelle, la radicalisation et l’extrémisme, la violence contre les femmes et les jeunes filles, les crimes motivés par la haine et les discours haineux, et les formes de discrimination vis à vis de groupes protégés par l’Equality Act.39. Guy Parker, Pdg d’Advertising Standards Authority nous a informé que le Gouvernement pourrait se décider à intégrer les abus dans la publicité dans leur définition d’abus en ligne40.
35. Nous pensons que UK Council for Internet Safety devrait inclure dans le périmètre de ses attributions « le risque envers la démocratie » tel qu’identifié dans le « Registre des Préjudices » du Center for Human Technology, en particulier par rapport aux reportages profondément faux. Nous notons que Facebook est inclus en tant que membre d’UKCIS, compte tenu de son influence éventuelle, et nous comprenons pourquoi. Cependant, étant donné l’attitude de Facebook dans cette enquête, nous avons des réserves quant à sa bonne foi des affaires et sa capacité à participer au travail d’UKCIS dans l’intérêt du public, par opposition à ses intérêts personnels.
36. Lorsqu’il a été demandé au Secrétaire du Numérique, de la Culture, des Médias et des Sports, le Très Honorable député Jeremy Wright, de formuler un spectre des abus en ligne, sa réponse était limitée. « Ce que nous devons comprendre est à quel point les gens sont induits en erreur ou à quel point les élections ont été entravées de manière délibérée ou influencée, et si elle le sont […] nous devons trouver des réponses appropriées et des moyens de défense. Cela fait partie d’un paysage bien plus global et je ne crois par que c’est juste de le segmenter41. Cependant, une fois que nous avons défini les difficultés autour de la définition, l’étendue et la responsabilité des abus en ligne, le Secrétaire d’État était plus coopératif lorsqu’on lui a posé la question sur la régulation des compagnies de réseaux sociaux, et a déclaré que le Royaume-Uni devrait prendre l’initia
37. Notre rapport intermédiaire recommandait que des responsabilités juridiques claires soient définies pour les compagnies technologiques, afin qu’elles puissent prendre des mesures allant contre des contenus abusifs ou illégaux sur leurs sites. À l’heure actuelle, il est urgent de mettre en œuvre des règlements indépendants. Nous croyons qu’un Code d’Éthique obligatoire doit être implémenté, supervisé par un régulateur indépendant, définissant ce que constitue un contenu abusif. Le régulateur indépendant aurait des pouvoirs conférés par la loi pour surveiller les différentes compagnies technologiques, cela pourrait créer un système réglementaire pour les contenus en ligne qui est aussi effectif que pour ceux des industries de contenu hors ligne.
38. Comme nous l’avons énoncé dans notre rapport intermédiaire, un tel Code d’Éthique devrait ressembler à celui du Broadcasting Code publiée par Ofcom, qui se base sur des lignes directrices définies dans la section 319 du Communications Acts de 2003. Le Code d’Éthique devrait être mis au point par des experts techniques et supervisés par un régulateur indépendant, pour pouvoir mettre noir sur blanc ce qui est acceptable et ce qui ne l’est pas sur les réseaux sociaux, notamment les contenus abusifs et illégaux qui ont été signalés par leurs utilisateurs pour être retirés, ou qu’il aurait été facile d’identifier pour les compagnies technologiques elles-mêmes.
39. Le processus devrait définir une responsabilité juridique claire pour les compagnies technologiques de prendre des mesures contre les contenus abusifs et illégaux sur leur plateforme et ces compagnies devraient mettre en place des systèmes adaptés pour marquer et retirer des « types d’abus » et s’assurer que les structures de cybersécurité soient implémentées. Si les compagnies techniques (y compris les ingénieurs informaticiens en charge de la création des logiciels pour ces compagnies) sont reconnues fautifs de ne pas avoir respecté leurs obligations en vertu d’un tel code, et n’ont pas pris de mesure allant contre la diffusion de contenus abusifs et illégaux, le régulateur indépendant devrait pouvoir engager des poursuites judiciaires à leur encontre, dans l’objectif de les condamner à payer des amendes élevées en cas de non-respect du Code.
40. C’est le même organisme public qui devrait avoir des droits statutaires pour obtenir toute information de la part des compagnies de réseaux sociaux qui sont en lien avec son enquête. Cela pourrait concerner la capacité de vérifier les données qui sont conservées sur un utilisateur, s’il demandait ces informations. Cet organisme devrait avoir accès aux mécanismes de sécurité des compagnies technologiques et aux algorithmes, pour s’assurer qu’ils travaillent de manière responsable. Cet organisme public devrait être accessible au public et recevoir les plaintes sur les compagnies des réseaux sociaux. Nous demandons au gouvernement de soumettre ces propositions dans son prochain livre blanc.
41. Lorsque Mark Zuckerberg a fourni les preuves au congrès en avril 2018, dans la suite du scandal Cambridge Analytica, il a fait la déclaration suivante : « Vous devriez avoir un contrôle complet sur vos données […] Si nous ne communiquons pas cela clairement, c’est un point important sur lequel nous devons travailler ». Lorsqu’il lui a été demandé à qui était cet « alterego virtuel », Zuckerberg a répondu que les gens eux-mêmes possèdent tout le « contenu » qu’ils hébergent sur la plateforme, et qu’ils peuvent l’effacer à leur gré42. Cependant, le profil publicitaire que Facebook construit sur les utilisateurs ne peut être accédé, contrôlé ni effacé par ces utilisateurs. Il est difficile de concilier ce fait avec l’affirmation que les utilisateurs possèdent tout « le contenu » qu’ils uploadent.
42. Au Royaume-Uni, la protection des données utilisateur est couverte par le RGPD (Règlement Général de Protection des Données)43. Cependant, les données « inférées » ne sont pas protégées ; cela inclut les caractéristiques qui peuvent être inférées sur les utilisateurs et qui ne sont pas basées sur des informations qu’ils ont partagées, mais sur l’analyse des données de leur profil. Ceci, par exemple, permet aux partis politiques d’identifier des sympathisants sur des sites comme Facebook, grâce aux profils correspondants et aux outils de ciblage publicitaire sur les « publics similaires ». Selon la propre description de Facebook des « publics similaires », les publicitaires ont l’avantage d’atteindre de nouvelles personnes sur Facebook « qui ont des chances d’être intéressées par leurs produits car ils sont semblables à leurs clients existants » 44.
43. Le rapport de l’ICO, publié en juillet 2018, interroge sur la présomption des partis politques à ne pas considérer les données inférées comme des données personnelles :
« Nos investigations montrent que les partis politiques n’ont pas considéré les données inférées comme des informations personnelles car ce ne sont pas des informations factuelles. Cependant, le point de vue de l’ICO est que ces informations sont basées sur des hypothèses sur les intérets des personnes et leurs préférences, et peuvent être attribuées à des individus spécifiques, donc ce sont des informations personnelles et elles sont soumises aux contraintes de la protection des données 45. »
44. Les données inférées sont donc considérées par l’ICO comme des données personnelles, ce qui devient un problème lorsque les utilisateurs sont informés qu’ils disposent de leurs propres données, et qu’ils ont un pouvoir sur où les données vont, et ce pour quoi elles sont utilisées. Protéger nos données nous aide à sécuriser le passé, mais protéger les inférences et l’utilisation de l’Intelligence Artificielle (IA) est ce dont nous avons besoin pour protéger notre futur.
45. La commissaire à l’information, Elizabeth Denham, a souligné son intérêt sur l’utilisation des données inférées dans les campagnes politiques lorsqu’elle a fourni des preuves au comité en novembre 2018, déclarant qu’il y a eu :
« Un nombre dérangeant de manque de respect des données personnelles des votants et des votants potentiels. Ce qui s’est passé ici est que le modèle familier aux gens du secteur commercial sur le ciblage des comportements a été transféré – je pense transformé – dans l’arène politique. C’est pour cela que j’appelle à une pause éthique, afin que nous puissions y remédier. Nous ne voulons pas utiliser le même modèle qui nous vend des vacances, des chaussures et des voitures pour collaborer avec des personnes et des votants. Les gens veulent plus que ça. C’est le moment pour faire un pause pour regarder les codes, regarder les pratiques des entreprises de réseaux sociaux, de prendre des mesures là où ils ont enfreint la loi. Pour nous, le principal but de ceci est de lever le rideau et montrer au public ce qu’il advient de leurs données personnelles 46. »
46. Avec des références explicites sur l’utilisation des « publics similaires » de Facebook, Elizabeth Denham a expliqué au comité qu’ils « devaient être transparents envers les [utilisateurs] privés. Ils ont besoin de savoir qu’un parti politique, ou un membre du parlement, fait usage des publics similaires. Le manque de transparence est problématique47. Lorsque nous avons demandé à la commissaire à l’information si elle pensait que l’utilisation des « publics similaires » était légal selon le RGPD, elle a répondu : « Nous avons besoin de l’analyser en détail sous la loupe du RGPD, mais je pense que le public est mal à l’aise avec les publics similaires, et il a besoin que ce soit transparent » 48. Les gens ont besoin de savoir que l’information qu’ils donnent pour un besoin spécifique va être utilisé pour inférer des informations sur eux dans d’autres buts.
47. Le secrétaire d’état, le très honorable membre du parlement Jeremy Wright, nous a également informé que le framework éthique et législatif entourant l’IA devait se développer parallèlement à la technologie, ne pas « courir pour [la] rattraper », comme cela s’est produit avec d’autres technologies dans le passé 49. Nous devons explorer les problèmes entourant l’IA en détail, dans nos enquêtes sur les technologies immersives et d’addictives, qui a été lancée en décembre 2018 50.
48. Nous soutenons la recommandation de l’ICO comme quoi les données inférées devraient être protégées par la loi comme les informations personnelles. Les lois sur la protection de la vie privée devraient être étendues au-delà des informations personnelles pour inclure les modèles utilisés pour les inférences sur les individus. Nous recommandons que le gouvernement étudie les manières dont les protections de la vie privée peuvent être étendues pour inclure les modèles qui sont utilisés pour les inférences sur les individus, en particulier lors des campagnes politiques. Cela nous assurerait que les inférences sur les individus sont traitées de manière aussi importante que les informations personnelles des individus.
49. Dans notre rapport intérimaire, nous avons demandé que l’OIC soit mieux à même d’être à la fois un « shérif efficace dans le Far West de l’Internet » et d’anticiper les technologies futures. L’OIC doit avoir les mêmes connaissances techniques, sinon plus, que les organisations examinées51. Nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni, pour aider à payer ces travaux, dans le même esprit que la façon dont le secteur bancaire paie les frais de fonctionnement de l’autorité de régulation Financière 52 53.
50. Lorsque l’on a demandé au secrétaire d’État ce qu’il pensait d’une redevance, il a répondu, en ce qui concerne Facebook en particulier : « Le Comité est rassuré que ce n’est pas parce que Facebook dit qu’il ne veut pas payer une redevance, qu’il ne sera pas question de savoir si nous devrions ou non avoir une redevance »54. Il nous a également dit que « ni moi, ni, je pense franchement, l’OIC, ne pensons qu’elle soit sous-financée pour le travail qu’elle a à faire actuellement. […] Si nous devons mener d’autres activités, que ce soit en raison d’une réglementation ou d’une formation supplémentaires, par exemple, il faudra bien qu’elles soient financées d’une façon ou d’une autre. Par conséquent, je pense que la redevance vaut la peine d’être envisagée »55.
51. Dans notre rapport intermédiaire, nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour soutenir le travail renforcé de l’OIC. Nous réitérons cette recommandation. La décision du chancelier, dans son budget de 2018, d’imposer une nouvelle taxe de 2 % sur les services numériques sur les revenus des grandes entreprises technologiques du Royaume-Uni à partir d’avril 2020, montre que le gouvernement est ouvert à l’idée d’une taxe sur les entreprises technologiques. Dans sa réponse à notre rapport intermédiaire, le gouvernement a laissé entendre qu’il n’appuierait plus financièrement l’OIC, contrairement à notre recommandation. Nous exhortons le gouvernement à réévaluer cette position.
52. Le nouveau système indépendant et la nouvelle réglementation que nous recommandons d’établir doivent être financés adéquatement. Nous recommandons qu’une taxe soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour financer leur travail.
]]>Il n’est pas si fréquent que l’équipe Framalang traduise un article depuis la langue italienne, mais la récapitulation bien documentée de Cagizero était une bonne occasion de faire le point sur l’expansion de la Fediverse, un phénomène dont nous nous réjouissons et que nous souhaitons voir gagner plus d’amplitude encore, tant mieux si l’article ci-dessous est très lacunaire dans un an !
Article original : Mastodon, il Fediverso ed il futuro decentrato delle reti sociali
Traduction Framalang : alainmi, Ezelty, goofy, MO
Peu de temps après une première vue d’ensemble de Mastodon il est déjà possible d’ajouter quelques observations nouvelles.
Tout d’abord, il faut noter que plusieurs personnes familières de l’usage des principaux médias sociaux commerciaux (Facebook, Twitter, Instagram…) sont d’abord désorientées par les concepts de « décentralisation » et de « réseau fédéré ».
En effet, l’idée des médias sociaux qui est répandue et bien ancrée dans les esprits est celle d’un lieu unique, indifférencié, monolithique, avec des règles et des mécanismes strictement identiques pour tous. Essentiellement, le fait même de pouvoir concevoir un univers d’instances séparées et indépendantes représente pour beaucoup de gens un changement de paradigme qui n’est pas immédiatement compréhensible.
Dans un article précédent où était décrit le média social Mastodon, le concept d’instance fédérée était comparé à un réseau de clubs ou cercles privés associés entre eux.
Certains aspects exposés dans l’article précédent demandent peut-être quelques éclaircissements supplémentaires pour celles et ceux qui abordent tout juste le concept de réseau fédéré.
1. On ne s’inscrit pas « sur Mastodon », mais on s’inscrit à une instance de Mastodon ! La comparaison avec un club ou un cercle s’avère ici bien pratique : adhérer à un cercle permet d’entrer en contact avec tous ceux et celles qui font partie du même réseau : on ne s’inscrit pas à une plateforme, mais on s’inscrit à l’un des clubs de la plateforme qui, avec les autres clubs, constituent le réseau. La plateforme est un logiciel, c’est une chose qui n’existe que virtuellement, alors qu’une instance qui utilise une telle plateforme en est l’aspect réel, matériel. C’est un serveur qui est physiquement situé quelque part, géré par des gens en chair et en os qui l’administrent. Vous vous inscrivez donc à une instance et ensuite vous entrez en contact avec les autres.
2. Les diverses instances ont la possibilité technique d’entrer en contact les unes avec les autres mais ce n’est pas nécessairement le cas. Supposons par exemple qu’il existe une instance qui regroupe 500 utilisateurs et utilisatrices passionné⋅e⋅s de littérature, et qui s’intitule mastodon.litterature : ces personnes se connaissent précisément parce en tant que membres de la même instance et chacun⋅e reçoit les messages publics de tous les autres membres.
Eh bien, chacun d’entre eux aura probablement aussi d’autres contacts avec des utilisateurs enregistrés sur difFerentes instances (nous avons tous des ami⋅e⋅s qui ne font pas partie de notre « cercle restreint », n’est-ce pas ?). Si chacun des 500 membres de maston.litterature suit par exemple 10 membres d’une autre instance, mastodon.litterature aurait un réseau local de 500 utilisateurs, mais aussi un réseau fédéré de 5000 utilisateurs !
Bien. Supposons que parmi ces 5000 il n’y ait même pas un seul membre de l’instance japonaise japan.nuclear.physics dont le thème est la physique nucléaire : cette autre instance pourrait avoir peut-être 800 membres et avoir un réseau fédéré de plus de 8000 membres, mais si entre les réseaux « littérature » et « physique nucléaire » il n’y avait pas un seul ami en commun, ses membres ne pourraient en théorie jamais se contacter entre eux.
En réalité, d’après la loi des grands nombres, il est assez rare que des instances d’une certaine taille n’entrent jamais en contact les unes avec les autres, mais l’exemple sert à comprendre les mécanismes sur lesquels repose un réseau fédéré (ce qui, en se basant justement sur la loi des grands nombres et les principes des degrés de séparation, confirme au contraire l’hypothèse que plus le réseau est grand, moins les utilisateurs et instances seront isolés sur une seule instance).
3. Chaque instance peut décider volontairement de ne pas entrer en contact avec une autre, sur la base des choix, des règles et politiques internes qui lui sont propres. Ce point est évidemment peu compris des différents commentateurs qui ne parviennent pas à sortir de l’idée du « réseau social monolithique ». S’il y avait sur Mastodon une forte concentration de suprémacistes blancs en deuil de Gab, ou de blogueurs porno en deuil de Tumblr, cela ne signifie pas que ce serait l’ensemble du réseau social appelé Mastodon qui deviendrait un « réseau social pour suprémacistes blancs et porno », mais seulement quelques instances qui n’entreraient probablement jamais en contact avec des instances antifascistes ou ultra-religieuses. Comme il est difficile de faire comprendre un tel concept, il est également difficile de faire comprendre les potentialités d’une structure de ce type. Dans un réseau fédéré, une fois donnée la possibilité technique d’interagir entre instances et utilisateurs, chaque instance et chaque utilisateur peut ensuite choisir de façon indépendante l’utilisation qui en sera faite.
Supposons qu’il existe par exemple :
Avec ce scénario à quatre instances, on peut déjà décrire quelques interactions intéressantes : l’instance écologiste pourrait consulter ses utilisateurs et utilisatrices et décider de bannir l’instance commerciale au motif qu’on y diffuse largement une culture contraire à l’écologie, tandis que l’instance sociale pourrait au contraire maintenir le lien avec l’instance commerciale tout en choisissant préventivement de la rendre muette dans son propre fil, laissant le choix personnel à ses membres d’entrer ou non en contact avec les membres de l’instance commerciale. Cependant, l’instance sociale pourrait bannir l’instance de jeu vidéo à cause de la mentalité réactionnaire d’une grande partie de ses membres.
En somme, les contacts « insupportables/inacceptables » sont spontanément limités par les instances sur la base de leurs différentes politiques. Ici, le cadre d’ensemble commence à devenir très complexe, mais il suffit de l’observer depuis une seule instance, la nôtre, pour en comprendre les avantages : les instances qui accueillent des trolls, des agitateurs et des gens avec qui on n’arrive vraiment pas à discuter, nous les avons bannies, alors que celles avec lesquelles on n’avait pas beaucoup d’affinités mais pas non plus de motif de haine, nous les avons rendues muettes. Ainsi, si quelqu’un parmi nous veut les suivre, il n’y a pas de problème, mais ce sera son choix personnel.
4. Chaque utilisateur peut décider de rendre muets d’autres utilisateurs, mais aussi des instances entières. Si vous voulez particulièrement éviter les contenus diffusés par les utilisateurs et utilisatrices d’une certaine instance qui n’est cependant pas bannie par l’instance qui vous accueille (mettons que votre instance ne ferme pas la porte à une instance appelée meme.videogamez.lulz, dont la communauté tolère des comportements excessifs et une ambiance de moquerie lourde que certains trouvent néanmoins amusante), vous êtes libres de la rendre muette pour vous seulement. En principe, en présence de groupes d’utilisateurs indésirables venant d’une même instance/communauté, il est possible de bloquer plusieurs dizaines ou centaines d’utilisateurs à la fois en bloquant (pour vous) l’instance entière. Si votre instance n’avait pas un accord unanime sur la manière de traiter une autre instance, vous pourriez facilement laisser le choix aux abonnés qui disposent encore de ce puissant outil. Une instance peut également choisir de modérer seulement ses utilisateurs ou de ne rien modérer du tout, laissant chaque utilisateur complètement libre de faire taire ou d’interdire qui il veut sans jamais interférer ou imposer sa propre éthique.
Maintenant que nous nous sommes mieux concentrés sur ces aspects, nous pouvons passer à l’étape suivante. Comme déjà mentionné dans le post précédent, Mastodon fait partie de quelque chose de plus vaste appelé la Fediverse (Fédération + Univers).
En gros, Mastodon est un réseau fédéré qui utilise certains outils de communication (il existe plusieurs protocoles mais les principaux sont ActivityPub, Ostatus et Diaspora*, chacun ayant ses avantages, ses inconvénients, ses partisans et ses détracteurs), utilisés aussi par et d’autres réalités fédérées (réseaux sociaux, plateformes de blogs, etc.) qui les mettent en contact pour former une galaxie unique de réseaux fédérés.
Pour vous donner une idée, c’est comme si Mastodon était un système planétaire qui tourne autour d’une étoile (Mastodon est l’étoile et chaque instance est une planète), cependant ce système planétaire fait partie d’un univers dans lequel existent de nombreux systèmes planétaires tous différents mais qui communiquent les uns avec les autres.
Toutes les planètes d’un système planétaire donné (les instances, comme des « clubs ») tournent autour d’un soleil commun (la plate-forme logicielle). L’utilisateur peut choisir la planète qu’il préfère mais il ne peut pas se poser sur le soleil : on ne s’inscrit pas à la plateforme, mais on s’inscrit à l’un des clubs qui, avec tous les autres, forme le réseau.
Dans cet univers, Mastodon est tout simplement le « système planétaire » le plus grand (celui qui a le plus de succès et qui compte le plus grand nombre d’utilisateurs) mais il n’est pas certain qu’il en sera toujours ainsi : d’autres « systèmes planétaires » se renforcent et grandissent.
[NB : chaque plate-forme évoquée ici utilise ses propres noms pour définir les serveurs indépendants sur lesquels elle est hébergée. Mastodon les appelle instances, Hubzilla les appelle hubs et Diaspora* les appelle pods. Toutefois, par souci de simplicité et de cohérence avec l’article précédent, seul le terme « instance » sera utilisé pour tous dans l’article]Sur Kumu.io on peut trouver une représentation interactive de la Fediverse telle qu’elle apparaît actuellement. Chaque « nœud » représente un réseau différent (ou « système planétaire »). Ce sont les différentes plateformes qui composent la fédération. Mastodon n’est que l’une d’entre elles, la plus grande, en bas au fond. Sur la capture d’écran qui illustre l’article, Mastodon est en bas.
En sélectionnant Mastodon il est possible de voir avec quels autres médias ou systèmes de la Fediverse il est en mesure d’interagir. Comme on peut le voir, il interagit avec la plupart des autres médias mais pas tout à fait avec tous.
En sélectionnant un autre réseau social comme GNU Social, on observe qu’il a différentes interactions : il en partage la majeure partie avec Mastodon mais il en a quelques-unes en plus et d’autres en moins.
Cela dépend principalement du type d’outils de communication (protocoles) que chaque média particulier utilise. Un média peut également utiliser plus d’un protocole pour avoir le plus grand nombre d’interactions, mais cela rend évidemment leur gestion plus complexe. C’est, par exemple, la voie choisie par Friendica et GNU Social.
En raison des différents protocoles utilisés, certains médias ne peuvent donc pas interagir avec tous les autres. Le cas le plus important est celui de Diaspora*, qui utilise son propre protocole (appelé lui aussi Diaspora), qui ne peut interagir qu’avec Friendica et Gnu Social mais pas avec des médias qui reposent sur ActivityPub tels que Mastodon.
Au sein de la Fediverse, les choses sont cependant en constante évolution et l’image qui vient d’être montrée pourrait avoir besoin d’être mise à jour prochainement. En ce moment, la plupart des réseaux semblent s’orienter vers l’adoption d’ActivityPub comme outil unique. Ce ne serait pas mal du tout d’avoir un seul protocole de communication qui permette vraiment tout type de connexion !
Mais revenons un instant à l’image des systèmes planétaires. Kumu.io montre les connexions techniquement possibles entre tous les « systèmes planétaires » et, pour ce faire, relie génériquement les différents soleils. Mais comme nous l’avons bien vu, les vraies connexions ont lieu entre les planètes et non entre les soleils ! Une carte des étoiles montrant les connexions réelles devrait montrer pour chaque planète (c’est-à-dire chaque « moustache » des nœuds de Kum.io), des dizaines ou des centaines de lignes de connexion avec autant de planètes/moustaches, à la fois entre instances de sa plateforme et entre instances de différentes plateformes ! La quantité et la complexité des connexions, comme on peut l’imaginer, formeraient un enchevêtrement qui donnerait mal à la tête serait graphiquement illisible. Le simple fait de l’imaginer donne une idée de la quantité et de la complexité des connexions possibles.
Et cela ne s’arrête pas là : chaque planète peut établir ou interrompre ses contacts avec les autres planètes de son système solaire (c’est-à-dire que l’instance Mastodon A peut décider de ne pas avoir de contact avec l’instance Mastodon B), et de la même manière elle peut établir ou interrompre les contacts avec des planètes de différents systèmes solaires (l’instance Mastodon A peut établir ou interrompre des contacts avec l’instance Pleroma B). Pour donner un exemple radical, nous pouvons supposer que nous avons des cousins qui sont des crétins, mais d’authentiques crétins, que nous avons chassés de notre planète (mastodon.terre) et qu’ensuite ils ont construit leur propre instance (mastodon.saturne) dans notre voisinage parce que ben, ils aiment bien notre soleil « Mastodon ». Nous décidons de nous ignorer les uns les autres tout de suite. Ces cousins, cependant, sont tellement crétins que même nos parents et amis proches des planètes voisines (mastodon.jupiter, mastodon.venus, etc.) ignorent les cousins crétins de mastodon.saturne.
Aucune planète du système Mastodon ne les supporte. Les cousins, cependant, ne sont pas entièrement sans relations et, au contraire, ils ont beaucoup de contacts avec les planètes d’autres systèmes solaires. Par exemple, ils sont en contact avec certaines planètes du système planétaire PeeeTube : peertube.10287, peertube.chatons, peertube.anime, mais aussi avec pleroma.pizza du système Pleroma et friendica.jardinage du système Friendica. En fait, les cousins crétins sont d’accord pour vivre sur leur propre petite planète dans le système Mastodon, mais préfèrent avoir des contacts avec des planètes de systèmes différents.
Nous qui sommes sur mastodon.terre, nous ne nous soucions pas moins des planètes qui leur sont complaisantes : ce sont des crétins tout autant que nos cousins et nous les avons bloquées aussi. Sauf un. Sur pleroma.pizza, nous avons quelques ami⋅e⋅s qui sont aussi des ami⋅e⋅s de certains cousins crétins de mastodon.saturne. Mais ce n’est pas un problème. Oh que non ! Nous avons des connexions interstellaires et nous devrions nous inquiéter d’une chose pareille ? Pas du tout ! Le blocage que nous avons activé sur mastodon.saturne est une sorte de barrière énergétique qui fonctionne dans tout le cosmos ! Si nous étions impliqués dans une conversation entre un ami de pleroma.pizza et un cousin de mastodon.saturne, simplement, ce dernier ne verrait pas ce qui sort de notre clavier et nous ne verrions pas ce qui sort du sien. Chacun d’eux saura que l’autre est là, mais aucun d’eux ne pourra jamais lire l’autre. Bien sûr, nous pourrions déduire quelque chose de ce que notre ami commun de pleroma.pizza dira, mais bon, qu’est-ce qu’on peut en espérer ? 😉
Cette image peut donner une idée de la façon dont les instances (planètes) se connectent entre elles. Si l’on considère qu’il existe des milliers d’instances connues de la Fediverse, on peut imaginer la complexité de l’image. Un aspect intéressant est le fait que les connexions entre une instance et une autre ne dépendent pas de la plateforme utilisée. Sur l’image on peut voir l’instance mastodon.mercure : c’est une instance assez isolée par rapport au réseau d’instances Mastodon, dont les seuls contacts sont mastodon.neptune, peertube.chatons et pleroma.pizza. Rien n’empêche mastodon.mercure de prendre connaissance de toutes les autres instances de Mastodon non par des échanges de messages avec mastodon.neptune, mais par des commentaires sur les vidéos de peertube.chatons. En fait, c’est d’autant plus probable que mastodon.neptune n’est en contact qu’avec trois autres instances Mastodon, alors que peertube.chatons est en contact avec toutes les instances Mastodon.
Essayer d’imaginer comment les différentes instances de cette image qui « ne se connaissent pas » peuvent entrer en contact nous permet d’avoir une idée plus précise du niveau de complexité qui peut être atteint. Dans un système assez grand, avec un grand nombre d’utilisateurs et d’instances, isoler une partie de celui-ci ne compromettra en aucune façon la richesse des connexions possibles.
Une fois toutes les connexions possibles créées, il est également possible de réaliser une expérience différente, c’est-à-dire d’imaginer interrompre des connexions jusqu’à la formation de deux ou plusieurs réseaux parfaitement séparés, contenant chacune des instances Mastodon, Pleroma et Peertube.
Et pour ajouter encore un degré de complexité, on peut faire encore une autre expérience, en raisonnant non plus à l’échelle des instances mais à celle des utilisateurs⋅rices individuel⋅le⋅s des instances (faire l’hypothèse de cinq utilisateurs⋅rices par instance pourrait suffire pour recréer les différentes situations). Quelques cas qu’on peut imaginer :
1) Nous sommes sur une instance de Mastodon et l’utilisatrice Anna vient de découvrir par le commentaire d’une vidéo sur Peertube l’existence d’une nouvelle instance de Pleroma, donc maintenant elle connaît son existence mais, choisissant de ne pas la suivre, elle ne fait pas réellement connaître sa découverte aux autres membres de son instance.
2) Sur cette même instance de Mastodon l’utilisateur Ludo bloque la seule instance Pleroma connue. Conséquence : si cette instance Pleroma devait faire connaître d’autres instances Pleroma avec lesquelles elle est en contact, Ludo devrait attendre qu’un autre membre de son instance les fasse connaître, car il s’est empêché lui-même d’être parmi les premiers de son instance à les connaître.
3) En fait, la première utilisatrice de l’instance à entrer en contact avec les autres instances Pleroma sera Marianne. Mais elle ne les connaît pas de l’instance Pleroma (celle que Ludo a bloquée) avec laquelle ils sont déjà en contact, mais par son seul contact sur GNU Social.
Cela semble un peu compliqué mais en réalité ce n’est rien de plus qu’une réplique de mécanismes humains auxquels nous sommes tellement habitué⋅e⋅s que nous les tenons pour acquis. On peut traduire ainsi les différents exemples qui viennent d’être exposés :
1) Notre amie Anna, habituée de notre bar, rencontre dans la rue une personne qui lui dit fréquenter un nouveau bar dans une ville proche. Mais Anna n’échange pas son numéro de téléphone avec le type et elle ne pourra donc pas donner d’informations à ses amis dans son bar sur le nouveau bar de l’autre ville.
2) Dans le bar habituel, Ludo de Nancy évite Laura de Metz. Quand Laura amène ses autres amies Solène et Louise de Metz au bar, elle ne les présente pas à Ludo. Ce n’est que plus tard que les amis du bar, devenus amis avec Solène et Louise, pourront les présenter à Ludo indépendamment de Laura.
3) En réalité Marianne avait déjà rencontré Solène et Louise, non pas grâce à Laura, mais grâce à Stéphane, son seul ami à Villers.
Pour avoir une idée de l’ampleur de la Fediverse, vous pouvez jeter un coup d’œil à plusieurs sites qui tentent d’en fournir une image complète. Outre Kumu.io déjà mentionné, qui essaie de la représenter avec une mise en page graphique élégante qui met en évidence les interactions, il y a aussi Fediverse.network qui essaie de lister chaque instance existante en indiquant pour chacune d’elles les protocoles utilisés et le statut du service, ou Fediverse.party, qui est un véritable portail où choisir la plate-forme à utiliser et à laquelle s’enregistrer. Switching.software, une page qui illustre toutes les alternatives gratuites aux médias sociaux et propriétaires, indique également quelques réseaux fédérés parmi les alternatives à Twitter et Facebook.
Pour être tout à fait complet : au début, on avait tendance à diviser tout ce mégaréseau en trois « univers » superposés : celui de la « Fédération » pour les réseaux reposant sur le protocole Diaspora, La « Fediverse » pour ceux qui utilisent Ostatus et « ActivityPub » pour ceux qui utilisent… ActivityPub. Aujourd’hui, au contraire, ils sont tous considérés comme faisant partie de la Fediverse, même si parfois on l’appelle aussi la Fédération.
Examinons donc les principales plateformes/réseaux et leurs différences. Petites précisions : certaines de ces plateformes sont pleinement actives alors que d’autres sont à un stade de développement plus ou moins avancé. Dans certains cas, l’interaction entre les différents réseaux n’est donc pas encore pleinement fonctionnelle. De plus, en raison de la nature libre et indépendante des différents réseaux, il est possible que des instances apportent des modifications et des personnalisations « non standard » (un exemple en est la limite de caractères sur Mastodon : elle est de 500 caractères par défaut, mais une instance peut décider de définir la limite qu’elle veut ; un autre exemple est l’utilisation des fonctions de mise en favori ou de partage, qu’une instance peut autoriser et une autre interdire). Dans ce paragraphe, ces personnalisations et différences ne sont pas prises en compte.
Mastodon est une plateforme de microblogage assez semblable à Twitter parce qu’elle repose sur l’échange de messages très courts. C’est le réseau le plus célèbre de la Fediverse. Il est accessible sur smartphone à travers un certain nombre d’applications tant pour Android que pour iOS. Un de ses points forts est le design bien conçu et le fait qu’il a déjà un « parc d’utilisateurs⋅rices » assez conséquent (presque deux millions d’utilisateurs⋅rices dans le monde, dont quelques milliers en France). En version bureau, il se présente comme une série de colonnes personnalisables, qui montrent les différents « fils », sur le modèle de Tweetdeck. Pour le moment, Mastodon est la seule plateforme sociale fédérée accessible par des applications sur Android et iOS.
Pleroma est le réseau « sœur » de Mastodon : fondamentalement, c’est la même chose dans deux versions un peu différentes. Pleroma offre quelques fonctionnalités supplémentaires concernant la gestion des images et permet par défaut des messages plus longs. À la différence de Mastodon, Pleroma montre en version bureau une colonne unique avec le fil sélectionné, ce qui le rend beaucoup plus proche de Twitter. Actuellement, de nombreuses instances Pleroma ont un grand nombre d’utilisateurs⋅rices qui s’intéressent à l’illustration et au manga, ce qui, comme ambiance, peut vaguement rappeler l’ambiance de DeviantArt. Les applications pour smartphone de Mastodon peuvent également être utilisées pour accéder à Pleroma.
Misskey est une sorte de Twitter qui tourne principalement autour d’images. Il offre un niveau de personnalisation supérieur à Mastodon et Pleroma, et une plus grande attention aux galeries d’images. C’est une plateforme qui a eu du succès au Japon et parmi les passionnés de manga (et ça se voit !).
Friendica est un réseau extrêmement intéressant. Il reprend globalement la structure graphique de Facebook (avec les ami⋅e⋅s, les notifications, etc.), mais il permet également d’interagir avec plusieurs réseaux commerciaux qui ne font pas partie de la Fediverse. Il est donc possible de connecter son compte Friendica à Facebook, Twitter, Tumblr, WordPress, ainsi que de générer des flux RSS, etc. Bref, Friendica se présente comme une sorte de nœud pour diffuser du contenu sur tous les réseaux disponibles, qu’ils soient fédérés ou non. En somme, Friendica est le passe-partout de la Fediverse : une instance Friendica au maximum de ses fonctions se connecte à tout et dialogue avec tout le monde.
Osada est un autre réseau dont la configuration peut faire penser à un compromis entre Twitter et Facebook. De toutes les plateformes qui rappellent Facebook, c’est celle dont le design est le plus soigné.
GNUsocial est un peu le « grand-père » des médias sociaux listés ici, en particulier de Friendica et d’Osada, dont il est le prédécesseur.
Aardwolf n’est pas encore prêt, mais il est annoncé comme une sorte d’alternative à Twitter. On attend de voir.
PeerTube est le réseau fédéré d’hébergement de vidéo vraiment, mais vraiment très semblable à YouTube, Vimeo et d’autres services de ce genre. Avec un catalogue en cours de construction, Peertube apparaît déjà comme un projet très solide.
Pixelfed est essentiellement l’Instagram de la Fédération. Il est en phase de développement mais semble être plutôt avancé. Il lui manque seulement des applications pour smartphone pour être adopté à la place d’Instagram. Pixelfed a le potentiel pour devenir un membre extrêmement important de la Fédération !
NextCloud, né du projet plus ancien ownCloud, est un service d’hébergement de fichiers assez semblable à Dropbox. Tout le monde peut faire tourner NextCloud sur son propre serveur. NextCloud offre également des services de partage de contacts (CardDAV) ou de calendriers (CalDAV), de streaming de médias, de marque-page, de sauvegarde, et d’autres encore. Il tourne aussi sur Window et OSX et est accessible sur smartphone à travers des applications officielles. Il fait partie de la Fediverse dans la mesure où il utilise ActivityPub pour communiquer différentes informations à ses utilisateurs, comme des changements dans les fichiers, les activités du calendrier, etc.
Diaspora* est un peu le « cousin » de la Fediverse. Il fonctionne avec un protocole bien à lui et dialogue avec le reste de la Fediverse principalement via GNU social et Friendica, le réseau passe-partout, même s’il semble qu’il circule l’idée de faire utiliser à Diaspora* (l’application) aussi bien son propre protocole qu’ActivityPub. Il s’agit d’un grand et beau projet, avec une base solide d’utilisateurs⋅rices fidèles. Au premier abord, il peut faire penser à une version extrêmement minimaliste de Facebook, mais son attention aux images et son système intéressant d’organisation des posts par tag permet également de le comparer, d’une certaine façon, à Tumblr.
Funkwhale ressemble à SoundCloud, Grooveshark et d’autre services semblables. Comme une sorte de YouTube pour l’audio, il permet de partager des pistes audio mais au sein d’un réseau fédéré. Avec quelques fonctionnalités en plus, il pourrait devenir un excellent service d’hébergement de podcasts audio.
Plume, Write Freely et Write.as sont des plateformes de blog assez minimalistes qui font partie de la Fédération. Elles n’ont pas toute la richesse, les fonctions, les thèmes et la personnalisation de WordPress ou de Blogger, mais elles font leur travail avec légèreté.
Hubzilla est un projet très riche et complexe qui permet de gérer aussi bien des médias sociaux que de l’hébergement de fichiers, des calendriers partagés, de l’hébergement web, et le tout de manière décentralisée. En bref, Hubzilla se propose de faire tout à la fois ce que font plusieurs des services listés ici. C’est comme avoir une seule instance qui fait à la fois Friendica, Peertube et NextCloud. Pas mal ! Un projet à surveiller !
GetTogether est une plateforme servant à planifier des événements. Semblable à MeetUp, elle sert à mettre en relation des personnes différentes unies par un intérêt commun, et à amener cet intérêt dans le monde réel. Pour le moment, GetTogether ne fait pas encore partie de la Fediverse, mais il est en train de mettre en place ActivityPub et sera donc bientôt des nôtres.
Mobilizon est une nouvelle plateforme en cours de développement, qui se propose comme une alternative libre à MeetUp et à d’autres logiciels servant à organiser des réunions et des rencontres en tout genre. Dès le départ, le projet naît avec l’intention d’utiliser ActivityPub et de faire partie de la Fediverse, en conformité avec les valeurs de Framasoft, association française née avec l’objectif de diffuser l’usage des logiciels libres et des réseaux décentralisés. Voir la présentation de Mobilizon en italien.
Plugin activityPub pour WordPress
On trouve plusieurs plugins pour WordPress qui en font un membre à part entière de la Fédération ! Il existe également des plugins comme Mastodon AutoPost, Mastodon Auto Share, mais aussi Mastodon Embed, Ostatus for WordPress, Pterotype, Nodeinfo et Mastalab comments.
Prismo est une application encore en phase de développement, qui se propose de devenir un sorte de version décentralisée de Reddit, c’est-à-dire un média social centré sur le partage de liens, mais qui pourrait potentiellement évoluer en quelque chose qui ressemble à Pocket ou Evernote. Les fonctions de base sont déjà opérationnelles.
Socialhome est un média social qui utilise une interface par « blocs », affichant les messages comme dans un collage de photos de Pinterest. Pour le moment, il communique seulement via le protocole de Diaspora, mais il devrait bientôt mettre en place ActivityPub.
Il existe encore d’autres applications et médias sociaux qui adoptent ou vont adopter ActivityPub, ce qui rendra la Fediverse encore plus structurée. Certains sont assez semblables à ceux déjà évoqués, alors que d’autres sont encore en phase de développement, on ne peut donc pas encore les conseiller pour remplacer des systèmes commerciaux plus connus. Il y a cependant des plateformes déjà prêtes et fonctionnelles qui pourraient entrer dans la Fediverse en adoptant ActivityPub : NextCloud en est un exemple (il était déjà constitué quand il a décidé d’entrer dans la Fediverse) ; le plugin de WordPress est pour sa part un outil qui permet de fédérer une plateforme qui existe déjà ; GetTogether est un autre service qui est en train d’être fédéré. Des plateformes déjà en place (je pense à Gitter, mais c’est juste un exemple parmi tant d’autres) pourraient trouver un avantage à se fédérer et à entrer dans une grande famille élargie. Bref : ça bouge dans la Fediverse et autour d’elle !
Jusqu’ici, nous avons vu de nombreuses versions alternatives d’outils connus qui peuvent aussi être intéressant pris individuellement, mais qui sont encore meilleurs quand ils collaborent. Voici maintenant le plus beau : le fait qu’ils partagent les mêmes protocoles de communication élimine l’effet « cage dorée » de chaque réseau !
Maintenant qu’on a décrit chaque plateforme, on peut donner quelques exemples concrets :
Je suis sur Mastodon, où apparaît le message d’une personne que je « suis ». Rien d’étrange à cela, si ce n’est que cette personne n’est pas utilisatrice de Mastodon, mais de Peertube ! En effet, il s’agit de la vidéo d’un panorama. Toujours depuis Mastodon, je commente en écrivant « joli » et cette personne verra apparaître mon commentaire sous sa vidéo, sur Peertube.
Je suis sur Osada et je poste une réflexion ouverte un peu longue. Cette réflexion est lue par une de mes amies sur Friendica, qui la partage avec ses followers, dont certains sont sur Friendica, mais d’autres sont sur d’autres plateformes. Par exemple, l’un d’eux est sur Pleroma, il me répond et nous commençons à dialoguer.
Je publie une photo sur Pixelfed qui est vue et commentée par un de mes abonnés sur Mastodon.
En somme, chacun peut garder contact avec ses ami⋅e⋅s/abonné⋅e⋅s depuis son réseau préféré, mêmes si ces personnes en fréquentent d’autres.
Pour établir une comparaison avec les réseaux commerciaux, c’est comme si l’on pouvait recevoir sur Facebook les tweets d’un ami qui est sur Twitter, les images postées par quelqu’un d’autre sur Instagram, les vidéos d’une chaîne YouTube, les pistes audio sur SoundCloud, les nouveaux posts de divers blogs et sites personnels, et commenter et interagir avec chacun d’eux parce que tous ces réseaux collaborent et forment un seul grand réseau !
Chacun de ces réseaux pourra choisir la façon dont il veut gérer ces interactions : par exemple, si je voulais une vie sociale dans un seul sens, je pourrais choisir une instance Pixelfed où les autres utilisateurs⋅rices peuvent me contacter seulement en commentant les photos que je publie, ou bien je pourrais choisir une instance Peertube et publier des vidéos qui ne pourraient pas être commentées mais qui pourraient tourner dans toute la Fediverse, ou choisir une instance Mastodon qui oblige mes interlocuteurs à communiquer avec moi de manière concise.
Certains détails sont encore à définir (par exemple : je pourrais envoyer un message direct depuis Mastodon vers une plateforme qui ne permet pas à ses utilisateurs⋅rices de recevoir des messages directs, sans jamais être averti du fait que le/la destinataire n’aura aucun moyen de savoir que je lui ai envoyé quelque chose). Il s’agit de situations bien compréhensibles à l’intérieur d’un écosystème qui doit s’adapter à des réalités très diverses, mais dans la majorité des cas il s’agit de détails faciles à gérer. Ce qui compte, c’est que les possibilités d’interactions sont potentiellement infinies !
Toute cette connectivité partagée doit être observée en gardant à l’esprit que, même si par simplicité les différents réseaux ont été traités ici comme des réseaux centralisés, ce sont en réalité des réseaux d’instances indépendantes qui interagissent directement avec les instances des autres réseaux : mon instance Mastodon filtrera les instances Peertube qui postent des vidéos racistes mais se connectera à toutes les instances Peertube qui respectent sa politique ; si je suis un certain ami sur Pixelfed je verrai seulement ses posts, sans que personne m’oblige à voir toutes les photos de couchers de soleil et de chatons de ses ami⋅e⋅s sur ce réseau.
La combinaison entre autonomie des instances, grande interopérabilité entre celles-ci et liberté de choix permet une série de combinaisons extrêmement intéressantes dont les réseaux commerciaux ne peuvent même pas rêver : ici, l’utilisateur⋅rice est membre d’un seul grand réseau où chacun⋅e peut choisir :
Tout cela sans pour autant renoncer à être connecté à des utilisateurs⋅rices qui ont choisi des outils et des communautés différents. Par exemple, je peux choisir une certaine instance Pleroma parce que j’aime son design, la communauté qu’elle accueille, ses règles et la sécurité qu’elle procure mais, à partir de là, suivre et interagir principalement avec des utilisateurs⋅rices d’une instance Pixelfed particulière et en importer les contenus et l’esthétique dans mon instance.
À cela on peut ajouter que des instances individuelles peuvent littéralement être installées et administrées par chaque utilisateur individuel sur ses propres machines, ce qui permet un contrôle total du contenu. Les instances minuscules auto-hébergées « à la maison » et les instances de travail plus robustes, les instances scolaires et les instances collectives, les instances avec des milliers d’utilisateurs et les instances avec un seul utilisateur, les instances à l’échelle d’un quartier ou d’un immeuble, toutes sont unies pour former un réseau complexe et personnalisable, qui vous permet de vous connecter pratiquement à n’importe qui mais aussi de vous éviter la surcharge d’information.
C’est une sorte de retour aux origines d’Internet, mais un retour à un âge de maturité, celui du Web 2.0, qui a tiré les leçons de l’expérience : être passé par la centralisation de la communication entre les mains de quelques grands acteurs internationaux a renforcé la conviction que la structure décentralisée est la plus humaine et la plus enrichissante.
]]>Mastodon a déjà deux ans, et il est toujours vivant, n’en déplaise aux oiseaux de mauvais augure. Il est inadéquat de le comparer aux plateformes sociales, et Peter 0’Shaughnessy nous explique bien pourquoi…
Mastodon a maintenant plus de deux ans et (pour emprunter une expression à Terry Pratchett), il n’est toujours pas mort. D’une manière ou d’une autre, il a réussi à défier les premiers critiques qui disaient qu’il « ne survivrait pas » et qu’il était « mort dans l’œuf ». Même certains de ceux qui postaient sur Mastodon à ses débuts doutaient de sa longévité :
Pari : le lien vers ce tweet ne fonctionnera plus dans deux ans – @jaffathecake@mastodon.social
Plus récemment, un article sur l’écosystème plus vaste qui comprend Mastodon, appelé La Fediverse, a fait la une de Hacker News : Qu’est-ce que ActivityPub, et comment changera-t-il l’Internet ? par Jeremy Dormitzer. C’est un bon argument en faveur de l’importance de la norme ActivityPub, sur laquelle reposent Mastodon et d’autres plateformes sociales. Cependant, il commet toujours la même erreur que ces premiers prophètes de malheur :
Le plus gros problème à l’heure actuelle, c’est l’adoption par les utilisateurs. Le réseau ActivityPub n’est viable que si les gens l’utilisent, et pour concurrencer de manière significative Facebook et Twitter, nous avons besoin de beaucoup de gens pour l’utiliser. Pour rivaliser avec les grands, nous avons besoin de beaucoup d’argent…
Des arguments similaires ont été présentés dans de nombreux articles au cours des derniers mois. Ils impliquent :
Mais tout cela est faux. Voici pourquoi…
Nous sommes tellement conditionnés de nos jours par le monde du capital-risque et des startups que nous pensons intuitivement que toutes les nouvelles entreprises technologiques doivent réussir ou faire faillite. Mais ce n’est pas la nature du modèle économique qui se cache derrière le Fediverse, qui est déjà durable, tout en continuant de fonctionner comme si de rien n’était.
Nous devons cesser de juger la Fediverse comme s’il s’agissait d’une startup de la Silicon Valley en concurrence avec Twitter et Facebook.
Jeremy a raison de dire que la plupart des instances sont « créées et administrées par des bénévoles avec des budgets minuscules », mais il implique que cela doit changer, alors que la plupart des administrateurs et utilisateurs de Mastodon que je connais sont très satisfaits de ce modèle, qui nous libère des intérêts acquis et contradictoires des régies publicitaires.
C’est facile à dire pour moi, car je n’héberge pas ma propre instance et mon administrateur a gentiment refusé les offres de dons jusqu’ici. Cependant, dans la plupart des cas, il semble que tout se passe très bien, la plupart du temps grâce au financement participatif. Même si certaines instances ont été fermées à un moment donné (et c’est malheureusement le cas), il y en a d’autres qui se présentent à leur place. Malgré les fortes fluctuations à chaque nouvelle vague d’utilisateurs venant de Twitter, la trajectoire globale est à la hausse, et c’est ce qui importe — pas la vitesse de la croissance, ni l’atteinte d’un certain niveau de masse critique. Michael Mahemoff l’a bien dit :
« Mastodon est déjà « assez bon » dans sa forme initiale pour satisfaire plusieurs besoins de niche (les personnes qui veulent plus ou moins de modération ou des critères différents de modération, celles qui ne veulent pas de publicités, celles qui veulent des participant⋅e⋅s qui sont libres d’innover, celles qui veulent posséder et/ou héberger leur propre contenu, etc.). Comme Mastodon a un modèle de mécénat durable, il peut se développer au fil du temps et être capable de continuer à innover. »
En fait, si Mastodon se développait trop rapidement, cela pourrait avoir des conséquences plus négatives que positives. La croissance progressive permet aux instances existantes de mieux faire face à la charge et permet à de nouvelles instances d’émerger et de faire face à une partie du flux.
Lorsque j’ai rejoint Mastodon pour la première fois, j’ai été enthousiasmé par chaque nouvelle vague d’utilisateurs et utilisatrices venant de Twitter. Je voulais prêcher à ce sujet à autant de gens que possible et essayer d’amener autant d’amis que possible à « déménager ». Au bout d’un moment, j’ai pris conscience que je me concentrais trop sur la comparaison avec Twitter et que j’essayais d’en faire un remplaçant de Twitter. En fait, j’avais déjà un réseau précieux là-bas et suffisamment de raisons de le visiter régulièrement, même si j’ai continué à utiliser Twitter aussi.
Mastodon s’articule autour des communautés. Ces communautés peuvent être des réseaux spécialisés selon les sujets qui vous intéressent. Vous n’avez pas besoin de tous vos amis pour être au sein de ces communautés, pour trouver des gens intéressants, du contenu utile et des interactions intéressantes.
Comme Vee Satayamas l’a noté, si vous êtes un utilisateur de Twitter, vous le trouverez peut-être utile même si peu de membres de votre famille ou d’amis réels sont présents. Vous n’avez pas besoin que tout le monde soit disponible sur chaque réseau. J’ai récemment quitté Facebook et j’ai quand même pu entrer en contact avec mes amis, par courriel ou par texto. Ce serait bien mieux si davantage de mes amis étaient sur Mastodon, mais ce n’est pas un gros problème.
En réalité, il y a quelque chose de positif dans la petite taille de mon réseau sur Mastodon. Je peux suivre ma chronologie, mon « fil », sans me sentir dépassé. C’est moins stressant d’y poster, comparé à Twitter, où chaque message que vous envoyez risque d’être republié par une horde géante ! Je suppose que c’est comparable à l’effet ressenti par les YouTubers, tel que détaillé dans cet intéressant article du Guardian, qui cite Matt Lees :
« Le cerveau humain n’est pas vraiment conçu pour interagir avec des centaines de personnes chaque jour… Lorsque des milliers de personnes vous envoient des commentaires directs sur votre travail, vous avez vraiment l’impression que quelque chose vous vient à l’esprit. Nous ne sommes pas faits pour gérer l’empathie et la sympathie à cette échelle. »
Pour moi, Mastodon offre un moyen terme heureux entre les conversations intimes des groupes WhatsApp, par exemple, et le potentiel sans limites de Twitter pour découvrir de nouvelles personnes et de nouveaux contenus.
D’après mon expérience, la plupart des utilisateurs actifs de Mastodon ne veulent pas qu’il ressemble davantage à Twitter — et ne ressentent pas le besoin que tous ceux qui sont sur Twitter les rejoignent. Par exemple, ces personnes apprécient le fait qu’il n’y a pas de publicitaires et très peu de marques. Pour les gens qui ne s’inquiètent que de leur « influence », alors c’est sûr, Mastodon n’aura pas autant de valeur. Mais la plupart de celles et ceux qui sont sur Mastodon ne regretteront pas trop de ce genre de personnes venues de Twitter !
Nous devons cesser de considérer Mastodon comme un substitut potentiel de Twitter. C’est différent, et c’est délibéré. Je comprends qu’on se plaise à imaginer que la Fediverse pourrait un jour écraser Twitter et Facebook, mais je ne pense pas que ce soit réaliste (du moins pas dans un avenir proche). Je pense que ce sera toujours l’outsider et c’est très bien ainsi, d’une certaine façon.
La Fediverse ne gagne pas seulement de la valeur à partir de la quantité d’utilisateurs, elle en gagne aussi à partir de la quantité de services. S’appuyer sur le standard ActivityPub implique que nous pouvons utiliser Mastodon, PeerTube (un service semblable à YouTube), PixelFed (un service semblable à Instagram) et beaucoup d’autres, qui peuvent tous interopérer. Cela donne à la Fediverse un avantage d’échelle par rapport aux plateformes propriétaires closes. C’est un point que l’article de Jeremy a bien fait ressortir :
« Parce qu’il parle le même « langage », un utilisateur de Mastodon peut suivre un utilisateur de PeerTube. Si l’utilisateur de PeerTube envoie une nouvelle vidéo, elle apparaîtra dans le flux de l’utilisateur Mastodon. L’utilisatrice de Mastodon peut commenter la vidéo PeerTube directement depuis Mastodon. Pensez-y une seconde. Toute application qui implémente ActivityPub fait partie d’un réseau social étendu, qui conserve le choix de l’utilisateur et pulvérise les jardins propriétaires clos. Imaginez que vous puissiez vous connecter à Facebook et voir les messages de vos amis sur Instagram et Twitter, sans avoir besoin de compte Instagram ni de compte Twitter. »
Cela signifie également que si nous avons l’impression que le service que nous utilisons ne va pas dans la direction qui nous convient (coucou, utilisateurs de Twitter 👋), alors nous pouvons passer à une autre instance et conserver l’accès à l’écosystème global.
La Fediverse s’accroît et c’est une bonne chose. Mais elle n’a pas besoin de davantage d’utilisatrices. Transmettre l’idée qu’on pourrait échouer sans une migration massive à partir d’autres plateformes sociales est une perspective trompeuse. Et défendre cette idée donnerait aux gens la fausse impression, lorsqu’ils rejoindront ce réseau social, qu’on devrait rechercher la quantité d’utilisateurs et utilisatrices, plutôt que la qualité de l’expérience.
Alors ne comptons pas trop le nombre d’inscrit⋅e⋅s sur Mastodon. Allons doucement en le comparant à Twitter. Arrêtons de le traiter comme s’il s’agissait d’une situation à la Highlander où « il n’y a de la place que pour un seul ». Et commençons à profiter de la Fediverse pour ce qu’elle est — quelque chose de différent.
Merci à Jeremy Dormit d’avoir été très gentil avec moi en critiquant cette partie de son billet de blog (qui m’a beaucoup plu par ailleurs) – voici sa réponse à mon pouet qui a mené à ce billet. Merci aussi à mes anciens collègues de Samsung Internet qui ont jeté un coup d’œil à une version antérieure de ce post.
]]>