Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe :)

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault - juin 2011 - Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens - diplomatiques, informatifs, militaires et économiques - si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.