Aller au contenu

La philosophie politique des concepteurs d’Internet

Beaucoup de travaux ont été écrits sur l’esprit d’Internet, ou l’imaginaire d’Internet. En France, Patrice Flichy et Dominique Cardon ont eu l’occasion de se pencher sur cette question. Cardon, (qui s’appuie sur les travaux de Fred Turner), rappelle notamment qu’Internet est né de la contre-culture américaine, et en son sein d’une mouvance autonomiste cherchant à élaborer des modes de vie alternatifs au moyen d’une transformation sociale et personnelle.

Dans cet article, je souhaiterais revenir rapidement sur l’ethos et les pratiques des différentes communautés s’étant, à un moment donné, attelées au développement d’Internet. Qu’ils aient travaillé sur les protocoles de transport ou les applications, les dizaines de milliers de chercheurs, professeurs ou étudiants qui ont participé à la construction d’Internet sont unis par un certain nombre de valeurs qui, comme on le verra, en ont fait un réseau à part, reléguant au second plan d’autres réseaux « télématiques»1 qui pouvaient exister à l’époque2.

Internet, un bien commun

Tout d’abord, Internet fut élaboré par une communauté de chercheurs en dehors de toute pression commerciale. Alors que les modes de fonctionnement et les protocoles utilisés par les réseaux de communication existants ou en cours de développement étaient considérés comme des secrets commerciaux, Internet a été conçu dans un esprit collaboratif entre des chercheurs issus de pays et d’organisations diverses. D’ailleurs, les entreprises de télécommunication étaient à l’origine relativement sceptiques sur l’utilité d’un réseau d’un nouveau genre. En 1964, lorsque le chercheur Paul Baran de la Rand Corporation, un « think tank » affilié au Pentagone, soumet à des cadres du monopole AT&T un projet de réseau télécom fondé sur la commutation par paquets, il se voit répondre sèchement : « Tout d’abord, cela ne peut pas marcher, et même si c’était le cas, on ne va quand même pas permettre que se crée ainsi notre propre concurrent ».3 La culture scientifique de partage des connaissances dont Internet est le fruit est en contradiction avec les logiques commerciales qui voient dans le secret et la rétention d’innovations la source d’avantages compétitifs sur les concurrents potentiels.

Le modèle d’Internet est en effet fondamentalement différent, car ses fondateurs ont toujours fait en sorte que les protocoles qu’ils développaient soient publics : ces protocoles techniques n’appartiennent à personne, et donc à tout le monde. Les brevets et autres droits de propriété intellectuelle ne sont pas de mise. Chacun est libre de les tester, de les modifier, de les distribuer. Et tous ont conscience de participer à une avancée technologique majeure. Comme le résume Michel Elie, seul européen à avoir assisté à la première connexion entre les ordinateurs de UCLA et de Stanford à l’automne 1969 :

Les universitaires ont fourni les premiers sites, développé des spécifications en toute indépendance des constructeurs et des grands opérateurs de télécommunications, inventé les premières applications. Les contrats de l’ARPA leur assuraient l’indépendance financière nécessaire. Le partage des ressources, en matériel, logiciels, données ainsi que des ressources humaines était un objectif majeur. S’y ajoute une culture de l’échange. Le réseau devient vite aussi un moyen de soumettre à la communauté des utilisateurs des algorithmes à vérifier, des programmes à tester, des données à archiver. Il deviendra un levier pour les promoteurs du logiciel libre. Il a su galvaniser des énergies et des intelligences désintéressées, individuelles et collectives.4

La décentralisation comme modèle organisationnel

Ce modèle de développement fondé sur le partage et la participation la plus large possible relève d’un fonctionnement décentralisé. Il n’y a pas d’organisation hiérarchique en charge de sa mise au point des standards qui s’imposent à ceux qui prennent part à cette entreprise scientifique. Certes, certaines personnalités, du fait de leur réputation due à leur contribution au projet, bénéficient d’une certaine autorité, et des structures de coordination existent. Mais le schéma organisationnel échappe à toute organisation hiérarchisée. Même l’ARPA, affiliée au Pentagone, fonctionne selon un modèle bien peu familier du monde militaire, les chercheurs y bénéficiant d’une grande liberté et n’ayant que très peu de comptes à rendre.

Au delà de l’ARPA, les communautés qui collaborent à la construction des codes, protocoles et différents composants de l’écosystème Internet sont fondées sur la conviction qu’une solution à un problème technique, une « bonne idée » pouvant déboucher sur une innovation majeure, peut venir de n’importe où. Aussi, la communauté doit-elle rester ouverte et fonctionner selon un modèle ouvert et méritocratique. Chacun doit être en mesure de proposer son idée. En fonction de sa pertinence, elle sera éventuellement prise en compte, débattue et, peut être, finalement mise en œuvre. C’est ce mode de fonctionnement que l’on retrouve aujourd’hui encore dans des organismes tels que l’Internet Engineering Task Force (IETF), qui est chargé de déterminer des principes communs pour l’administration des réseaux qui composent Internet. N’importe qui peut se rendre aux réunions de l’IETF et faire des propositions, s’investir dans les débats pour imposer son idée. C’est ce même schéma organisationnel qui caractérise le mouvement du logiciel libre, chacun étant libre de modifier le logiciel et de distribuer une version améliorée afin d’en faire bénéficier le reste de la communauté. Dave D. Clark, qui supervisa l’IETF de 1981 à 1989, décrit à merveille ce mode de fonctionnement lorsqu’il lance la célèbre formule :

« We reject kings, presidents and voting. We believe in rough consensus and running code ».5

Des procédures décisionnelles basées sur le consensus

De l’idée qu’Internet est un bien commun et dans le choix d’un schéma organisationnel décentralisé découle une troisième conviction, censée régir les débats sur les choix techniques relatifs au développement du réseau : la recherche du consensus. Dès l’été 1968, avant même la première interconnexion entre les ordinateurs de UCLA et de l’université de Stanford, un petit groupe de travail collaborant au projet d’ArpaNet se met en place entre les quatre universités fondatrices afin de travailler à l’élaboration de protocoles de communication.

Après quelques mois de travaux, le groupe prend conscience qu’il serait opportun de publier des documents synthétisant le fruit de leurs réunions informelles, notamment en vue de les communiquer au reste de la communauté de scientifiques susceptibles de s’intéresser au sujet afin de les inviter à s’investir dans le projet. Steve Crocker, un étudiant à UCLA qui participe aux réunions, se propose de formaliser les avancées du groupe de travail. Toutefois, il remarque que lui et ses collègues, parmi lesquels se trouve Vint Cerf, ne sont à l’époque que de simples étudiants de deuxième cycle, et les destinataires potentiels du document sont des professeurs émérites des grandes universités de la côte Est. Ils craignent d’avoir l’air de vouloir imposer leur idées. Steve Crocker est sous pression. Une nuit d’avril 1969, il s’attèle à la rédaction d’un mémo qu’il finalise au petit matin, enfermé dans la salle de bain pour ne pas déranger ses colocataires. Il l’intitule humblement Request For Comments (RFC), littéralement « demande de commentaires ». L’e-mail n’existe pas encore et Crocker et ses collègues envoient par la poste un exemplaire à chaque université partenaire du projet, à charge pour elle d’en imprimer d’autres au besoin6.

L’idée des RFC est que tout participant peut critiquer le contenu du document, ou proposer une réponse à des questions laissées sans réponse, le but étant de faire avancer la recherche et d’arriver à une définition commune. Et si le partage d’informations et le consensus sont si importants, c’est qu’Internet consiste justement à créer une harmonie technique entre des équipements et des communautés diverses. Chacun peut ainsi prendre part au débat scientifique et proposer une idée. Si suffisamment de personnes pensent qu’elle est pertinente et l’utilisent au sein du réseau qu’elles opèrent, alors cette idée devient un standard qui s’imposera pour assurer l’interopérabilité de leur propre réseau informatique avec le « réseau des réseaux ». Il y avait et il y a toujours un impératif technique au fait de parvenir à un consensus. Les désaccords devaient être surmontés.

Aujourd’hui, il existe plus de 5000 RFC et leur publication se fait de manière plus formelle. Les thématiques couvertes vont de questions techniques très précises à la présentation d’une vision personnelle quant au futur du réseau. Collectivement, ils retracent l’histoire d’Internet et permettent aux nouvelles générations d’ingénieurs de comprendre le processus de développement du réseau, qui peuvent alors se joindre à la conversation instruit de la richesse que renferment ces documents, qui sont tous librement accessibles en ligne.7

Du social à la technique… au social

Dans un article de référence8, le juriste Michael Froomkin se livre à une analyse des procédures de l’IETF. Après avoir étudié la formalisation progressive de son processus décisionnel, duquel les RFC sont la composante centrale, il estime qu’il s’agit de l’institution existante qui se rapproche le plus du modèle habermassien de « situation idéale de parole », capable d’aboutir à une délibération argumentée et légitimant la prise de décision. Que l’on partage ou non son analyse, force est de constater qu’Internet est le résultat d’une « fabrique sociale » caractérisée par un esprit de collaboration et d’échange.

Même si plusieurs éléments portent à croire que les personnes qui ont pris part à cette aventure avaient l’intuition de participer à la construction d’un réseau de communication qui allait changer le monde, il importe finalement peu de savoir s’ils étaient animés d’un projet humaniste. Il suffit de se rendre compte que le but même que cette communauté scientifique s’était fixé – la construction d’un réseau de communication universel – lui a imposé de recourir à une méthodologie de travail fondée sur des valeurs d’ouverture. Or, ce mode de fonctionnement l’a conduit à faire un certain nombre de choix techniques qui, comme on le verra dans un prochain post, sont au cœur de la liberté de communication permise par Internet.

Notes:

1 Le terme « télématique », apparu pour la première fois en 1978 dans le rapport rendu par Simon Noram et Alain Minc et baptisé « L’informatisation de la Société », recouvre les applications associant les télécommunications à l’informatique.

2 Les développements de cette partie sur l’ethos qui préside à l’élaboration d’Internet sont fondés sur les deux sources suivantes :

Tim Berners-Lee , 1998, « The World Wide Web and the « Web of Life » », w3.org. Adresse : http://www.w3.org/People/Berners-Lee/UU.html

Lawrence Lessig, 1999, « Open Code and Open Society: Values of Internet Governance », Chicago-Kent Law Review, vol. 74, n° 102.

3 Cité par Lessig, 1999, op cit. p. 109.

4 Elie Michel, 25 décembre 2009, « Internet, retour sur les origines et la « philosophie » du Web », Le Monde.

5 Nous nous risquons ici à une traduction de cette célèbre phrase: « Nous rejetons les rois, les présidents, et le vote. Nous croyons dans le consensus approximatif et l’exécution de codes».

6 Stephen D. Crocker, 9 avril 2009, « How the Internet Got Its Rules », The New York Times.

7 RFC Editor est le site de référence en la matière: http://www.rfc-editor.org

8 Michael Froomkin. Janvier 2001 « Habermas@discourse.net: Toward a Critical Theory of Cyberspace », Harvard Law Review 116, no. 3. Adresse : http://papers.ssrn.com/sol3/papers.cfm?abstract_id=363840

CC ByNCSa par mafleen