Le texte d’Emmanuel Cauvin paru cet hiver dans la revue Débat[1. Cauvin Emmanuel, 2011, « Quelles lois pour le numérique ? »,. Le Débat, vol. 163, n° 1, p. 16.] est un texte important, qui se penche sur les rapports entre Internet et le droit. L’article traite en particulier de la difficulté d’appliquer les logiques de régulation traditionnelles à Internet. Emmanuel Cauvin, qui est juriste de métier, apporte ici sa pierre à ce débat vieux de 15 ans en mettant en exergue l’incapacité du législateur et des juges à adopter et à faire appliquer des lois adaptées au réseau. Pour l’auteur, c’est là une tentative vaine tant que nos sociétés se passeront d’un débat de fond sur ce que sont les « lois physiques » propres à cet environnement nouveau. Mais, comme j’aimerais le montrer ici, au gré de cette analyse, l’auteur semble réduire Internet à un Far-West numérique sans prendre en compte ses règles propres et leur caractère éminemment politique. Car la technique n’est pas la physique ; elle est bien davantage une construction sociale, et donc une construction politique. Or, en cherchant par dessus tout à assurer l’applicabilité de la norme, Cauvin fait mine de ne pas voir que cela est impossible, sauf à changer l’architecture technique de l’environnement qu’il s’agit de réguler. Cela pose évidemment problème du point de vue de la liberté de communication permise par Internet, et des autres valeurs que l’état actuel des techniques fait primer. L’auteur passe donc selon moi à côté d’un débat politique essentiel sur une réforme du droit de la communication qui viendrait protéger les capacités nouvelles permises actuellement par l’architecture d’Internet.
Internet, un monde immatériel « sur demande »
La principale contribution d’Emmanuel Cauvin au travers de cet article consiste à établir une casuistique juridique permettant de déceler les spécificités d’Internet. Sa démarche se fonde sur un appel au bon sens : « les règles juridiques sont d’abord dictées par les propriétés physiques des objets auxquels elles s’appliquent ». Il importe dont de comprendre quelles sont au juste les « lois physiques » de l’Internet, « car le travail de caractérisation » n’a toujours pas été fait par le législateur.
La première observation que fait l’auteur est déterminante au plan juridique : « Cette réalité n’apparaît que quand on la sollicite ». Internet est un monde « sur demande ». Cela avait été relevé dans le premier arrêt de la Cour suprême américaine relatif à Internet. Ainsi, dans l’arrêt Reno vs. ACLU de 1997, le juge Stevens soulignait la nature non invasive d’Internet, expliquant que « sur Internet, il est rare que les internaute soient exposés à un contenu »par accident »». Internet est donc un monde auquel nous nous confrontons par notre propre volonté. Tout ce que nous y voyons ou faisons est, dans une certaine mesure, une conséquence logique de nos propres actions: ainsi en va-t-il des mots clés que nous recherchons, des liens hypertextes que nous cliquons, les pages Web que nous visitons. L’inattendu et la surprise ont bien évidemment leur place dans cet univers qui se déploie à chaque clic, mais nous restons maître de notre navigation.
D’autre part, bien que nous fassions l’expérience de ce monde sensible via la vue et l’ouïe et qu’il s’agisse donc d’un monde « réel », « les contraintes qui s’exercent sur nos faits et gestes ne son pas les mêmes ». Jamais notre intégrité physique n’est mise en cause, et l‘espace et la distance qui nous condamnent à un environnement géographique limité dans l’environnement physique sont abolis. Tout point de ce gigantesque réseau n’est jamais qu’à une fraction de seconde (ou plusieurs, selon la qualité de la connexion!).
Cette immédiateté est le résultat des deux grandes « lois physiques » du réseau que Cauvin met en évidence : le mouvement et la copie. « Le mouvement parce que toute action et même la moindre présence [sur Internet] se traduisent par une émission. Tout ne vit qu’à travers une transmission », de l’écriture d’un texte, à l’envoi d’un e-mail, en passant par la consultation d’une page Web. Il s’agit de transmission sans dépossession puisqu’Internet fonctionne – et c’est là sa deuxième loi fondamentale – sur la copie.
Internet et les technologies numériques sont toutes entières fondées sur la copie. Ainsi, l’envoi d’un e-mail part forcément d’un ordinateur à un serveur, de ce serveur à des routeurs chargés d’orienter l’information sur le réseau, de ces routeurs au serveur sur lequel le destinataire récupère l’e-mail en question, pour enfin le lire – et c’est là l’ultime copie dans cet échange – sur son ordinateur. Chaque émission et réémission d’information créent en pratique une copie qui peut être gardée en mémoire. Autant de reproductions au coût nul qui s’égrainent donc au cours d’un voyage le long du réseau physique de câbles qui forment l’architecture sur laquelle repose Internet. Même sur un poste informatique, chaque lecture d’un fichier crée en pratique une nouvelle copie dans la mémoire vive de l’ordinateur.
Pour l’auteur, ce sont bien le mouvement et la copie qui défient les fondements du droit traditionnel, et qui rendent nécessaires une réforme de régimes tels que le droit d’auteur et ou le droit de la preuve, afin que soient pleinement prises en compte les « lois physiques » d’Internet.
Des réformes inabouties et inefficaces
Ce mouvement quasi-organique que décrit Emmanuel Cauvin semble devoir rendre obsolète toute idée de contrôle sur l’information, comme il le montre au travers de son analyse de la crise du droit d’auteur face à Internet. En effet, si chaque manifestation d’une information donnée consiste en la réalisation d’une copie, un droit d’auteur fondé sur le droit de reproduction ou de représentation des œuvres vole en éclat, car de telles reproductions ou représentations deviennent impossibles à contrôler.
« Depuis près de trente ans, s’appuyant sur les principes classiques du droit d’auteur considérés comme intouchables, le législateur s’évertue à ajuster leurs modalités d’application à l’évolution de ce que l’on continue d’appeler la «technique», alors qu’il conviendrait de s’attaquer à ces sacro-saints principes pour les renverser et les remplacer par d’autres. Les pouvoirs publics pratiquent des changements cosmétiques là où il faudrait procéder à une opération chirurgicale en profondeur ».
À défaut d’une telle réforme, le droit ne pourra donner que l’illusion de son applicabilité en invoquant des parallèles douteux tenant de ramener Internet à notre monde physique. Comme l’analogie trompeuse entre la loi HADOPI et le premier code de la route, invoquée par plusieurs ministres de la Culture ayant eu à défendre cette loi. De tels discours produisent des fictions juridiques, dont Cauvin pense à juste titre qu’ils ne peuvent avoir prise sur l’environnement immatériel auquel elles tentent de s’appliquer.
Mais ici se dévoile la vraie limite dans l’analyse d’Emmanuel Cauvin. Car après avoir montré les limites du droit actuel, il propose des pistes de réformes inabouties. Les propositions de l’auteur s’apparentent en effet à un changement de vocabulaire (le droit de reproduction et de représentation de l’auteur sur son œuvre deviennent le droit d’émission et de réception), et non à l’« opération chirurgicale en profondeur » qu’il appelle lui-même de ses vœux. Une telle démarche peut certes permettre une amélioration qualitative de nombre de lois à l’environnement numérique (ainsi en va-t-il de sa réflexion pertinente sur le droit de la preuve), mais son exemple du droit d’auteur montre que toute règle juridique vouée à empêcher des échanges d’information défie la logique même d’Internet. Ainsi, la distinction qu’il propose entre licence de réception (nouveau droit de reproduction) et licence d’émission (nouveau droit de représentation) est obsolète. Mettre en place un tel système revient à rétablir une différence entre les activités de réception et d’émission de biens culturels, alors même que l’auteur reconnaît que chaque internaute peut mener les deux à la fois. C’est typiquement le cas avec les échanges peer-to-peer qui représentent le moyen technique optimal pour diffuser des œuvres sur le réseau : toute réception est en même temps mise en partage d’une œuvre avec d’autres, et donc émission. La e-licence qu’il propose pour réguler le droit d’émission suppose qu’il est techniquement possible de monétiser toute émission de contenu. Or, de même qu’on ne peut les empêcher de telles transmissions qu’en changeant l’architecture physique d’Internet (ce que l’auteur semble exclure de son raisonnement), on ne peut pas non plus imposer que chaque échange s’accompagne d’une transaction monétaire.
En fait, Emmanuel Cauvin ne voit pas que, en l’état des « lois » propres de l’Internet, il est impossible de prévenir efficacement la publication d’information. Il y a une incompatibilité absolue entre une partie du droit de la communication – celle dont la fonction est justement d’empêcher la publication de certaines informations – et la nature même d’Internet tel que nous le connaissons.
Une architecture technique reflet de valeurs politiques
Emmnuel Cauvin voit Internet comme un outil technologique surgissant brutalement. Un espace à l’état de nature, vierge de toute règle sociale, où la technique fait seule sa loi. Pour lui, s’en remettre au statu quo technique nous mène dans l’impasse.
« Qui, sur terre, songerait à fonder une morale sur l’application des lois physiques de notre milieu ».
Mais Internet n’est pas un objet asocial, ni un espace naturel qu’il faudrait « domestiquer ». Bien loin de l’état de nature que décrit l’auteur, Internet est au contraire un espace social, non seulement habité mais construit par l’homme, pour l’homme. Les choix techniques qui ont présidé à son développement ne sont pas arbitraires. Ils sont au moins pour partie le fruit de certaines valeurs qui sont celles des ingénieurs pionniers d’Internet et de l’informatique ouverte.
L’origine socio-culturelle d’Internet est de ce point de vue riche en enseignements. On ne peut séparer la technique de la vision de ses concepteurs. Il semble donc important de rappeler, comme le fait Dominique Cardon en se basant sur les travaux de Fred Turner dans La Démocratie Internet, que les chercheurs qui ont participé au développement d’Internet on baigné dans le mouvement de la contre-culture américaine :
Les tenants de la contre-culture, écrit Cardon, « veulent reprendre en main les enjeux techniques pour ne pas les laisser aux businessmen et aux militaires. Sur le mode de l’appropriation individuelle, du culture du micro et du »do it yourslef », ils cherchent à repenser toute la politique des technosciences pour les mettre au service d’une extension des capacités individuelles (…). Tous, loin de là, ne sont pas hippies, mais il est incontestables que l’atmosphère culturelle qui nimbe la baie de San Francisco [où travaillent nombreux des ingénieurs clés] a profondément influencé la manière dont les premiers usagers de l’Internet se sont représenté l’outil qu’ils étaient en train d’inventer : un espace émancipé dans lequel il est possible de faire »communauté » ».
L’environnement culturel qui a entouré l’avènement de l’informatique ouverte et d’Internet a eu une influence déterminante sur ce que Cauvin désigne comme les lois physiques du réseau. Le choix le plus remarquable, et qui distingue Internet de tous les réseaux de communication qui l’ont précédé, c’est son architecture acentrée, le fait que l’intelligence soit poussée en périphérie, à la différence des médias de masse que sont la presse, la radio ou la télévision, ou même du téléphone. Chacun peut envoyer n’importe quelle information, à n’importe qui, tant qu’un certain nombre de principes techniques sont respectés pour procéder à l’acheminement des données. La liberté de communication des personnes connectées s’en trouve maximisée. Ainsi, les règles techniques d’Internet permettent en théorie une liberté d’expression totale, l’anonymat, et dans une certaine mesure, le respect de la vie privée ; elles mettent l’accent sur l’auto-organisation et la mise en partage. Ces valeurs sont celles des pionniers de l’Internet.
Un outil fragile
Cette limite regrettable dans l’analyse d’Emmanuel Cauvin (qui ne voit pas que la technique est politique) l’amène à disqualifier la posture des défenseurs de la liberté sur Internet, ou en tous cas une partie d’entre eux. Il fait comme s’il ne voyait pas qu’en défendant l’architecture technique d’Internet, ces derniers défendent en fait ses valeurs originelles. Le risque est qu’en appliquant aveuglément au gré de simples ajustements conceptuels les principes juridiques traditionnels sans remettre en cause leur bien fondé, nos sociétés fassent prévaloir des valeurs au moins pour partie adverses, sans forcément s’en apercevoir. En effet, contrairement à ce qu’avance l’auteur, le débat sur les « lois pour le numérique » ne doit pas simplement être un débat sur l’application de nos valeurs à Internet, mais aussi et surtout un débat entre différentes valeurs qui s’affrontent dans l’espace public.
« Bouger, copier, bouger, copier. Tout ce qui pourrait heurter la fluidité de la matière, sa propagation universelle, est rejeté comme une hérésie. La seule légalité est technique, est légal ce qui est faisable et, par là même, tout ce qui est faisable est légal. La pensée de nos héros des nouvelles technologies est une pensée archaïque, la pensée d’êtres vivants et énergiques mais neutres par rapport à l’éco-système dans lequel ils vivent et se répandent. Aucun recul par rapport à la matière. »
En écrivant ici « est légal ce qui est faisable », il semble que Cauvin caricature la thèse défendue par le professeur de droit Lawrence Lessig, véritable pionnier de la réflexion juridique relative à Internet. Dans son ouvrage Code, paru en 1999, Lessig pose une équation : « code is law ». Le code (entendre « code informatique ») – c’est à dire l’architecture technique qui « fait » le cyberespace – peut permettre, faciliter ou empêcher certains comportements, tout comme les règles juridiques: qu’il s’agisse du réseau sur lequel je communique, ou de l’ordinateur dont je me sers, chacun de ces outils est programmé pour réaliser certaines fonctions, et contraint de ce fait mon champ d’action. Lessig nous invite à prendre en compte les effets normatifs de l’architecture technique. Il se porte ainsi en faux contre l’idée selon laquelle Internet ne serait pas « régulable ». Certes, il est difficile dans cet espace mouvant d’appliquer un droit. Cela supposerait de pouvoir connaître l’identité d’une personne en ligne, où elle se trouve, ce qu’elle fait. Or, Internet offre à l’heure actuelle la possibilité d’agir de manière invisible, sans que l’on sache qui l’on est, où l’on se trouve et ce que l’on fait.
D’où une tentation pour les États de développer des dispositifs leur permettant d’enregistrer ces différents paramètres, et de contraindre les comportements en ligne en faisant en sorte de « reprogrammer » l’architecture technique. C’est ce mouvement qu’on observe depuis 15 ans, qui a été mis en évidence à l’occasion du forum eG8 qui vient de s’achever, et que Larry Lessig avait déjà prédit : À mesure qu’un nombre croissant de notre vie sociale migre en ligne, les États se dotent d’outils pour identifier, surveiller les comportements, et de manière générale réguler les activités de la population via un mélange de contrôle technique et de dispositifs répressifs (voir en France les exemples récents tels que l’HADOPI, la LOPPSI, le décret sur la rétention des données par les hébergeurs, etc.).
Ce mouvement mondial de régulation tend à remettre peu à peu en cause le caractère décentralisé d’Internet. modifiant son architecture technique pour créer des points de contrôle : directement sur les postes informatiques (à l’image des outils de sécurisation prévu par la loi HADOPI, ou les logiciels de contrôles sous responsabilité de l’abonné) ou, plus grave, en cœur de réseau (filtrage étatique ou privé, saisie de noms de domaine, etc.).
Les dangers d’une sphère publique en ligne sous contrôle
Cette régulation croissante se fait selon deux directions : la surveillance (et la remise en cause de la vie privée), et la mise en place de filtres aux échanges d’information. Cela suppose de trouver dans cet espace de communication des acteurs prêts à endosser la fonction de gatekeepers, à l’image des directeurs de publication dans les médias traditionnels, pour contrôler les communicants en ligne. Ces gatekeepers ont pour fonction de réguler la publication des contenus dans l’espace public ; ils centralisent donc le pouvoir médiatique et peuvent de ce fait être soumis plus facilement à des pressions juridiques ou même simplement politiques. Sur Internet, ces gatekeepers sont les « intermédiaires techniques » : fournisseurs d’accès, hébergeurs, moteurs de recherche, ou autres éditeurs de service en ligne.
Loin d’un retour à la situation qui prévalait dans nos sociétés avant l’arrivée d’Internet, la montée en puissance d’une régulation d’Internet par l’entremettement des intermédiaires techniques constitue une vraie régression du point de vue démocratique : alors que les directeurs de publication opèrent selon une logique éditoriale, dans le respect de la déontologie journalistique et de leur fonction de « chien de garde de la démocratie », les nouveaux gatekeepers de l’Internet – au premier rang desquels Google – ne sont que des acteurs économiques en aucun cas soumis au respect des règles éthiques et juridiques qui pèsent sur les journalistes. Autre différence majeure : les gatekeepers de l’Internet ont recours à des procédés de filtrage automatique des contenus pour empêcher la publication d’information. C’est là leur seul moyen de contrôle, car ils ne peuvent évidemment pas étudier au cas par cas les contenus mis en ligne pour juger par eux même, « en personne », de leur licéité. Or, ces dispositifs techniques sont incapables d’appréhender la complexité des situations juridiques qu’ils ont à connaître (voir l’exemple des filtres ne reconnaissant pas les exceptions au droit d’auteur). Sans juge ni directeur de publication conscient de son rôle dans un régime démocratique, la technique soumise au droit laisse sur Internet libre cours à une censure arbitraire. Or, la démarche positiviste de Cauvin, en cherchant à imposer la règle juridique existante à une société numérique qui serait comme insoumise, amène irrémédiablement à justifier ces procédés.
Rompre avec le statu quo juridique pour faire le pari de la démocratie
J’aimerais pour finir proposer quelques pistes de réflexion pour repenser le droit de la communication à l’heure d’Internet
Adapter le droit à Internet, et non l’inverse.
Face à ce réseau mondial de communication, nous ne devons pas comme le fait Cauvin nous contenter de transposer les principes traditionnels de régulation à cet espace immatériel qui serait comme engluée dans l’état de nature. Il nous faut nous engager dans une véritable réforme, et trouver de nouveaux équilibres juridiques pour faire en sorte qu’Internet, espace de liberté et d’innovation, tienne toutes ses promesses.
Cette réforme devrait être l’occasion d’approfondir les « phénomènes démocratiques » à l’œuvre sur Internet : l’élargissement de l’espace médiatique à de nouveaux participants, à l’image des blogueurs ; l’émancipation d’un public jusque là relativement passif face aux grands groupes qui dominent les médias traditionnels ; une plus grande transparence des institutions politiques et une meilleure surveillance des puissants par les citoyens ; l’apparition de nouvelles sociabilités, qui permettent aux individus de prendre part en toute liberté à des communautés d’intérêt de types variés.
À défaut de faire un aggiornamentto du droit de la communication pour encourager ces phénomènes, nous risquons de changer irrémédiablement la nature d’Internet. Une telle réforme passe notamment par la mise en œuvre de garanties juridiques destinées à protéger les fondements techniques de la liberté de communication permise par Internet.
Accepter la relative inapplicabilité des limites juridiques à la liberté de communication.
Si l’on parvient à éviter que le droit ne restreigne le champ des possibles ouvert par la technique, alors on en revient au problème de l’application de logiques répressives soulevés ci-dessus : comment savoir qui est qui, qui fait quoi, et depuis quelle juridiction ? Dans de nombreux cas, l’autorité en charge de l’application des lois pourra disposer de ces informations (comme c’est le cas aujourd’hui), mais en ce qu’Internet offre la possibilité d’anonymiser et de chiffrer toute communication, il désarme ainsi partiellement l’application de la règle de droit.
Mais quel est au juste la nature de ce droit ainsi désarçonné par Internet ? Manifestement, une grande partie du droit continue de s’appliquer à Internet. Beaucoup des communications que nous faisons avec cet outil sont en effet le pendant immatériel d’échanges biens réels, de biens ou de services, qui restent régulés par le droit : le droit des contrats, le droit fiscal, civil ou pénal. Ainsi, lorsque nous achetons des biens et services en ligne, ces transactions s’accompagnent d’échanges monétaires par l’intermédiaire d’organismes bancaires. Par ailleurs, chaque bien commandé en ligne – un livre par exemple – nous sera livré par la poste. L’échange d’information n’est là qu’annonciateur de phénomènes physiques que le droit n’a aucun mal à réguler. Le client paye la TVA, le marchand en ligne s’acquitte des ses charges sociales, rétribue les ayants-droit, etc. Toute une chaîne de transactions qui fait l’objet de contrats et de règles juridiques pour réguler le versant physique des échanges en ligne.
Quelles sont donc les règles de droit qui sont affaiblies par Internet tel que nous le connaissons ? Comme nous l’avons vu, le droit d’auteur en est le parfait exemple : ce sont les règles juridiques visant à restreindre ou contrôler la transmission d’information. Le droit pourra rendre plus difficile la publication, et prévoir des sanctions dans certains cas isolés où les responsables pourraient être identifiés (poursuivre les auteurs de fuite d’informations secrètes, tels que Bradley Manning, soupçonné d’avoir communiqué des dizaines de milliers de câbles diplomatiques et de rapports militaires à WikiLeaks). Mais dans le cas d’informations dont la vocation est d’être publiques, et c’est typiquement le cas des œuvres culturelles, le droit sera submergé.
En effet, si l’information est divulguée et présente un intérêt public, et que sa transmission peut se faire sans que la personne qui la sollicite ne soit inquiétée physiquement (ce que permet l’anonymat, ou même le sentiment d’anonymat), elle sera transmise, copiée, et propagée aux quatre coin du réseau, chaque fois que la transmission de l’information sera sollicitée par quelqu’un.
Dans le cas où l’information est de nature privée et qu’elle est néanmoins publiée, sa propagation ne pourra être limitée que du fait du désintérêt des internautes eux-mêmes. L’information restera alors cantonnée à ces zones d’Internet que Dominique Cardon désigne comme les zones de clair-obscur, où l’information est publique mais reste invisible du plus grand nombre des internautes. La seule limite à la transmission de l’information divulguée relève donc de logiques sociales. Sauf à détruire l’essence même d’Internet, le droit ne pourra rien – ou peu – contre cela.
Accepter que l’affaiblissement de la règle de droit puisse laisser à l’éthique comme mode de régulation.
Internet désarme le droit et confie à des logiques sociales le soin d’organiser la circulation de l’information sur Internet. J’ai évoqué les règles techniques ou juridiques qui font à elles seules qu’Internet n’est pas un objet asocial, un continent à domestiquer. Mais c’est ce troisième type de règles qu’il nous faut maintenant considérer ; ces règles sociales qui régulent au quotidien nos activités en ligne, et qui ont notamment été étudiées par les juristes américains comme Yochai Benkler ou Jonathan Zitttrain.
Internet est régit par des normes sociales, des règles éthiques. Internet lui-même, les logiciels libres qui font tourner 80% des serveurs et quasiment tous les ordinateurs connectés, les sites Internet collaboratifs comme Wikipédia, les forums et réseaux sociaux : tout Internet est fondé sur des stratégies de socialisation, des logiques de partage de connaissance, de compétences, sur une coopération à vaste échelle entre les participants à cet écosystème complexe. Tout ce monde qui forme notre expérience quotidienne, toute cette planète immatérielle que nous créons, collectivement, n’est le fruit que de notre volonté de communiquer, de mettre en partage.
Car là où le droit n’est pas, d’autres formes de régulation s’immiscent pour organiser ces échanges. Dans The Economy of Ideas, John Perry Barlow, pionnier de l’Internet et icône de la contre-culture américaine, écrit :
« Je suis convaincu que l’échec du droit entraînera presque certainement, par compensation, une renaissance de l’éthique comme fondement de la vie sociale ».
Ainsi, il se peut que les limites à l’expression peuvent ainsi ne plus avoir besoin de répression pénale, mais être déterminée de manière organique, au cas par cas, chaque communauté décidant pour elle-même des règles qu’elle entend appliquer aux échanges d’informations en son sein. Nous devons faire le pari que même sans le droit, Internet peut rester un espace public digne de ce nom ; que les actions individuelles (qui se réduisent, rappelons-le, à la transmission d’information) libérées de la contrainte du droit parviendront à en faire un outil accessible et apprécié de tous. La régulation sociale de l’expression doit conduire à un espace public organique, et non chapeauté par des autorités publiques tâchant d’organiser un pluralisme formel.
Et si nous pouvons prendre ce risque de laisser à l’éthique le soin de réguler les interactions sociales en ligne, au côté des règles de droit qui s’appliquent à l’espace physique et des règles techniques qui permettent ou empêchent certaines actions dans cet environnement immatériel, c’est qu’Internet ne se manifeste qu’à notre propre demande, et qu’il est immatériel. Nous nous y confrontons par notre propre volonté, sans que notre intégrité physique ne soit jamais remise en cause. Cela en relativise les dangers et nous permet, au moins en ce qui concerne la manière dont nous organisons la circulation de l’information dans nos sociétés, de prendre le risque de la démocratie réelle.