vendredi 29 juillet 2011
Entretiens
posté à 14h54, par
64 commentaires
Dans « Internet libre ou Minitel 2.0 », conférence donnée en 2007, il disait brillamment sa crainte d’une verticalisation du Net. Quatre ans plus tard, rien n’a changé, sinon que les sombres nuages menaçant la neutralité des réseaux s’accumulent de plus en plus. Benjamin Bayart en parle ici, évoquant aussi - entre autres - la question de la propriété intellectuelle ou la menace représentée par Google. Entretien numérique.
La neutralité du réseau - soit la garantie que tous les flux seront traités à égalité sur le Net - est peu à peu, et sans doute parce qu’elle est de plus en plus menacée1, devenue une question politique et médiatique. Il n’y a plus grand monde pour ne pas savoir ce dont il s’agit, et chacun a compris l’absolue nécessité de la préserver.
Il n’en allait pas tout-à-fait - voire : pas du tout - de même il y a quatre ans : la neutralité du réseau était alors l’affaire de quelques geeks politiques, peinant à se faire entendre du grand public. Parmi ces précoces sonneurs d’alerte : Benjamin Bayart. Avec une conférence donnée en juillet 2007 à Amiens, intitulée « Internet libre ou Minitel 2.0 » et abondamment visionnée sur le Net (elle est notamment consultable ICI), l’homme a largement contribué à faire comprendre l’importance de l’enjeu.
Le président de FDN, plus ancien fournisseur d’accès encore en exercice en France, s’est aussi battu contre Hadopi et pour les logiciels libres. Disons, pour résumer, qu’il milite pour un Internet libre. Il nous en parlait il y a deux mois, voici l’entretien qui en résulte.
Comprendre Internet : c’est un vrai enjeu ?
Je suis retombé hier soir sur le livre Confessions d’un voleur, de Laurent Chemla, l’un des cofondateurs de Gandi2 ; le titre de l’ouvrage vient d’une chronique publiée dans Le Monde, où il expliquait être un voleur parce qu’il vendait des courants d’air. C’est-à-dire des noms de domaine. Son livre - librement consultable en ligne - date de 2002 mais ses analyses n’ont pas pris une ride. L’auteur pose parfaitement ce qu’est Internet, l’effet que le réseau a sur la société, comment il la restructure et quels profonds bouleversements vont en découler. Et il explique que les politiques sont outrés de voir débarquer des gueux dans leur salon doré et se mêler de leurs affaires – ni plus ni moins que la définition de Wikileaks.
Cette très fine compréhension d’Internet n’est pas partagée de tous. De loin. D’abord parce qu’il y a une évidente fracture générationnelle : chez les plus de 50 ans, il n’y a pas grand monde pour comprendre ce qu’est Internet – quelques personnes tout au plus. S’y ajoute un problème de compréhension instinctive de ce qu’est le réseau – je ne parle pas de savoir envoyer un mail, mais d’avoir tellement intégré les pratiques du réseau qu’elles deviennent normales : c’est le cas aujourd’hui d’à peu près tous les moins de 25 ans. À l’inverse, les politiques n’y comprennent rien. Et c’est le cas à droite comme à gauche, extrême-gauche comprise.
D’ailleurs : avez-vous déjà lu les positions du NPA sur le réseau ? Elles sont à peu près aussi brillantes que celles de l’UMP... Ce que propose le NPA, c’est de fermer toutes les boîtes privées, de nationaliser France Telecom et de faire un Internet d’État. Leur niveau de réflexion ne va pas plus loin que cette idée : c’est une industrie, il faut la nationaliser. Point. J’ai pas mal de copains au NPA qui essaient de pousser pour que le programme intègre deux-trois fondamentaux. Quelques petites choses sur les logiciels libres versus les brevets, par exemple, ce ne serait pas idiot.
Le seul parti politique de France, à ma connaissance, qui ait réellement quelque chose d’intéressant sur le réseau dans son programme est le PCF. Soit une ligne assez claire, votée il y a près de dix ans, qui prenait position contre les brevets logiciels. Ils ont une avance considérable sur le sujet. Hors cela : morne plaine.
Tu mentionnais deux-trois fondamentaux pour comprendre le réseau. Quels sont-ils ?
En fait, il ne s’agit pas de comprendre le réseau, mais la société qui vient. Et parmi ces fondamentaux, il y a d’abord la nécessité de comprendre la modification du tissus social. C’est assez facile à expliquer. Posons qu’une société se définit par les interactions entre les gens : le média structure la société. Il n’y a là rien de neuf. C’est-à-dire qu’il y a eu la société de l’écriture manuscrite, puis la société que l’imprimerie a formé – qui est l’un des facteur-clés dans le passage du Moyen-Âge à la Renaissance. Il y a ensuite la société que la télévision a formé, qui est encore différente. Et enfin, il y a Internet, qui change beaucoup plus profondément les choses que la télévision.
Ces évolutions techniques portent des modèles profonds. L’imprimerie, c’est un éditeur qui juge que l’écrit est suffisamment important pour être publié et qui le diffuse vers des lecteurs n’ayant pas eu leur mot à dire dans cette décision. C’est un monde vertical. Alors qu’avec Internet, tout le monde publie, et lit qui veut bien lire. Le modèle – je parle bien du réseau, pas de services à la Google ou Facebook – est ainsi totalement horizontal.
Premier point, donc : le changement de structure de la société. Dans le monde de l’écrit, vous êtes en contact avec quelques dizaines de personnes – tout au plus. Dans le monde d’Internet, le plus crétin des ados boutonneux a deux cents amis sur sa page Facebook. Le changement de structure est intéressant. Mes parents ou mes grands-parents ne correspondaient pas par écrit avec une cinquantaine personnes. Correspondaient-ils plus profondément, plus véritablement ? Peut-être... Mais ce n’est pas la question.
Deuxième point : comprendre les enjeux de la question de la propriété intellectuelle. Toute cette société dont on parle est la société du savoir. Les savoirs sont les seules choses y existant réellement ; dans cette société-là, le monde lui-même est une construction intellectuelle. Par conséquent, la notion de propriété intellectuelle est à revoir totalement. Relisez les textes de Louis Blanc sur la question de ce qui était à l’époque appelé propriété littéraire. Il posait parfaitement le problème : comment voulez-vous être propriétaire d’une idée ? Soit vous la gardez dans le fond de votre tête, vous ne l’énoncez jamais et – simplement – elle n’existe pas. Soit vous l’énoncez, et sitôt qu’elle est entendue, elle se répand ; comment voulez-vous la retenir, l’attraper ?
La question de la propriété intellectuelle n’a pas de sens ?
Bien sûr que non. Parce qu’une idée ne peut pas être à vous. Si vous étiez né dans une grotte d’ermite, abandonné par vos parents et élevé par des loups, et qu’il vous vienne une idée géniale, on pourrait légitimement supposer qu’elle est un peu à vous ; elle serait à 90 % aux loups, mais un peu à vous. La véritable quantité d’innovation dans une œuvre de l’esprit est toujours marginale. À preuve, si une œuvre de l’esprit est trop innovante, elle devient incompréhensible : si vous inventez la langue dans laquelle votre texte est écrit, il ne sera jamais lu.
La très grande majorité d’une œuvre appartient donc de facto à la société. L’apport de l’auteur est extrêmement faible – ce qui ne veut pas dire qu’il n’a pas de valeur. C’est l’une des raisons pour laquelle, dans les débats sur le droit d’auteur au début du XIXe, un grand principe s’est imposé, celui du domaine public. Par principe, toute œuvre appartient au domaine public ; par exception et pendant un temps donné, une exclusivité est accordée à l’auteur. C’était alors une exception de très courte durée ; de mémoire, ce devait être neuf ans renouvelables une fois. Aujourd’hui, cette durée est devenue délirante : on parle de rémunérer les petits-enfants pour le travail effectué par le grand-père... Tout se joue – en fait – à l’aune de Disney : à chaque fois qu’on va atteindre la date de fin des droits d’auteur pour papa Disney, les Américains font le forcing pour qu’on rallonge cette durée. Ça fait déjà un moment qu’on est passé à cinquante ans après la mort de l’auteur, puis c’est devenu soixante-dix quand on a atteint les cinquante ans après la mort de Disney. Et là, ils essayent de pousser pour qu’on passe à 90 ans parce qu’on va bientôt atteindre les 70 ans après la mort de Disney. Pour eux, pas question que Mickey entre dans le domaine public.
Le paradoxe, c’est qu’en fait Mickey est dans le domaine public depuis des dizaines d’années. Tout le monde le connaît, il est même devenu un mot de la langue courante. Mieux : le personnage est en train de tomber dans l’oubli. Cherchez dans votre entourage combien d’enfants ont vu un dessin animé avec Mickey : assez peu. Le mot est donc devenu courant, le personnage tombe dans l’oubli, mais il n’est pas encore entré dans le domaine public. Délirant.
Il faudrait revenir à ce qu’était le droit d’auteur à l’origine : l’auteur d’une œuvre était associé à une exclusivité temporaire dans le cadre d’une exploitation commerciale. Le droit d’auteur protégeait alors les artistes contre les marchands. Il s’agissait d’empêcher que ces derniers ne s’enrichissent indûment sans rémunérer les auteurs. Il faudrait que ça redevienne le cas. Empêcher, par exemple, qu’Apple ne s’enrichisse indûment de la musique des gens avec sa plate-forme iTunes. Pour rappel, il y a quelque chose comme 50 % des revenus d’iTunes qui tombent directement dans les poches d’Apple, le reste partant vers les maisons de disque, où est opéré le partage habituel : au final, seuls 6 ou 7 % de ces 50 % finissent dans les poches de l’auteur. Quand il était encore question de support matériel, ça pouvait – à la limite - se justifier : la fabrication du support coûtait cher, comme la gestion du stock. Mais une fois que le support matériel n’est plus, il en va tout autrement.
Que le support matériel disparaisse : n’est-ce pas un autre de ces fondamentaux que vous évoquiez ?
Tout-à-fait : la dématérialisation est un pilier de cette société qui vient. Une quantité phénoménale de choses n’ont désormais plus besoin de support matériel – musiques, films, écrits. Sur ce point, nombre de gens s’emmêlent les pinceaux : ils disent « virtuel » là où il faut dire « immatériel ». La discussion que vous avez sur Facebook, par mail ou par IRC est immatérielle, et non virtuelle ; ce ne sont pas des êtres imaginaires qui parlent. Le monde de la société du savoir, qui se développe autour d’Internet, n’est pas un monde irréel. La distinction est essentielle.
Le réseau est l’espace physique dans lequel s’inscrit le monde immatériel. Et on ne peut pas accepter que la physique ne soit pas neutre, que la physique du monde dans lequel on vit soit différente selon que vous soyez riche ou pauvre. S’il y a une chose qui touche les riches comme les pauvres, c’est bien la mort, la maladie ou le fait de voir apparaître une bosse quand on se cogne. Il en va de même sur le réseau. C’est fondamental : il n’est pas possible que le substrat de la société à venir soit non-neutre. Attenter à la neutralité des réseaux devrait donc être considéré comme un crime assez grave.
De quoi s’agit-il ?
Le modèle de développement d’Internet est d’être totalement acentré. Il n’y a pas de centre, pas de partie plus importante ou par principe plus grosse que les autres, afin de rendre l’ensemble indestructible. Les échanges y sont normalisés de manière à préserver une grande hétérogénéité ; Internet a été conçu pour que deux ordinateurs de marque et de constructeur différents puissent discuter entre eux, pour peu qu’ils respectent un tout petit bout de norme.
Ce réseau acentré existe, même s’il est en même temps un optimal qu’on n’atteint par définition jamais. Et ce réseau a de grandes vertus, dont celle de garantir les libertés sur Internet. Je prends un exemple : s’il n’y avait plus que des plateformes centralisées de blogs, vous y publieriez ce qu’on voudrait bien vous laisser publier – nous serions revenus au modèle de la télévision. Mais pour l’instant, aucune plateforme ne peut se permettre de trop censurer, parce qu’il suffit de dix jours pour lancer une nouvelle plateforme. C’est cette capacité d’acentrer qui garantit les libertés dans les systèmes centralisés.
Cela évoque autre chose : il y a finalement une notion de biodiversité sur Internet. C’est-à-dire qu’il y a une diversité strictement nécessaire. Par exemple, s’il n’y a plus qu’un seul système d’exploitation, le réseau change très vite, pouvant dériver vers autre chose. On l’a vu quand Internet Explorer était ultra-hégémonique : le web était paralysé, il n’a à peu près pas évolué pendant dix ans.
Tout cela renvoie – enfin – à l’existence d’une masse critique. S’il n’y a plus assez de partie acentrée, très vite le système dégénère et s’effondre. C’est pour ça que j’ai lancé le sujet sur le minitel 2.0 ; je redoutais et je redoute encore qu’on descende en-dessous de la masse critique. Par exemple, le jour où le service mail sera trop centralisé, ceux qui n’utiliseront pas de grosses messageries se retrouveront le bec dans l’eau. Pour rappel : il y a à peu près 150 fournisseurs de mail sur la planète, dont des très importants (Gmail, Hotmail, Facebook...), des importants (qui sont les gros FAI en général, dont Orange et Free) et enfin, autour, des moucherons. Que les très importants et les importants décident de ne plus parler qu’entre eux, c’est-à-dire de bloquer les mails des moucherons, et ces derniers disparaîtront. C’est en cours. Il y a des périodes où les mails sortant de telle ou telle micro-structure ne sont pas acceptés par Hotmail, d’autres périodes où ils se retrouvent d’office classés par les spams.
Mais tant qu’il reste une masse critique, en l’espèce 1 % du trafic mail géré par les moucherons, les géants ne peuvent pas les ignorer totalement ; ils sont obligés de faire un tout petit peu attention à eux. Au risque, sinon, de provoquer trop de remous : 1 % de la population, ça peut faire du bruit...
C’est étonnant de vous entendre parler – un peu au-dessus – de biodiversité : ça semble incongru s’agissant d’Internet...
Et pourtant... Une illustration très parlante : les écolos sont en train de se saisir de cette idée de réseau acentré, et tout ce qu’ils construisent autour de la notion de développement durable ressemble énormément à Internet. Exemple : les travaux se penchant sur la meilleure façon de gérer l’électricité dégagent deux gros modèles. Soit on a recours à d’énormes centres, qui diffusent des puissances électriques monumentales sur des réseaux gigantesques et où on utilise à peu près 30 % de l’énergie pour chauffer le réseau (c’est-à-dire qu’on la perd en ligne). Soit on est sur des modèles totalement acentrés, où chacun produit un petit peu d’électricité servant à se chauffer (si nécessaire), ou à chauffer les voisins (si superflu). Les écolos se rendent compte, aujourd’hui, que ce second modèle est beaucoup plus efficace.
Ce modèle ressemble d’ailleurs beaucoup à d’antiques modèles de société, qui sont des sociétés beaucoup plus résilientes. Au XVIe siècle, la peste avait besoin d’un bon bout de temps pour aller d’une partie du pays à l’autre ; aujourd’hui, elle ne mettrait pas quinze jours... La résilience de ces réseaux, on la connait donc depuis très longtemps.
Le grand intérêt des systèmes ultra-centralisés qu’on a commencé à construire au Moyen-Âge était de gagner en communication, en vitesse, de permettre à la civilisation de progresser beaucoup plus vite. Mais quand on arrive à l’extrême de ces modèles-là, on débouche sur le monde de la fin du XXe siècle. Soit des sociétés folles, qui sont devenues très fragiles – presque rien suffit à les faire vaciller. Des systèmes dangereux – à l’image des centrales nucléaires. Le problème est là.
Il en va de même en ce qui concerne les serveurs. Si vous avez chez vous un petit bout de serveur qui correspond parfaitement à la puissance dont vous avez besoin (soit moins de puissance qu’un iPhone pour la majorité des gens, c’est-à-dire une quantité d’énergie très limitée) : parfait. Pas besoin d’alimenter des bandes passantes énormes vers des serveurs qui sont à l’autre bout de la planète, stockés par centaines de milliers dans un data-center de 30 000 mètres carrés qu’il faut refroidir en permanence – pour peu que ce soit dans les déserts de Californie, il faut les climatiser.... L’efficacité énergétique est bien meilleure quand le réseau est décentralisé, il est même possible de l’alimenter avec un petit peu de photovoltaïque. Essayez un petit peu d’alimenter un data-center avec du photovoltaïque, on va doucement rigoler...
Pour résumer : tel qu’il existe aujourd’hui, le coût énergétique du réseau est négligeable par rapport aux gains qu’il permet ; mais il est très important par rapport à ce qu’il pourrait être. Par contre, le coût énergétique des machines de Google – qui ne participe pas du réseau, mais des services – est tout simplement énorme. Vous saviez que Google, qui doit faire tourner peu ou prou dix millions de machines, était le deuxième ou troisième plus gros fabricant d’ordinateur au monde ? Juste pour ses propres besoins... C’est du délire.
D’autant qu’il s’agit d’un service dangereux et intrusif...
Bien sûr. Les atteintes à la vie privée opérées par Google sont inacceptables. Le côté monopolistique de la chose est épouvantablement dangereux. Pour le moment, Google se comporte relativement bien en terme de respect des libertés, mais il n’y a aucune raison que ça dure – donc ça ne durera pas. Google, c’est à deux doigts d’être Big Brother : il sait tout sur tout le monde, tout le temps.
C’est une vraie question : on a là un machin qui indexe la totalité de la connaissance en ligne, plus que n’importe quelle bibliothèque dans le monde. Qui indexe la totalité des échanges en public, comme s’il indexait toutes les conversations de tous les bistrots du monde. Qui indexe – pour peu que vous utilisez Gmail - votre messagerie personnelle, qu’il met en relation ou non, comme bon lui chante, avec la messagerie personnelle des gens qui vous ont écrit ou à qui vous avez écrit. Qui est capable de vous présenter des publicités ciblées, puisqu’il connaît toutes les recherches que vous avez effectuées et quels sont les liens que vous avez sélectionnés dans les résultats de cette recherche. C’est affolant...
Il y a une différence entre la vie du village, où tout le monde surveille tout le monde, et la société de Google, où Google surveille tout le monde. Une différence évidente. Dans la société du village, je suis tout le monde, je surveille mes voisins presque sans le faire exprès. Ok. Mais si un point – en l’espèce Google – surveille tout, et l’homme qui le contrôle bénéficie d’un pouvoir sidérant. C’est un vrai problème, beaucoup plus sérieux que tout le reste.
Il ne s’agit pas que de Google. Tout cela, ce que j’évoque ici, renvoie à un phénomène que je détaillais largement dans ma conférence sur le Minitel 2.0 : la verticalisation du Net. Celui qui tient le point d’émission décide de ce qu’on a la droit d’émettre. Un exemple super simple, dont je suis supris qu’il n’ait pas fait davantage hurler : l’iPhone ou l’iPad, sur lesquels il est impossible de visionner du contenu pornographique. Les petites moeurs de Steve Jobs définissent ce qu’on a le droit de faire ou non sur un de ses appareils3... C’est un objet que j’ai acheté, sur lequel je peux lire des contenus, regarder des images, visionner des vidéos, et je n’ai pas la liberté de choisir les vidéos en question ? C’est surnaturel ! Et tout ça parce que le patron de la boîte qui me l’a vendu trouve que « touche-zizi » c’est mal...
Nous sommes en plein dans le délire de la centralisation. Steve Jobs n’a pas encore imposé ses idées politiques, mais ça viendra. Et les gens ne réagissent pas, achètent quand même Apple ou choisissent Gmail pour messagerie. Le pire, c’est que ce sont parfois les mêmes qui prétendent défendre les libertés...
Comment renverser la vapeur ?
Il faut d’abord expliquer, faire des efforts de pédagogie ; les gens doivent par exemple comprendre combien Google est dangereux et apprendre à s’en passer. Il faut aussi se débrouiller pour que les outils deviennent plus simples d’usage.
Quand j’ai débuté sur le réseau, les gens considéraient compliqué d’envoyer un mail ; ce n’est plus le cas. Il faut espérer que cette évolution se poursuive. Par exemple : si dans un avenir proche, chacun pouvait s’héberger à domicile - c’est-à-dire posséder un petit serveur personnel -, une bonne partie du problème serait résolu. Il n’y a là rien de difficile : n’importe quel accès Internet fixe permet en France d’héberger un serveur, il manque juste des outils simples d’utilisation. Si les gens comprenaient en sus pourquoi il est essentiel de s’auto-héberger, l’autre partie du problème serait réglé.
Nous n’y sommes évidemment pas. Mais cela progresse. Les geeks ont désormais compris qu’il fallait permettre la compréhension du plus grand nombre. Et ils ont aussi compris qu’il y avait effectivement un danger. Que Youtube est utile, mais dangereux. Que Facebook est ultra-dangereux. Que toutes ces plate-formes centralisées sont à éviter. Encore une fois, un bon moyen de les éviter tient à l’existence d’une masse critique acentrée.
C’est finalement étrange que ce combat pour un modèle acentré ne soit pas davantage porté par les sphères radicales...
C’est un problème : dans l’effort de sensibilisation actuellement mené, nous constatons qu’il existe certains publics que nous n’arrivons pas à atteindre. Pour moi, la question du réseau acentré devrait intéresser les gens de la sphère altermondialiste, écolo, libertaire, etc.
Toute la frange écolo ou altermondialiste devrait pourtant comprendre que le sujet est absolument central, que leurs débats perdent tout sens sans le réseau. Internet est l’un des outils majeurs de la gestion de la fin du pétrole, parce qu’il réduit très largement les déplacements. Si tu veux revenir dans une société où tu consommes local, ça signifie que tu ne passes pas ton temps à faire 200 bornes en voiture. Mais comment faire pour que ça ne corresponde pas à un déclin de l’humanité, c’est-à-dire à une baisse des connaissances scientifiques ou des savoirs techniques ? Comment feras-tu pour suivre des études universitaires en physique quantique si tu ne peux pas sortir de ton village de province ? Comment feras-tu pour que ta petite université de province ait accès à la totalité des savoirs scientifiques ? Sans le réseau, c’est impossible.
En centralisant, on avait appris à faire des choses qui n’étaient pas possibles avant : les grandes bibliothèques universitaires permettaient de stocker beaucoup plus de savoirs. Aujourd’hui, c’est l’inverse : impossible de réunir tous les savoirs tant les choses vont vite et tant les publications, en France comme à l’étranger, se sont multipliées. Et il n’y a plus que le réseau pour permettre un libre accès à toutes les publications scientifiques du monde, qu’elles traitent de physique, de mathématiques ou de chimie, qu’elles soient rédigées en hindou ou en italien. Il faut comprendre que le réseau sert à ça, à décentraliser, à t’offrir tout le savoir de l’humanité sans que tu n’aies besoin de te déplacer... Il est désormais possible de relocaliser le monde parce que ce qui avait été obtenu par centralisation – à savoir la réunion d’une grande masse de connaissances à un endroit, d’une grande masse de production à un autre – peut désormais être obtenu de manière acentrée avec le réseau.
1 Ainsi des très récentes propositions de quelques grands patrons des télécoms, réunis à Bruxelles, de mettre en place un Internet à plusieurs vitesses. Le site Numérama écrit : « Prenant l’objectif européen comme une aubaine pour prétendre que le déploiement du très haut-débit à court terme ne peut se faire sur les mêmes bases que précédemment, le groupe conclut que l’Europe « doit encourager la différenciation en matière de gestion du trafic pour promouvoir l’innovation et les nouveaux services, et répondre à la demande de niveaux de qualité différents ». Il s’agit donc de faire payer plus cher ceux qui souhaitent accéder sans bridage à certains services qui demandent davantage de bande passante. »
2 Hébergeur alternatif lancé en 2000, marqué de l’idée d’un Internet citoyen.
3 Steve Jobs a notamment déclaré : « Nous pensons sincèrement que nous avons une responsabilité morale d’écarter la pornographie de l’iPhone. Les gens qui veulent du porno peuvent acheter un téléphone Android. »