ÉCONOMIE DE L'IMMATÉRIEL : Jean-Pierre Archambault Avec le développement des technologies de l'information et de la communication, la part de l'immatériel et de la connaissance grandit dans les richesses créées. Lorsqu'un document va de Paris à Rome par Internet, il est recopié, partiellement sous forme de paquets, une dizaine, une centaine de fois dans les routeurs qu'il traverse : copie « volatile » techniquement incontournable. Mais il est aussi recopié « provisoirement » dans les caches des serveurs Proxy, pour économiser la bande passante et accélérer son accès. Pour certains cette copie ne serait pas nécessaire. Serait-ce parce qu'elle ne permet pas de comptabiliser les hits sur le serveur d'origine, et donc de faire payer les consultations ? Et de proposer qu'elle relève du droit de représentation des oeuvres [1] et donne lieu à paiement de royalties. D'une manière générale, assimiler la diffusion d'une oeuvre sur Internet à sa représentation, nécessitant l'accord de l'artiste, est-il réaliste, c'est-à-dire facile à mettre en oeuvre quand il y a des dizaines de milliers de copies instantanées ? Pertinent, alors que renforcer les droits de reproduction revient à imposer la rareté à un système technique conçu pour maximiser la diffusion de l'information ? [2] Quelque part, le copyright est un non-sens technique sur le Web. Il n'est pas inutile de rappeler que la propriété intellectuelle, sous ses différentes formes (droit d'auteur, copyright, brevet, droit des marques) vise à favoriser la création des richesses, au nom de l'intérêt général, et pour cela à concilier incitation à l'innovation et diffusion technologique, à dépasser le dilemme entre performance individuelle et efficacité collective, à inciter les entreprises individuelles à l'innovation en leur garantissant une situation de monopole temporaire dans l'exploitation des droits. Et, plus encore que par le passé, l'incitation à l'innovation n'a de sens que si la technologie se diffuse, irrigue l'ensemble de la structure, et ainsi participe à l'amélioration de l'efficience collective. Les limitations à la libre circulation de l'information et de la connaissance ne se justifient en dernière instance que par l'objectif d'encourager et de valoriser le travail intellectuel quand il est au service de tous. Même si, parfois, les motifs semblent tout autres. Ainsi l'allongement de la durée du copyright, qui se multiplie aux États-Unis, se produit souvent, le hasard faisant bien les choses, lorsqu'une oeuvre « risque » de tomber dans le domaine public. Lors des quarante dernières années, le Congrès américain a étendu la durée du copyright onze fois, chaque fois, dit-on, que Mickey Mouse allait tomber dans le domaine public. UN CONTRÔLE DES CONTENUS Dans une société démocratique, le respect du droit s'impose à tous. Certes. Mais des droits peuvent être considérés légitimes sans être pour autant applicables, les transformations technologiques rendant des pans entiers du droit inexécutables. Il est des seuils d'acceptabilité. Avec les outils de production numérique et Internet, on passe de plusieurs dizaines de milliers d'auteurs à des centaines de milliers, des millions même. Une oeuvre multimédia est composite par nature. Elle entraîne la multiplication des transactions entre les détenteurs de droits et les utilisateurs de contenus (éditeurs, consommateurs). Les coûts de gestion de la propriété intellectuelle ont tendance à enfler démesurément. Dans cette logique, l'absurde est atteint s'il devient plus rentable de fournir gratuitement que de vendre, si le coût de défense d'une ressource dépasse le bénéfice que l'on peut en attendre. La technique peut venir au secours d'un droit non respecté, sous forme par exemple d'un dispositif qui empêche de copier une oeuvre sur le disque dur d'un particulier. Mais ce dispositif peut être lui-même déverrouillé. Qu'à cela ne tienne, le droit viendra au secours de la technique. C'est ainsi qu'une directive européenne de mai 2001 oblige les États à empêcher le contournement des dispositifs de protection. À quand un verrou pour... Le risque est bien réel d'entrer dans une spirale sans fin. Tout cela donne un peu l'impression que l'énergie naguère dépensée pour développer la production des biens est consacrée à trouver les moyens d'empêcher leur multiplication. On ne peut alors que constater un véritable détournement de la part des grands acteurs du marché dont la volonté conservatrice est de préserver leurs revenus et leurs rentes de monopole, en cherchant à rétablir artificiellement les profits de l'économie de pénurie en créant des barrières légales pour maintenir la rareté. À l'ère électronique, les idées vont d'un esprit à l'autre sans matérialisation traditionnelle. La définition physique de l'expression des idées devient plus difficile quand elles prennent la forme d'impulsions électriques. La tentation est alors grande de passer de la propriété de l'expression à la propriété des idées elles-mêmes. Les efforts déployés pour renforcer la propriété intellectuelle l'éloignent de son objectif fondamental. Si les choses changent, le droit doit changer lui aussi. Ainsi, qu'en est-il du brevet, qui historiquement correspond à la fabrication de biens matériels dans la société industrielle, quand la production incorpore de plus en plus de connaissances et de biens immatériels ? En effet, la réalisation et la diffusion d'un produit matériel s'insèrent dans un circuit commercial organisé. Or, cela n'est pas nécessairement le cas pour les biens informationnels dont les coûts marginaux sont quasi nuls. Dire que le droit doit évoluer est un truisme, toute la question est de savoir dans quel sens on pense qu'il doit le faire. Est-il socialement justifié de maintenir coûte que coûte un système de pénurie artificielle en remettant en cause la copie privée et en surveillant les disques durs des personnes ? Est-ce favoriser l'innovation et l'efficacité des processus de création de richesses que de mettre en place des procédures compliquées qui parasitent la production de connaissances, ou de pousser à des recherches en contrefaçons jamais terminées en autorisant de breveter les logiciels ? Derrière la brevetabilité des logiciels se cache l'enjeu de la prise de contrôle des contenus par le contrôle des infrastructures de la société, les réseaux par exemple, et des outils de production des contenus. Dans la société de l'information, la quasi totalité des activités humaines est amenée à mettre en jeu des systèmes informatiques. Ceux qui contrôleront ces systèmes contrôleront les activités qui en dépendent. Au travers des brevets logiciels sont visées toutes les interactions sociales, en particulier toutes celles liées à la connaissance, son usage et sa transmission pour lesquelles les technologies de l'information et de la communication sont essentielles. Avec la maîtrise des méthodes intellectuelles par l'appropriation des techniques logicielles qui les mettront en oeuvre, tous les outils pédagogiques modernes risquent de passer sous la coupe d'intérêts privés. Cela concerne l'évolution des méthodes pédagogiques utilisées dans les systèmes d'enseignement traditionnel aussi bien que le secteur croissant de la formation continue et de l'enseignement en ligne. Par le biais d'une monopolisation privée des infrastructures, l'enseignement public peut être mis en danger. La brevetabilité des logiciels est aussi le moyen de contrôler les standards des formats de représentation de l'information et des protocoles de communication, et donc la diffusion et l'échange des connaissances et de la culture. Elle constitue une législation invisible et sans fondement démocratique, réalisée par le choix privé des architectures techniques qui structurent au moins partiellement la société. Quels que soient les standards qui s'imposent, les détenteurs des brevets correspondants auraient un large pouvoir sur la diffusion et les échanges, les acteurs et la nature des informations échangées. Ce serait une prime aux grands acteurs des médias, et donc à terme la fin de la diversité culturelle. La liberté des individus ne saurait entrer dans le cadre d'une législation commerciale, sauf à s'y perdre. Ce danger bien réel a été perçu par l'ensemble de la classe politique française. La preuve en est le surprenant consensus entre les candidats de la dernière élection présidentielle contre la possibilité de déposer des brevets sur les logiciels [3], contrairement à ce que préconiserait une directive européenne en préparation. Entre contrôle des infrastructures et construction des conditions d'une innovation dynamique, Internet représente un arbitrage original aux niveaux de l'architecture du réseau, des codes utilisés et des contenus. Les solutions qui se sont progressivement imposées sont justement celles qui permettaient l'émergence d'un « commons » [4] à partir duquel de nombreuses innovations ont pu naître et se développer. L'abondance règne dans l'univers des biens informationnels ainsi que l'incertitude et la complexité : il vaut mieux ne pas trop verrouiller ce que l'on ne connaît pas et affronter l'imprévisible par une multiplication des choix et des possibles qui facilite l'adaptation. Tout autres sont les contextes de rareté où l'efficacité requiert une prévision minutieuse. Dans un modèle en couches - de bas en haut, couche physique (infrastructures et équipements) puis codes (de base, généraux et applicatifs) et enfin contenus -, l'innovation à un certain niveau est favorisée par le fait que les couches inférieures n'ont pas été dessinées pour des applications spécifiques. Cette indifférenciation est parfois coûteuse en ressources ex post : c'est le prix à payer pour que puissent naître des applications non prévues. Un « bon commons », qui permet l'innovation, se caractérise par les éléments suivants : modularité, tarification marginale (souvent gratuité) ; simplicité des architectures (réseaux « stupides » [5]) ; ouverture des codes ; non protection [6] ; gestion commune. UN MOUVEMENT D'ENCLOSURE Aujourd'hui, de nombreux acteurs en place, menacés par l'innovation, cherchent à imposer la destruction de ces espaces communs dans un mouvement « d'enclosure ». Ce mouvement est plus contestable encore que les premières « enclosures », en Angleterre au XVIIIe siècle, dans la mesure où les ressources communes menacées sont formées de biens non rivaux ou d'infrastructures dont les coûts marginaux sont extrêmement réduits. Imposer des infrastructures et un environnement communs d'intérêt général requiert de ne pas être guidé par des considérations de rentabilité maximale et immédiate. De ce point de vue, la régulation assurée par l'État, l'action du service public et la vision à long terme qui lui est attachée sont finalement des notions assez modernes, tout comme le concept d'infrastructure publique pour les réseaux et les systèmes d'exploitation des ordinateurs. Les processus de production incorporent de plus en plus de « matière grise ». L'innovation joue un rôle de plus en plus crucial. Cela a-t-il des conséquences sur une reconfiguration des espaces public, associatif et privé ? Quelques centaines de programmeurs disséminés de par le monde, à l'initiative d'un étudiant finlandais Linus Torvald, ont réalisé un système d'exploitation de qualité supérieure à celui du plus grand éditeur mondial de logiciels : une façon de travailler efficace. EDF a mis en libre son logiciel Code_Aster, qui permet de suivre le vieillissement de structures comme les barrages, non pas en vue de bénéfices commerciaux (il a au contraire sponsorisé la création de sociétés de services) mais pour améliorer la qualité du produit en s'appuyant sur les contributions d'une communauté plus large. Le modèle du logiciel libre s'instaure au sein de grandes entreprises, pour que les équipes travaillent ensemble et pour que l'information circule mieux. En informatique, la vraie valeur réside dans le savoir-faire des concepteurs, et non plus dans leurs lignes de code. L'étude des coûts de développement des logiciels montre que la plus grande partie correspond à la maintenance au sens large, incluant les mises à jour des codes, la correction des bogues et à la rédaction de documentations pédagogiques satisfaisantes. Dans l'Éducation nationale, concernant les intranets des établissements scolaires et des écoles, les choix académiques sont en train de s'opérer d'une manière significative en faveur de solutions libres issues du « sérail ». Des formes nouvelles de partenariats se mettent en place pour la production des ressources éducatives numériques, dans une espèce de « Napster éducatif » d'auteurs, regroupant notamment enseignants, associations, services public et collectivités territoriales. UN PARTAGE DU SAVOIR Toute activité économique n'est pas de nature informatique. Mais, dans la mesure où la place de l'immatériel croît dans les processus de création de richesse, le secteur de l'informatique et l'approche des logiciels libres constituent un bon « laboratoire » pour déceler les grandes tendances à l'oeuvre. Olivier Blondeau [7] voit dans les logiciels libres une contestation du capitalisme, non pas du point de vue de la justice sociale, mais de ceux de l'efficacité économique et de l'entrave aux progrès technologique, culturel et sociétal. Se référant à la Préface à la Contribution à la critique de l'économie politique, dans laquelle Karl Marx a écrit « À une certaine étape de leur développement les forces productives matérielles entrent en conflit avec les rapports de production existants... De forme de développement des forces productives qu'ils étaient jusqu'alors, ces rapports de propriété se transforment en obstacles », se demande si l'approche du logiciel libre n'est pas une des illustrations caractéristiques de ce moment-là. Il s'interroge également sur une frontière qui devient floue entre la force de travail abstraite et les moyens de production (réseaux, supports informatiques et/ou signes, symboles...). Pour une entreprise, licencier un développeur informatique revient à perdre le rapport entre producteur et produit et à engendrer des problèmes pour la maintenance et l'évolution des logiciels : d'interchangeable, le salarié devient co-détenteur. On observe également avec le logiciel libre que partager et diffuser les savoirs favorisent leur appropriation, condition nécessaire pour comprendre les outils et les produits et ainsi être en mesure de les modifier, les adapter, les enrichir. On y constate que travailler ensemble, coopérer est plus efficace que d'élever des barrières, poser des verrous, cultiver le secret. Dans l'avenir, le modèle du libre va-t-il se propager de manière significative dans des pans entiers de l'économie ? Ou bien des stratégies d'appropriation renforcée des outils et des biens informationnels créés vont-elles s'imposer ? Ou alors, pour l'essentiel, les choses vont-elles rester en l'état ? La force du logiciel libre est de fonctionner selon le modèle de la recherche scientifique, fondé depuis des siècles sur la libre diffusion des idées, la validation par les pairs, l'approfondissement par les membres d'une communauté disciplinaire. Ce modèle pluriséculaire a largement fait ses preuves. Or, en France, d'une manière générale, les chercheurs exercent dans le secteur public, mettent librement à disposition de tous les résultats de leurs travaux, et assurent dans le même temps des activités d'enseignement. Doit-on en conclure qu'il y a tendanciellement une surface plus grande à venir pour le secteur public et le tissu associatif ? Mais, d'un autre côté, des grandes sociétés privées, comme IBM ou Sun, intègrent pleinement le logiciel libre dans leur stratégie d'entreprise. En définitive, si les potentialités de développement sont réelles pour les espaces public et associatif, la question demeure de savoir de quel côté penchera la balance. Jean-Pierre Archambault Paru dans MÉDIALOG n°45 de Janvier 2003. NOTES [1] Le droit de reproduction d'une oeuvre n'est pas un droit naturel : il n'y avait pas de droit moral du conteur oral. [2] « L'économie du don high tech », Richard Barbrook, dans Libres enfants du savoir numérique, Anthologie du libre, éditions l'Éclat 2000. [3] Voir leurs déclarations dans Libération du 12 mars 2002. [4] Réseaux stupides, codes ouverts et information libre : le « commons » nécessaire à l'innovation ?, Michel Gensollen, colloque les contenus libres, Évry les 29, 30 et 31 mai 2002, www.autourdulibre.org. [5] On entend par « réseaux stupides » des réseaux pour lesquels l'intelligence est située le plus possible dans les terminaux, avec des protocoles indépendants des usages finals. Les opérateurs de télécommunications leur reprochent de ne pas être optimisés et de ne pas garantir la qualité fournie. [6] Les règles sur le copyright négligent le fait que l'information numérisée constitue son propre « commons », qu'elle est un bien non rival qui se reproduit en circulant. [7] « Genèse et subversion du capitalisme informationnel » dans Libres enfants du savoir numérique, Anthologie du libre, éditions l'Éclats 2000. ___________________ |