Quel remède pour SoundCloud, malade de ses remix ?

Cette semaine, l’ami Olivier Ertzscheid a écrit sur son blog Affordance un intéressant billet consacré à ce qui fut l’un feuilletons qui nous aura tenu en haleine cet été : les craintes concernant la disparition de la plateforme de streaming musical SoundCloud.

Il y décrit notamment la dépendance dans laquelle nous sommes tombés vis-à-vis des grands sites centralisés pour la transmission et la conservation de notre patrimoine culturel :

Les sites web ne meurent jamais. Mais ce n’est pas une raison suffisante pour penser que la culture qu’ils fondent peut se prolonger au-delà d’eux.

Le grand chantier du prochain siècle doit nous amener à nous interroger et à peser sur le rôle des opérateurs publics dans la fabrique, la conservation et la transmission d’un patrimoine culturel nativement numérique, lequel, s’il n’appartient qu’à quelques oligopoles privés si bienveillants fussent-ils, nous ramènerait inexorablement aux temps où la terre était … plate(forme).

Si je partage – comme souvent – cette vision avec Olivier, je suis peut-être moins d’accord avec les causes qu’il identifie pour expliquer les difficultés récurrentes que rencontre SoundCloud, au point de menacer aujourd’hui sa survie. C’est en effet à mon sens moins du côté d’une incapacité de SoundCloud à « capter des usages » qu’il faut aller voir que de l’arrière plan juridique auquel est soumise une telle plateforme.

Lire la suite

Le Comité invisible et les Communs : pourrons-nous encore être « amis » ?

J’ai profité de l’été pour publier une série de billets dont j’avais repoussé la rédaction trop longtemps. Parmi eux, celui que je poste aujourd’hui me tenait particulièrement à coeur, car cela fait plusieurs mois que je voulais écrire un commentaire du livre Maintenant, publié par le Comité invisible en avril dernier aux éditions La Fabrique.

Ce n’est pas une entreprise facile, car comme les précédents ouvrages du Comité invisible (L’insurrection qui vient et A nos amis), ce livre est incroyablement dense et il demande plusieurs lectures approfondies pour en déplier tous les aspects. Certains passages sont vraiment lumineux, comme ceux qui analysent l’épisode de Nuit Debout avec une critique particulièrement juste de « l’assembléisme » et du « mimétisme parlementariste » dans lequel le mouvement s’est englué. La question du travail fait également l’objet de développements remarquables, avec des ouvertures sur « l’économie collaborative » dépeinte comme la nouvelle frontière du capitalisme par « l’extension de la mesure » à laquelle elle nous soumet ou la manière dont l’exploitation des données personnelles par les GAFAM nous transforme en « capital humain ». Sur des questions complexes comme celle du revenu de base, le livre donne aussi beaucoup à réfléchir. Une phrase comme celle-ci : « Il n’y a qu’à une population parfaitement sous contrôle que l’on peut songer d’offrir un revenu universel » vaut sans doute à elle seule davantage que bien des articles critiques que j’ai pu lire sur la question… L’ouvrage revient aussi longuement sur le conflit social de 2016 autour de la loi Travail, en essayant de montrer en quoi il a constitué une rupture, tant du côté du pouvoir et de la police (contexte de l’état d’urgence, remise en cause du droit à manifester, application de la tactique des « nasses ») que des manifestants eux-mêmes (avec notamment l’apparition d’un « cortège de tête », particulièrement valorisé par le Comité invisible, qui a réussi à fédérer plus largement que les traditionnels « autonomes » en subvertissant le sens même des manifestations).

Sur tous ces points – et bien d’autres – le livre est indéniablement précieux. Mais c’est pourtant une profonde sensation de malaise qui m’a étreint lorsque je l’ai refermé. Car si en apparence l’ouvrage – comme A nos amis le faisait déjà – met constamment en avant le concept « d’amitié » (en affichant l’objectif de « frayer des chemins » ou « d’organiser des rencontres » entre des « mondes amis fragmentés »), il constitue avant tout une expression particulièrement acerbe d’inimitiés, frappant à peu près toutes les composantes du mouvement social. Communistes, syndicalistes, négristes, écologistes, féministes, municipalistes, acteurs de l’Économie Sociale et Solidaire, militants de la Transition : tout le monde y passe successivement, dans un esprit d’excommunication – j’emploie le mot à dessein – traquant la moindre compromission avec le système économique et politique comme motif de disqualification définitive. Ironiquement, les auteurs critiquent la tendance (hélas bien réelle…) des cercles militants à s’entre-déchirer (« Chaque groupuscule s’imagine gratter quelques parts du marché de la radicalité à ses rivaux les plus proches en les calomniant autant qu’il est possible.»), mais le moins que l’on puisse dire, c’est que le Comité Invisible tombe aussi complètement dans ce travers avec ce livre. Or le mouvement des Communs n’échappe pas à ce petit jeu de massacre et c’est ce qui me pousse à écrire sur Maintenant, parce qu’il me semble que de telles attaques appellent une réponse que je n’ai pour l’instant lue nulle part.

Bien sûr, ce n’est pas tant le principe même de ces critiques qui posent problème, que l’angle sous lequel elles sont assénées et l’intention qui les anime. Il me semble en particulier que les prémisses théoriques et philosophiques sur lesquelles le Comité invisible appuie son raisonnement – notamment son analyse des phénomènes collectifs – sont défaillantes et susceptibles d’emmener les acteurs du mouvement social sur des chemins qui ne mènent nulle part. Étant donné l’influence que leurs ouvrages exercent (j’ai bien eu l’occasion de le constater en participant à Nuit Debout…), je pense important de démonter les principaux arguments du livre en montrant en quoi ils sont en contradiction avec les fondements de la pensée des Communs. Comprendre pourquoi le Comité invisible éprouve à ce point le besoin de s’en prendre – entre autres – aux Communs est chose utile, car c’est aussi une manière de mieux comprendre ce que sont les Communs, en cernant au passage les raisons de leur incompatibilité avec une certaine mouvance anarcho-libertaire. C’est en tout cas à titre personnel le principal bénéfice que j’ai retiré de la lecture du livre (« know your ennemy », comme dit la chanson…). Je terminerai aussi en relevant certaines contradictions affectant la démarche même du Comité invisible, qui me paraissent confiner à l’imposture intellectuelle (si tant est que l’on accorde un peu d’importance à la cohérence entre les paroles et les actes…).

Dans A nos amis déjà…

A vrai dire, la critique des Communs n’a pas commencé chez le Comité invisible avec Maintenant. On trouve en effet déjà dans A nos amis un chapitre intitulé « Omnia sunt communia » traitant du sujet sur une vingtaine de pages. Il y est question notamment des mouvements d’occupation des places publiques en Egypte, en Espagne et en Turquie, qui se sont tous en effet revendiqués, à divers degrés, à la fois des Communs et de la Commune.

Dans A nos amis, Le Comité invisible exprime son attachement à cette dernière et sa méfiance envers les premiers :

Des économistes se sont attachés à développer ces dernières années une nouvelle théorie des «communs». Les «communs», ce serait l’ensemble de ces choses que le marché a le plus grand mal à évaluer, mais sans quoi il ne fonctionnerait pas : l’environnement, la santé mentale et physique, les océans, l’éducation, la culture, les Grands Lacs, etc., mais aussi les grandes infrastructures (les autoroutes, Internet, les réseaux téléphoniques ou d’assainissement, etc.). Selon
ces économistes à la fois inquiets de l’état de la planète et soucieux d’un meilleur fonctionnement du marché, il faudrait inventer pour ces «communs» une nouvelle forme de «gouvernance» qui ne reposerait pas exclusivement sur lui.
Governing the Commons est le titre du récent best-seller d’Elinor Ostrom, prix Nobel d’Économie en 2009, qui a défini huit principes pour «gérer les communs». Comprenant qu’il y avait une place à prendre dans une « administration des communs encore toute à inventer, Negri et consorts ont fait leur cette théorie au fond parfaitement libérale. Ils ont même étendu la notion de commun à la totalité de ce que produit le capitalisme, arguant de ce que cela émanait en dernier ressort de la coopération productive entre les humains, qui n’auraient plus qu’à se l’approprier au travers d’une insolite «démocratie du commun».
Les éternels militants, toujours à court d’idées, se sont empressés de leur emboîter le pas. Ils se retrouvent maintenant à revendiquer «la santé, le logement, la migration, le travail de care, l’éducation, les conditions de travail dans l’industrie textile» comme autant de «communs» qu’il faudrait s’approprier.

En lisant ce passage, on constate que ce qui pose problème au Comité invisible, c’est d’abord le fait que la théorie des Communs soit ancrée dans le champ de l’économie (Elinor Ostrom a bien reçu le prix Nobel d’économie, même si en réalité ses travaux sont à la croisée de plusieurs disciplines : la science politique, le droit, l’histoire, etc.). Et oui, l’ouvrage majeur d’Elinor Ostrom s’intitule « Governing The Commons », que l’on a traduit en français par « La gouvernance des Communs », mais qui aurait tout aussi bien pu s’appeler « Le gouvernement des Communs ». Car ce qu’Ostrom analyse, ce sont les phénomènes de pouvoir – appelons un chat un chat – à l’oeuvre au sein des groupes assurant la gestion de ressources mises en commun, c’est-à-dire la manière dont ils arrivent à instaurer des règles et à les faire appliquer par des processus de décision collective. Ostrom explique – c’est le sens des fameux huit principes de conception des Communs (design principles) brocardés par le Comité invisible – qu’à défaut d’être capables d’instaurer efficacement cette gouvernance, les groupes ne parviennent en général pas à assurer la préservation des ressources dans le temps, qui finissent surexploitées, saccagées ou accaparées.

Elle insiste par contre sur un point, passé sous silence par le Comité invisible alors qu’il est essentiel : celui de l’importance, en tant que facteur de réussite, de l’auto-organisation et de l’auto-détermination des groupes qui gèrent des Communs, (les mots « self-organization » et « self-governance » reviennent ainsi constamment dans l’ouvrage). Elle constate en effet dans ses observations que, dans les hypothèses où des autorités extérieures ne laissent pas suffisamment d’autonomie aux communautés pour établir des règles adaptées à chaque situation particulière, la gestion en commun échoue quasi systématiquement. Et symétriquement, au sein même des communautés, elle remarque que les modèles hiérarchiques sont moins efficaces et que le succès des groupes est conditionné au fait que l’ensemble des membres puissent prendre part aux délibérations concernant les règles à établir et leur mise en oeuvre. Il y aurait d’ailleurs ici un point de rencontre possible avec la tradition anarcho-libertaire dans laquelle s’inscrit le Comité invisible, notamment via la question de l’auto-gestion. Mais leur positionnement est en réalité si extrême que le simple emploi de termes comme « économie », « gouvernance », « gestion » ou « administration » suffit à leurs yeux à disqualifier la démarche.

Aux Communs, ils préfèrent opposer la Commune, en tant que lieu de vie et de liens, en tant qu’espace à habiter et manifestation de la propension des groupes à s’organiser :

Les communes contemporaines ne revendiquent pas l’accès ni la prise en charge d’un quelconque «commun», elles mettent en place immédiatement une forme de vie commune, c’est-à-dire qu’elles élaborent un rapport commun à ce qu’elles ne peuvent s’approprier, à commencer par le monde.

Le problème, c’est que cette soi-disant distinction entre les Communs et la Commune reste baignée dans le plus grand flou. Beaucoup des acteurs qui ont participé aux mouvements d’occupation des places se sont revendiqués explicitement du mouvement des Communs, tout autant qu’ils se référaient à l’exemple historique de la Commune, sans y voir de contradictions. Par ailleurs, au titre de ma propre expérience au sein de Nuit Debout, j’ai pu constater que la gestion des aspects matériels liés à l’occupation de la place de la République s’était opérée sous la forme d’une articulation de plusieurs Communs, très « ostromiens », pris en charge par les commissions logistiques du Mouvement (voir notamment ici). C’est aussi ce qu’exprime Pascal Nicolas-Le Strat dans son ouvrage « Le travail du Commun », où l’on voit bien qu’opposer Communs et Commune à propos des mouvements d’occupation ne fait guère de sens :

[…] tous les récits d’occupation racontent immanquablement la capacité des gens à inventer une gestion démocratique de la vie quotidienne et leur capacité à construire en commun les « communs » indispensables au développement d’une communauté de vie (pour les repas, pour l’hygiène, pour la communication, pour le débat, pour la co-formation…). De ce point de vue, les occupations sont un parfait synonyme du « commun oppositionnel ». Elles s’accompagnent d’une réappropriation des conditions de vie et rehaussent l’expérience de l’autonomie. Nul besoin d’école pour apprendre, nul besoin de médias pour communiquer, nul besoin de restaurant pour se nourrir, nul besoin d’institution culturelle pour créer.

Au final, on comprend assez mal dans A nos amis les raisons profondes de cette hostilité du Comité invisible vis-à-vis des Communs, mais Maintenant a le mérite de clarifier par où passent ces lignes de fracture.

Destituer le monde ?

Le principal point d’achoppement tient à la perception du rôle des institutions, que le Comité Invisible condamne radicalement, notamment dans un chapitre intitulé « Destituons le monde ». Les auteurs y critiquent la tendance des mouvements militants à vouloir créer des institutions alternatives à celles qui existent déjà, en appelant au contraire à faire de la destitution l’horizon de toutes les luttes. Rien ne déplaît plus, par exemple, au Comité invisible que les mouvements municipalistes, issus du mouvement des Indignés en Espagne qui ont pris par les urnes les municipalités de Madrid et de Barcelone, sur la base de programmes faisant d’ailleurs une place aux Communs (voir ici).

Le Comité invisible n’a pas de mots assez forts pour condamner toute forme de compromission avec la logique institutionnelle et ce passage en particulier, me paraît intéressant à relever :

La grande malice de l’idée d’institution est de prétendre qu’elle nous affranchirait du règne des passions, des aléas incontrôlables de l’existence, qu’elle serait un au-delà des passions quand elle n’est que l’une d’elles, et certainement l’une des plus morbides. L’institution se veut un remède aux hommes, à qui on ne peut décidément pas faire confiance, peuple ou dirigeant, voisin, frère ou inconnu. Ce qui la gouverne, c’est toujours la même fadaise de l’humanité pécheresse, sujette au désir, à l’égoïsme, à la concupiscence, qui doit se garder d’aimer quoi que ce soit en ce monde et de céder à ses penchants tous uniformément vicieux. Ce n’est pas de sa faute si un économiste comme Frédéric Lordon ne peut se figurer une révolution qui ne soit une nouvelle institution. Car c’est toute la science économique, en pas seulement son courant « institutionnaliste », qui se ramène en dernier ressort à du Saint Augustin. Au travers de son nom et de son langage, ce que promet l’institution, c’est qu’une chose en ce bas-monde aura transcendé le temps, se sera soustrait au cours imprévisible du devenir, aura établi un peu d’éternité palpable, un sens univoque, affranchi des liens humains et des situations – une stabilisation du réel définitive comme la mort.

On relèvera la petite pique adressée à Frédéric Lordon (sur laquelle nous reviendrons plus loin, car il est extrêmement intéressant de confronter ce qui est dit dans Maintenant au livre Imperium : structures et affects des corps politiques). Mais arrêtons-nous pour l’instant à l’attaque contre l’économie institutionnaliste, car c’est précisément le courant auquel se rattache Elinor Ostrom, notamment à travers sa branche américaine fondée par John Roger Commons au début du 20ème siècle. Cette école se distingue de l’économie néo-classique par l’importance qu’elle attache à l’analyse du rôle des institutions dans les comportements économiques.

Or cette approche marque profondément les travaux d’Elinor Ostrom pour qui les Communs sont avant toute chose des institutions (son livre Governing the Commons est d’ailleurs sous-titré en anglais : « The Evolution of Institutions for Collective Action ») et c’est cela qui rend sa pensée foncièrement incompatible avec celle du Comité invisible. Pour Ostrom, les Communs ne sont ni des ressources, ni même des communautés, mais ce qu’elle appelle des arrangements institutionnels, liés aux règles collectivement mises en place par des groupes pour la gestion des ressources partagées, ainsi que les dispositifs assurant leur effectivité. Cette nature institutionnelle des Communs ressort bien dans cette définition proposée par la chercheuse néerlandaise Tine de Moor :

Un bien commun est un modèle de gouvernance qui facilite la coopération entre des personnes qui bénéficient d’un avantage en travaillant ensemble, par la création d’une économie d’échelle (modeste). Quand il est question de biens communs, il faut tenir compte des trois aspects suivants ; un groupe d’utilisateurs, généralement des « prosommateurs », des gens qui sont donc à la fois producteurs et consommateur. Ils prennent des décisions collectives concernant l’utilisation de ressources. Les ressources sont collectives également, en ce sens que leur utilisation dépend de la décision du groupe ; être membre du groupe vous confère des droits d’utilisation. Bien que l’utilisation collective d’une ressource puisse être intéressante, tant économiquement que socialement, la coopération n’est pas forcément directe. Lorsque des personnes travaillent et utilisent des ressources ensemble, un dilemme social peut survenir qui force les membres individuels du groupe à arbitrer entre leur avantage individuel à court terme et les avantages collectifs à long terme. Les « communiers » élaborent des règles visant à faciliter l’interaction entre le groupe d’utilisateurs et la ressource collective, ainsi que pour surmonter ce type de dilemmes sociaux.

C’est ainsi qu’émerge une nouvelle institution pour l’action collective. Sa conception et son fonctionnement sont sensiblement différents du marché et de l’État pris comme modèles de gouvernance dans la mesure où l’institution en question est basée sur l’auto-gouvernance, c’est-à-dire l’auto-régulation, l’auto-sanction et l’auto-gestion.

Les Communs sont donc « des institutions pour l’action collective » et il est clair qu’on ne peut les accueillir de manière bienveillante lorsqu’on se donne pour objectif de « destituer le monde »… Notons d’ailleurs que, pour faire écho au passage précité de Maintenant, l’institution que constitue le Commun dans l’approche d’Elinor Ostrom a bien pour but de réguler « les passions », « les désirs », « l’égoïsme » ou les « penchants » des individus qui la composent. Ostrom étudie en effet des ressources naturelles rivales (pâturages, sources d’eau, réserves de poissons, forêts, etc.) qui sont sensibles aux prélèvements opérés par les individus y ayant accès. La finalité des arrangements institutionnels est donc de mettre en place des règles qui viennent contenir la tendance des individus à ce que Frédéric Lordon appelle la « pronation », c’est-à-dire le désir de s’approprier et de prendre pour soi. Pour y arriver, les Communs établissent des règles, mais aussi se donnent les moyens d’en vérifier l’observation par les individus, y compris par le biais de systèmes de sanctions pouvant frapper les contrevenants.

Les Communs ont donc bien une nature institutionnelle et certains vont même plus loin dans cette direction, en expliquant que la dynamique du Commun relève toute entière d’une « praxis instituante ». C’est l’apport notamment de Pierre Dardot et Christian Laval dans leur ouvrage « Commun : essai sur la révolution au XXIème siècle », ici résumé par Paul Sereni dans une recension :

S’appuyant sur les concepts formés par Castoriadis d’imagination sociale, d’imaginaire social et d’auto-institution, le texte cherche à montrer que le commun est le résultat d’une institution autonome de choses et de relations par l’activité d’un sujet collectif. Cette activité est naturellement une activité de création ou d’invention radicale, et cette dimension est nommée « praxis instituante» […] Si elle est dite « instituante » (et non pas institutionnelle ou institutionnalisante), c’est précisément parce que cette praxis invente des institutions nouvelles (au lieu d’entrer dans des cadres déjà formés, d’adapter les institutions existantes à un donné nouveau ou de les modifier à la marge).

Pas plus que pour Ostrom, il ne s’agit donc pour Dardot et Laval de se passer des institutions, mais au contraire de faire en sorte que la société se réapproprie le processus de création des institutions, et c’est dans ce projet qu’ils identifient le potentiel révolutionnaire des Communs (voir ici):

La révolution dont parle Castoriadis, c’est la réinstitution de la société par elle-même, c’est donc l’acte démocratique par excellence. La révolution est trahie dès qu’un parti, des experts, des pouvoirs économiques se substituent à la capacité politique de la société, à la praxis instituante de ses membres. La question de la révolution est donc de savoir quelles institutions la société doit et peut se donner pour entretenir cette capacité politique et cette praxis instituante.

Cela ne veut cependant pas dire que le concept de destitution développé dans Maintenant ne soit pas intéressant pour penser les Communs. Dans son ouvrage précité « Le travail du Commun », Pascal Nicolas-Le Strat y a par exemple recours pour montrer que la dynamique des Communs s’inscrit en réalité toujours dans une dialectique entre destitution et institution. Ceux qui veulent se réapproprier des Communs se trouvent en général aux prises avec des institutions, publiques ou privées, qui en ont confisqué la gestion et qu’ils doivent donc commencer par « destituer », parfois en allant jusqu’à se mettre dans l’illégalité. Mais ce mouvement est inséparable de la construction en parallèle d’un Commun sous la forme d’une nouvelle institution. C’est ce que l’auteur appelle la « portée destituante/instituante du Commun » :

Qu’est-ce que ces mouvements opposent aux institutions dominantes ? Fondamentalement, bien sûr, leur rage, leur espoir, leurs revendications. Mais, de façon tout aussi substantielle, ces engagés / enragés dressent face aux institutions établies leur puissance d’autonomie, leur capacité à « faire autrement », sur un mode collectif et transversal, en déjouant toute autorité verticale, et en apportant la preuve, en acte, par une pédagogie du faire, qu’ils peuvent se rapporter égalitairement les uns aux autres, « comme s’ils étaient déjà libres » pour reprendre la belle formule de David Graeber qui donne son titre à son livre. Je nomme « commun oppositionnel » cette conception substantielle du rapport critique qui puise pareillement dans des affects « négatifs » (s’opposer) et dans des affects « positifs » (communaliser), qui les conjugue pour, simultanément, dans le même mouvement critique, destituer les normes d’activité dominantes et en instituer de nouvelles.

On pourrait donner des dizaines d’exemples de cette dialectique destituante/instituante à l’oeuvre dans les Communs, mais il y en a un sur lequel je voudrais insister, parce que je trouve qu’il montre bien l’erreur foncière d’analyse commise par le Comité invisible : c’est celui de la ZAD de Notre-Dame-des-Landes. La ZAD est typiquement ce que Maintenant encense à plusieurs endroits – à juste titre – comme une entreprise réussie de destitution de l’État sur une portion du territoire. Mais j’ai eu l’occasion cette année de faire plusieurs séjours à Notre-Dame-des-Landes et une chose qui est immédiatement palpable lorsqu’on discute avec les occupants, c’est que la ZAD est le lieu d’un intense travail instituant. Les occupants (pourtant souvent très proches idéologiquement du Comité invisible) ont développé un ensemble de structures de coordination, leur permettant de débattre collectivement et d’organiser l’occupation du territoire (voir par exemple ce dossier de la confédération paysanne). Outre les multiples « collectifs » sur lesquels s’appuient la vie sur la ZAD avec chacun leurs propres règles de fonctionnement, les occupants ont par exemple mis en place un comité chargé d’arbitrer les situations de conflits (geste tout à fait « ostromien », correspondant au point n°6 de ses huits principes…). Par ailleurs, la ZAD n’est pas refermée sur elle-même et elle est en réalité organisée selon un principe de « gouvernance polycentrique » sur lequel Ostrom a beaucoup insisté à la fin de sa vie. C’est ce qu’incarnent des associations comme COPAIN, l’ACIPA ou l’ADECA fédérant l’action de plusieurs dizaines de groupes – aux intérêts parfois divergents – mais tous en lutte contre le projet d’aéroport. On notera aussi que maintenant que les perspectives d’une victoire paraissent se dessiner, les occupants imaginent la manière dont ils pourraient rendre pérenne l’occupation et invoquent à ce titre explicitement les Communs comme forme possible d’une exploitation collective des terres. On peut se reporter à ce sujet au texte « De la Zad aux communaux », dans lequel les occupants expriment l’idée qu’ils ont déjà construit des Communs sur la ZAD :

Les communs, cʼest toutes les infrastructures de lʼautonomie dont a su se doter le mouvement au fil des années et qui sʼinventent au jour le jour dans ce bocage. Ces outils sont multiples et ont pour objet de sʼorganiser collectivement pour répondre à nos besoins :
– se nourrir (cultures collectives sur les terres occupées, formes de mise en partage des machines agricoles communes, tentatives de distribution non marchandes des denrées autoproduites sur la zone mais aussi des invendus des supermarchés, etc.).
– sʼinformer et communiquer (radio klaxon, zadnadir, zadnews, photocopilleuses communes, etc.),
– se défendre (formes de mises en partages de matériel médical et dʼapprentissage collectif de gestes de soins, de stratégies de défense face à la police et à la justice, caisse antirépression, diffusion de pratiques et de matériaux pour lʼaffrontement, tractopelle commun, etc.).

Allons même plus loin pour clôre cette partie : si le mouvement de lutte de la ZAD de Notre-Dame-des-Landes a pu durer aussi longtemps dans le temps et se trouve en mesure de l’emporter aujourd’hui, c’est parce qu’il est parvenu à mettre en place des arrangements institutionnels – au sens ostromien – et à se doter d’un ensemble d’infrastructures sous la forme de Communs. Sans cela, l’acte initial de destitution souligné par le Comité invisible aurait sans doute été incapable de produire de tels effets…

Sortir de l’économie ?

Si la question des institutions est une des raisons de l’hostilité du Comité invisible vis-à-vis des Communs, une autre est celle du rapport à l’économie. Là aussi, le point de vue exprimé dans Maintenant est radical, puisqu’il s’agit pour les auteurs ni plus, ni moins de sortir de l’économie :

L’économie n’est pas seulement ce dont nous devons sortir pour cesser d’être des crevards. C’est ce dont il faut sortir pour vivre, tout simplement, pour être présent au monde. Chaque chose, chaque être, chaque lieu est incommensurable en tant qu’il est là. On pourra mesurer une chose tant qu’on voudra, sous toutes ses coutures et dans toutes ses dimensions, son existence sensible échappe éternellement à toute mesure […]

Ce rejet radical de l’économie fait que le Comité invisible condamne avec mépris le mouvement de l’Économie Sociale et Solidaire (en faisant au passage à nouveau le lien avec les Communs) :

Il y a une foule de gens, de nos jours, qui tentent d’échapper au règne de l’économie. Ils deviennent boulangers plutôt que consultants. Ils se mettent au chômage dès qu’ils peuvent. Ils montent des coopératives, des SCOP, des SCIC. Ils s’essaient à « travailler autrement ». Mais l’économie est si bien faite qu’elle a désormais tout un secteur, celui de « l’économie sociale et solidaire », qui turbine grâce à l’énergie de ceux qui la fuient. Un secteur qui a droit à un Ministère particulier et qui pèse 10% du PIB français. On a disposé toutes sortes de filets, de discours, de structures juridiques, pour recueillir les fuyards. Ils s’adonnent le plus sincèrement du monde à ce qu’ils rêvent de faire, mais leur activité est recodée socialement, et ce codage finit par s’imposer à ce qu’ils font. On prend en charge collectivement la source de son hameau, et un jour on se retrouve à « gérer les communs ».

Pour le Comité invisible, l’ESS est typiquement une voie sans issue, si ce n’est même un remède pire que le mal, car à leurs yeux : « Il n’y a pas d’autre économie, il n’y a qu’un autre rapport à l’économie ».

On perçoit bien ici un autre point d’achoppement majeur avec la pensée des Communs. Car contrairement à une confusion souvent faite, les Communs ne visent à supprimer ni le marché, ni l’État, mais à trouver le moyen de les soumettre à une logique autre que celle du système néo-libéral. Ce n’est donc pas un hasard si Elinor Ostrom a obtenu le prix Nobel d’économie, car même si son point de vue est particulièrement hétérodoxe, son propos était bien d’ordre économique. Parmi les penseurs des Communs, on peut aussi citer Michel Bauwens qui, depuis des années, théorise la forme que pourrait prendre une « Economie des communs », articulée avec ce qu’il appelle un « Etat-partenaire ». Cette évolution passe à ses yeux justement par un renforcement des liens avec l’Economie Sociale et Solidaire, à travers ce que Bauwens nomme le « Coopérativisme ouvert ».

Dans Maintenant, le Comité invisible appelle à déserter ou à saboter les structures économiques, mais certainement pas à les réinvestir d’un autre sens, comme se proposent de le faire l’ESS et le mouvement des Communs.

Or cet appel à la désertion de l’économie constitue à mes yeux un non-sens et c’est même à terme un mot d’ordre dangereux. Les Communs ont toujours été articulés – d’une manière ou d’une autre – avec le système économique et c’est précisément ce qui fait leur intérêt. Quand Elinor Ostrom étudie des communautés de pêcheurs qui se partagent une ressource halieutique (les pêcheries de homards du Maine), ce sont des acteurs qui vont vendre leurs prises sur le marché, mais qui conviennent entre eux de règles communes pour éviter la surpêche et préserver la ressource dans le temps. Quand elle étudie des systèmes d’irrigation en Californie (l’exemple des aquifères), ce sont là aussi des agriculteurs qui ont besoin de puiser cette eau pour arroser des cultures dont ils vont vendre ensuite le produit sur le marché, mais qui sont capables de mettre en place collectivement un système de gouvernance évitant l’assèchement des nappes. Ce que montrent les Communs, c’est donc que des acteurs économiques peuvent arriver à se comporter d’une manière autonome par rapport à la logique du marché (maximisation des profits), alors même qu’ils sont interfacés avec lui.

Cette question nous reconnecte avec les travaux d’un autre penseur important – l’historien Karl Polanyi – qui dans son livre majeur « La Grande Transformation » s’est intéressé au démantèlement des Communs et à l’avènement du capitalisme moderne. Il montre notamment très bien comment au tournant du 18ème au 19ème siècle, une rupture vers ce qu’il appelle « la société de marché » est survenue lorsque ce dernier est arrivé à devenir un système auto-régulé indépendant des autres dimensions de la société. Des systèmes économiques ont existé à toutes les périodes de l’histoire – y compris d’ailleurs sous la forme de marchés dès lors que les monnaies sont apparues – mais ceux-ci avaient la particularité d’être encastrés dans la société, qui parvenait à les contenir. L’existence sous l’Ancien Régime des Communs fonciers et des droits d’usage collectifs sur les terres agricoles était d’ailleurs une manifestation de cet encastrement de l’économie au sein du social, qui limitait en pratique la portée du droit de propriété. Et c’est précisément ce qui s’est inversé avec l’avènement du capitalisme au moment de la révolution industrielle : la société s’est alors retrouvée encastrée dans le marché et soumise à sa logique, lorsque la terre, le travail et la monnaie ont été érigés de force en marchandises.

Cette notion « d’encastrement » est à mon sens essentielle et elle montre bien en quoi ce mot d’ordre d’une « sortie de l’économie » est fallacieux (on verra plus loin que le Comité invisible est d’ailleurs bien incapable de se l’appliquer à lui-même…). L’enjeu n’est pas de rompre radicalement avec l’économie, mais de faire en sorte de la soumettre à nouveau au contrôle de la société, et c’est précisément un des objectifs que poursuit – avec d’autres – le mouvement des Communs. Certes, nous sommes bien d’accord que ce n’est pas l’ESS à elle seule qui va abattre le capitalisme mondial, le système ayant depuis longtemps montré sa redoutable capacité à absorber et à retourner les alternatives qui essaient de prendre corps en son sein. Mais il n’en reste pas moins que l’ESS participe d’un mouvement de résistance qui permet d’éviter l’encastrement complet du social par l’économie de marché, sans lequel la situation serait infiniment plus préoccupante. Il faut lire d’ailleurs à ce sujet un auteur comme Jean-Louis Laville, et notamment sa dernière synthèse parue au Seuil sur l’Économie Sociale et Solidaire, dans laquelle il montre bien que, notamment dans sa composante « associationniste », le sens de l’économie solidaire a toujours été avant tout politique et qu’il a permis, partout dans le monde, à des populations extrêmement fragilisées – pauvres, femmes, minorités ethniques, etc. – de pouvoir revendiquer, conquérir et exercer des droits économiques et politiques.

Je trouve extrêmement grave que le Comité Invisible se permette de balayer avec un tel mépris cet apport de l’ESS à la lutte sociale. L’ironie, c’est que sous couvert de radicalité, leur vision de l’économie me paraît en réalité constituer une forme intériorisée de l’idéologie néo-libérale : comme le marché a réussi peu à peu – on ne peut le nier – à encastrer quasi-intégralement la société dans sa logique, le Comité invisible ne voit pas d’autre solution que de déserter complètement le champ de l’économie, sans voir que ce processus est réversible. Leur propos tend à « essentialiser » l’économie de marché et à « dé-historiciser » sa construction, ce qui est exactement le dessein de l’idéologie libérale depuis Adam Smith, qui veut nous faire croire à la « naturalité » des lois du marché et du comportement de l’homo economicus. Dire que par définition, l’économie constitue un rapport au monde condamnable qu’il faudrait fuir n’est en définitive qu’une image renversée de cette construction idéologique libérale à laquelle ils se soumettent, et absolument pas une manière d’en « sortir ».

Contre cette vision, Karl Polanyi a d’ailleurs proposé une autre conception de l’économie, à mon sens infiniment plus féconde que la réduction manichéenne à laquelle se livre Comité invisible. Il oppose en effet à la conception « formelle » de l’économie (« l’économie en tant que logique de l’action rationnelle et de la prise de décision, comme un choix rationnel entre des usages distincts de ressources ou moyens limités« ) une conception « substantive » définie comme suit :

La seconde, le sens substantif, par opposition, ne présuppose ni la prise de décision rationnelle ni des conditions de rareté. Elle désigne simplement l’étude des choix humains qui leur permettent de vivre dans leur environnement social et naturel. Une stratégie de prospérité pour une société est vue comme une adaptation à son environnement et ses conditions matérielles, un processus qui peut impliquer ou non la maximisation de l’utilisation de ses ressources. Le sens substantif du terme « économie » est vu dans le sens plus large d’« économiser » ou d’« approvisionner ».

L’économie est simplement la façon par laquelle une société satisfait ses besoins matériels et immatériels (statut social, rites, croyances, etc.).

C’est cette « économie substantive » que visent à la fois les Communs et l’ESS, et la raison pour laquelle il importe de renforcer les synergies entre ces deux sphères (voir à ce sujet le dernier numéro de la RECMA).

Je prendrai pour finir cette partie un autre exemple, à nouveau tiré de la ZAD de Notre-Dame-des-Landes, qui m’a personnellement aidé à comprendre l’erreur de perspective du Comité invisible sur les questions économiques. Parmi les institutions remarquables mises en place par les ZADistes, il y a celle du « Non-Marché ». Il s’agit d’un rassemblement qui se tient chaque semaine où ceux qui produisent des denrées alimentaires sur la ZAD (pain, fruits et légumes, lait, fromages, etc.) viennent les proposer aux autres occupants avec un système de « prix libre », c’est-à-dire sans fixer de prix a priori, mais en laissant chacun donner ce qu’il veut/peut en échange, que ce soit sous forme monétaire ou non. Voilà ce qu’en disait un article publié au début de l’année sur Médiapart , qui montre le rôle important que ces échanges ont pour le fonctionnement de la ZAD :

Tous les vendredis, les produits de la ZAD sont mis à disposition des habitant-es et des riverain-es à prix libre – chacun laisse l’argent qu’il veut ou peut, ou rien du tout, pendant le non-marché. Les caisses de ce marché non marchand – le seul endroit de la ZAD où tout le monde est à l’heure, entend-on parfois – abondent « Sème ta Zad ». Cette structure collective, créée pour discuter de l’usage des terres reprises par le mouvement, sert à coordonner les projets agricoles.

L’argent récolté est destiné à la lutte collective, et non à la vie quotidienne des habitant-es. Environ 20 000 euros y rentrent et sortent chaque année, selon une personne qui s’en occupe. Ils financent les achats de farine, gasoil, foin, pièces de rechange du matériel. La ZAD vit grâce aux gros événements – caisses de soutien à prix libre, tracto-vélo, info Tour, bar lors des grands événements – ainsi qu’aux dons, qui affluent sur le compte de l’association Vivre sans aéroport.

Cette institution du « Non-Marché » porte particulièrement bien son nom. Ce n’est en effet pas une place de marché étant donné que les échanges n’y sont pas régulés par un système de prix fixés par la loi de l’offre et de la demande. Mais on voit bien qu’il ne s’agit ici en aucun cas de « sortir de l’économie », si tant est que l’on veut bien donner un sens « substantiviste » à cette notion. Le Non-Marché fonctionne en réalité comme une forme de coopérative, certes « sortie » de l’économie marchande, mais gardant un pied dans l’économie monétaire et en faisant une large place à ce que Karl Polanyi appelle « la réciprocité » (les logiques de dons et de contre-dons) pour réguler les échanges. C’est typiquement la subtilité de ces formes d’arrangements institutionnels qu’une pensée sommaire se donnant comme mot d’ordre de « sortir de l’économie » ne peut plus appréhender, sinon par le mépris.

Comment « faire communauté » ?

Ces « taches aveugles » dans l’analyse du Comité invisible, on les retrouve également dans leur manière de concevoir les phénomènes collectifs, et c’est à mon sens la plus grave faiblesse du livre. D’une certaine manière, les auteurs partagent sur ce point les ambiguïtés traditionnelles de l’anarchisme. La pensée libertaire est en effet longtemps restée tributaire d’une conception « associationniste » des groupes où les individus s’assemblent et se séparent par l’effet de leur libre volonté. Mais tous les travaux de la sociologie, au moins depuis Durkheim, montrent que les groupes humains ont une emprise sur leurs membres qui n’est pas réductible au simple jeu des volontés individuelles. On « appartient » à des groupes sous l’influence de forces qui nous dépassent et si l’individu peut se libérer de ses attaches pour en cultiver de nouvelles, ce n’est jamais aussi simple que la rupture consciente d’un contrat.

Sans doute à cause de ses influences « spinozistes », le Comité invisible ne s’inscrit pourtant pas dans cette veine « associationniste », qu’ils combattent au contraire résolument dans le livre. C’est ce qui leur fait mettre l’accent sur la question des « liens » et de « l’amitié », termes qui désignent sous leur plume ce pouvoir des groupes de faire entrer les individus dans des rapports non-réversibles à leur guise. Ils appellent cela « la vie », assimilée à une nouvelle forme de « communisme » conçu comme « le fait vécu de la fraternité » en action. C’est cette attirance pour les communautés « réelles » qui leur fait rejeter avec virulence dans la dernière partie du livre (« Pour la suite du Monde ») la tendance des militants à se constituer en collectifs :

Les collectifs en tout genre – de citoyens, d’habitants, de travail, de quartier, d’activistes, d’associations, d’artistes sont l’avenir du social. On adhère là aussi comme individu, sur une bas égalitaire, autour d’un intérêt, et on est libre de les quitter quand on veut. Si bien qu’ils partagent avec le social sa texture molle et ectoplasmique […] L’égalité et l’horizontalité postulées rendent au fond toute singularité affirmée scandaleuse ou insignifiante, et font d’une jalousie diffuse sa tonalité affective fondamentale […] Plus la société se désagrégera, plus grandira l’attraction des collectifs. Ils en figureront une fausse sortie. Cet attrape-nigaud fonctionne d’autant mieux que l’individu atomisé éprouve durement l’aberration et la misère de son existence.

Ce faisant, le Comité invisible se retrouve pourtant sur une corde raide, car s’ils rejettent le « libre associationnisme » des collectifs, nous avons vu qu’ils condamnent aussi radicalement les institutions, qui sont pourtant ce qui fait que les groupes humains « tiennent ensemble » et durent dans le temps. Du coup, le Comité invisible met en avant un exemple qui revient constamment dans l’ouvrage comme la forme à leurs yeux désirable de l’action collective : le cortège de tête des manifestations auquel ils identifient ce qu’ils appellent la communauté.

Il n’y a jamais la communauté comme entité, mais comme expérience. C’est celle de la continuité entre des êtres et avec le monde. Dans l’amour, dans l’amitié, nous faisons l’expérience de cette continuité […] Dans cette émeute où nous nous tenons ensemble au plan que nous nous sommes fixés, où les chants des camarades nous donnent du courage, où un street medic tire d’affaire un inconnu blessé à la tête, je fais l’expérience de cette continuité.

En réalité, quiconque a déjà participé à ces situations de danger éprouvé en commun sait bien que l’on y fait l’expérience d’un phénomène particulier : celui de la capacité d’un groupe à s’auto-affecter spontanément, en suscitant des solidarités extrêmement puissantes et de la coordination, sans avoir besoin de direction centralisée. En cela, le Comité invisible voit la possibilité de l’existence d’une verticalité – à l’opposé de l’horizontalité informe des collectifs- qui puisse émerger d’elle-même, sans besoin de recourir à des formes d’autorité liée à des institutions.

C’est à ce stade qu’il est intéressant de faire réintervenir dans cette discussion Frédéric Lordon, et notamment les développements de son livre Imperium. Structures et affects des corps politiques. Car cette capacité des groupes humains à s’auto-affecter est précisément ce que Spinoza appelle « imperium » dans son Traité politique par cette formule célèbre : « Ce droit que définit la puissance de la multitude, on l’appelle généralement imperium ». Dans l’ouvrage, Lordon montre que c’est sous l’effet de cette « puissance de la multitude » que les groupes coagulent en des communautés dont la cohésion dépasse l’exercice de volontés librement associées. Il nomme cet effet « auto-transcendance du social » ou « transcendance immanente », laquelle donne aux groupes la dimension de la verticalité où s’exprime le pouvoir.

Ces effets peuvent être tout à fait passagers, comme ce qui se produit dans le cortège de tête d’une manifestation, sous l’effet du danger ressenti en commun et des nécessités tactiques de l’action. Mais Lordon explique aussi que c’est l’imperium qui est à l’origine de la naissance des institutions sociales, des plus simples comme les plus élaborées, jusqu’aux Etats qui en constituent aujourd’hui la forme la plus aboutie. Le pouvoir de la multitude de s’auto-affecter passe par la production de formes symboliques qui finissent par se stabiliser sous la forme d’institutions assurant la cohésion du groupe. Et c’est là que la pensée du Comité invisible me paraît extrêmement pauvre quant à son appréhension des phénomènes collectifs. Ce qu’ils portent aux nues avec les cortèges de tête des manifestations constitue en fait le niveau 0 de la dynamique produisant les institutions, qu’ils rejettent par ailleurs si fortement sans voir que ces phénomènes ont en réalité exactement la même nature. Ce que montre Frédéric Lordon dans son livre, c’est que ces mécaniques d’auto-transcendance sont absolument inévitables dès lors que les groupes humains deviennent assez importants pour les déclencher sous l’effet du nombre. Cela signifie donc qu’à moins de rester dans les petits collectifs réversibles (que le Comité invisible conspue…), tous les groupes devront immanquablement se confronter avec cette puissance de la multitude, qui est la matrice de toutes les institutions.

Or, typiquement, c’est aussi cette puissance de la multitude qui rassemble les communautés autour de la gestion des Communs. Ce n’est pas directement sous cet angle qu’Elinor Ostrom aborde la question, mais il est évident que ce qu’elle nomme « auto-organisation » (self-organization) renvoie à ce pouvoir des groupes de s’auto-affecter pour produire des institutions et elle accorde aussi dans ses écrits beaucoup d’importance à la question du passage à l’échelle (scaling) renvoyant à la taille des groupes. Lordon prévient cependant que les communautés qui font ce travail instituant sont particulièrement susceptibles d’être affectées par des phénomènes de capture. Celle-ci peut survenir de l’extérieur, notamment de la part de l’État, institution des institutions, qui a acquis une place tellement centrale dans la vie collective qu’il a la capacité de soumettre à sa propre logique hiérarchique la plupart des institutions indépendantes qui pourraient germer en son sein. Par ailleurs, les groupes risquent aussi de subir des phénomènes de « capture interne », par lesquels une partie des membres – voire un individu – arrivent à capter à leur profit cette puissance de la multitude et à « détourner » le pouvoir d’auto-organisation. Ce sont là des « pathologies » de la gouvernance des Communs que l’on connaît bien et qui signent souvent l’arrêt de mort de l’esprit communautaire des projets.

Et ceci nous permet de reboucler avec la partie de ce billet consacrée aux institutions. Si l’on suit Dardot et Laval, l’enjeu des Communs consiste à mettre en oeuvre une « réinstitution de la société par elle-même ». Il s’agit donc de regarder en face la nature institutionnelle de ces phénomènes (ce que refuse de faire le Comité invisible), tout en étant – avec Lordon – extrêmement conscient des risques de capture qui peuvent toujours survenir et compromettre cette dynamique. C’est à mon sens au prix de cette lucidité que l’on pourra espérer enclencher un véritable processus révolutionnaire, et certainement pas en se cachant la tête dans le sable comme le fait le Comité invisible, en attendant qu’advienne une mystérieuse « situation » qui aurait magiquement la vertu de propager à toute la société les phénomènes passagers d’auto-coordination qui se produisent dans les cortèges de tête des manif’ !

C’est là justement tout l’intérêt des Communs, à condition qu’ils se conçoivent comme des « laboratoires de pratique institutionnelle », ce que ne peut que condamner le Comité invisible sur la base de leurs préjugés théoriques.

Ce qu’ils disent et ce qu’ils font…

J’en termine par ce qui m’a, en vérité, décidé à écrire ce billet : une profonde impression d’imposture intellectuelle qui se manifeste quand on compare ce que prône le Comité invisible et la manière dont ils agissent en pratique. Depuis Marshall McLuhan, on sait effet qu’il faut accorder autant d’importance au medium qu’au message. Or comment le Comité invisible s’y prend-t-il pour délivrer son message appelant à la « sortie de l’économie » ? Réponse : en vendant 9 euros un livre dont le contenu n’est pas accessible en ligne, mis à part quelques extraits, et qui reste sous « copyright : tous droits réservés », interdisant en théorie toute forme de partage en s’abritant derrière l’institution du droit d’auteur…

Vendre un livre appelant à « sortir de l’économie » est à vrai dire à peu près aussi dénué de sens que si des antispécistes diffusaient un message animaliste par le biais d’ouvrages reliés en cuir pleine peau… On me rétorquera peut-être que La Fabrique n’est pas un éditeur comme les autres ; que vendre le livre sous format papier était le meilleur moyen de toucher le grand public ; que 9 euros n’est pas un prix très élevé ; que le Comité invisible a publié de larges passages du bouquin en accès libre sur le site de Lundi Matin ; que le premier livre du comité invisible (L’insurrection qui vient) a été mis en ligne en accès gratuit par la Fabrique, etc. A tous ces arguments, je répondrai : certes, mais tout ceci ne constitue somme toute encore que des compromis avec l’économie, alors que la posture du Comité invisible consiste à discréditer systématiquement tous ceux qui assument un tel compromis, comme c’est le cas pour les Communs et l’ESS. Tenir ce genre de propos est à vrai dire périlleux, car c’est s’interdire toute forme de compromis, sous peine de tomber immédiatement dans une forme de contradiction performative décrédibilisant complètement le message.

Sachant par ailleurs que le compromis peut prendre chez le Comité invisible des formes absolument ridicules… Sur la photo ci-dessous prise à la FNAC des Halles, on peut voir Maintenant au rayon « Nouveautés », trônant à côté du controversé ouvrage Décadence de Michel Onfray… C’est en m’arrêtant sidéré devant cet improbable télescopage, dicté par la plus pure des logiques mercantiles, que je me suis juré d’écrire ce billet !

Le pire, c’est qu’il aurait été fort simple pour le Comité invisible et son éditeur de « sortir de l’économie » : il aurait suffi pour cela de publier le texte en ligne sous licence libre. Les licences libres sont typiquement des outils qui permettent de « démarchandiser » des ressources numériques, comme le sont par exemple Linux ou Wikipédia, tout en laissant ouverte la possibilité de vendre les supports matériels que sont les livres papier. Avec la notoriété acquise avec le temps par le Comité invisible, il est évident que ce troisième ouvrage, très attendu après les remous de l’année 2016, se serait de toutes façons bien vendu, même s’il avait été en accès gratuit par ailleurs. Les auteurs auraient certes encore été dans le compromis avec l’économie, mais pas au prix d’une perte totale de cohérence, comme c’est le cas aujourd’hui.

Car il faut bien arriver à cette conclusion : le Comité invisible n’a pas été capable de s’appliquer à lui-même les principes qu’il prône dans son propre livre. Ce qui peut signifier deux choses : 1) soit ce qu’ils proposent est impossible à réaliser ; 2) soit ils se fichent profondément de nous. Et la seconde hypothèse est hélas sérieusement à envisager, car voici ce que l’on peut lire à la page 104 du livre dans la partie consacrée justement à la question de la « sortie de l’économie » :

Faire payer les connards est de bonne guerre. Qui aime ne compte pas. Là où l’argent vaut quelque chose, la parole ne vaut rien. Là où la parole vaut, l’argent ne vaut rien. Sortir de l’économie, c’est donc être à même de distinguer nettement entre les partages possibles, déployer depuis là où l’on est tout un art des distances.

Hum… Le lecteur qui aura déboursé 9 euros pour pouvoir lire ces lignes pourra donc en déduire qu’il fait partie des connards et que l’argent a encore aux yeux des auteurs suffisamment d’importance pour accepter que leur parole ne vaille rien… La vérité, c’est que pour être cohérent avec son propos, il aurait fallu que le Comité invisible commence par faire de son livre un Commun, mais c’était difficile en partant des préjugés qui sont les leurs.

Le pire, c’est que l’ouvrage contient aussi une pseudo-justification qui expliquerait le choix de ne pas faire paraître le livre en version numérique. En plus des institutions et de l’économie, il faut en effet savoir que le Comité invisible condamne aussi radicalement les écrans, qu’il accuse d’engluer la population en l’empêchant de saisir l’instant présent :

Toutes les raisons sont réunies [de faire une révolution], mais ce ne sont pas les raisons qui font les révolutions, ce sont les corps. Et les corps sont devant les écrans.

Que dire là encore, sinon que comme pour l’économie, cela revient à essentialiser le numérique comme intrinsèquement malfaisant et à l’abandonner tout entier à l’ennemi, alors qu’il s’agit à l’évidence aujourd’hui d’un des terrains majeurs de la lutte à conduire ? Sur cette question, on préférera lire Alain Damasio, qui sur le site Lundi Matin appelle au contraire à réinvestir le numérique comme objet de résistance, en faisant parfaitement le lien avec le logiciel libre et les Communs :

[…] liberté d’éducation, de production, de travailler ou non, liberté des savoirs, propriétés ouvertes et annulées, existences connectées et déconnectées, justice autogérée, Communs partout […]

L’émancipation partira de la terre et de la chair, mais elle sortira aussi du numérique. Et elle impliquera de se réapproprier toute cette chaîne logistique digitale aujourd’hui intégralement privatisée et aliénée : aussi bien les câbles et la fibre que les nœuds du réseau, les antennes, les VPN, les routeurs, tout autant que les centres de données (datacenters) qui sont les ultramodernes forteresses de nos solitudes connectées.

Et en aval des « fournisseurs d’accès » (tout un poème), penser la totalité de nos pratiques en matériel libre, comme en logiciel libre : ordinateur et téléphone libre, électronique libre, caméra libre, baladeur, console, imprimante 3D libre. Tout un écosystème technique qu’on puisse se fabriquer, se bricoler, se partager, mettre en commun et qui échappe à l’empire du traçage gafesque.

L’enjeu des serveurs est particulièrement fort, tout comme la possibilité d’imaginer des centres de données autonomes, des zadacenters autogérés, nichés dans nos ZAD, et alimentés en énergie renouvelable. Cela pourrait déboucher non plus sur un darknet, mais un rednet ou un greenet — lieu d’expression et d’échange indépendant des monstres siliconnés.

Voilà un terreau fertile pour la Convergence des luttes, ce mot d’ordre qui fut si important pendant Nuit Debout, et qui est exactement à l’opposé de ce que veulent nos étranges « amis » du Comité invisible…

***

Je terminerai ce billet avec une phrase de Maintenant que je trouve assez croustillante au vu de tout ce qui précède :

Nous n’avons pas de programme, de solutions à vendre. Destituer, en latin, c’est aussi décevoir. Toutes les attentes sont à décevoir.

Certes, le Comité invisible propose peu de solutions concrètes, mais il a quand même… un livre à vendre ! Et comme j’ai essayé de le montrer, le lecteur exigeant trouvera effectivement bien des motifs de déception au fil de la lecture.

Pour le reste, lisez Elinor Ostrom ; lisez Michel Bauwens ; lisez Dardot et Laval ; lisez Karl Polanyi ; lisez Jean-Louis Laville ; lisez Frédéric Lordon ; lisez Spinoza.

Lisez-les comme il vous plaît, en papier ou devant des écrans.

Scannez les bouquins et partagez avec le monde entier les fichiers.

Investissez-vous de toutes vos forces dans les Communs et dans l’ESS.

Et faites attention aux zozos qui prétendraient vous en dissuader, au prix de 9 euros TTC et d’une mortelle contradiction…

Cinq raisons de refonder les licences libres sur les droits culturels

Ce billet est le troisième d’une série que j’ai entamée cet été. Elle a commencé par l’analyse d’une nouvelle licence « Semences libres » proposée par un projet allemand, dont j’avais relevé qu’elle était la première en son genre à couper les ponts avec la propriété intellectuelle. Cette licence trouve en effet son fondement dans les dispositions du protocole de Nagoya, qui reconnaît à des populations un droit à contrôler l’usage de ressources génétiques et de connaissances traditionnelles dans le cadre d’un « partage équitable des avantages ». Dans un second billet, je suis parti de cette base pour extrapoler, en essayant de montrer que l’on pourrait adopter le même cheminement pour détacher les licences libres « classiques » de la propriété intellectuelle, en coupant notamment le cordon ombilical avec le droit d’auteur. Il fallait néanmoins pour cela trouver un autre fondement valable dans le droit international et j’ai proposé d’aller le chercher du côté des droits culturels, reconnus notamment par la Convention de l’Unesco sur la diversité culturelle et introduits l’an dernier en France par la loi NOTRe et la loi Création.

Image par Nick Youngson. CC-BY-SA.

Ce second billet a suscité un certain nombre de commentaires et plusieurs personnes m’ont écrit pour manifester leur intérêt envers la démarche, ce qui m’encourage à pousser la réflexion plus loin. Notamment, il paraît possible d’imaginer une licence « Droits culturels » qui tranche radicalement avec la logique des licences habituelles pour introduire de nouveaux principes de fonctionnement. Ce n’est pas ce qu’a fait de son côté le projet Semences libres / Open Source Seeds qui s’est certes détaché de la propriété intellectuelle, mais pour proposer une licence grosso-modo identique à la GNU-GPL (liberté de réutilisation avec une clause de Copyleft/Partage à l’identique). Il me semble que l’on peut aller plus loin et, quitte à rompre avec le droit d’auteur, autant en profiter pour dépasser certaines des limites inhérentes à ce cadre. Le droit d’auteur est en effet intrinsèquement bâti sur un « paradigme individualiste » escamotant la dimension collective à l’oeuvre dans le processus même de création. Par ailleurs, l’évolution de la jurisprudence a rabattu le droit d’auteur sur un « modèle propriétariste », ce qui soulève de nombreux problèmes (et constitue peut-être même à terme une menace mortelle pour les licences libres, dont on voit déjà poindre les premiers signes – voir ici ou …).

Je vais rapidement passer en revue cinq raisons qui pourraient nous inciter à refonder les licences libres sur les droits culturels. Je précise immédiatement que je ne sais pas jusqu’à quel point ces idées sont valides sur le plan juridique (c’est-à-dire compatibles avec la législation en vigueur). Mais je vais volontairement laisser de côté cet aspect des choses pour ne pas me brider. Après tout, les licences type GNU-GPL ou Creative Commons ont soulevé pendant des années – et soulèvent toujours dans une certaine mesure – des questions quant à leur validité, ce qui ne les a pas empêchées de produire des effets significatifs.

Lire la suite

La végétalisation des villes et la tragi-comédie des Communs

Au début du mois d’août, une nouvelle plateforme « Végétalisons Paris » a été lancée par la municipalité de la capitale. Le site rassemble les informations concernant les différentes initiatives de la mairie de Paris visant à inciter les habitants à investir les espaces publics pour y planter des végétaux. Chacun peut y effectuer les démarches nécessaires pour son projet de végétalisation et signaler ses réalisations sur une carte.

Déjà plus d’un millier de réalisations épinglées sur la carte de la plateforme « Végétalisons Paris ».

Parmi les différents aspects de la politique de Paris, le permis de végétaliser est sans doute celui qui a le plus attiré l’attention, avec plusieurs milliers d’autorisations accordées à des habitants depuis sa création en 2015 pour implanter des végétaux dans des espaces comme des pieds d’arbres, des potelets, des trottoirs ou des murs. De nombreuses autres villes françaises – comme Lille, Marseille, Strasbourg, Grenoble ou Bordeaux – ont mis en place des dispositifs similaires (même si les règles peuvent varier d’une ville à l’autre).

Je croise de plus en plus souvent à Paris des espaces végétalisés dans le cadre de ce dispositif et en observant ces réalisations, je me suis souvent demandé dans quelle mesure ce système peut favoriser l’émergence de Communs urbains (ou pas). On pourrait penser que le permis de végétaliser va naturellement dans le sens des Communs, dans la mesure où il permet aux habitants de se réapproprier l’espace public. Mais il me semble que les choses sont plus complexes et que, tant du point de vue du montage juridique que de ses résultats pratiques, le permis de végétaliser n’aboutit pas toujours à la constitution de Communs dans la ville, loin s’en faut. Il peut même déboucher sur leur exact contraire, à savoir une forme de Tragédie des Communs, bien que ce ne soit heureusement pas une fatalité.

Lire la suite

L’ouverture des brevets de la recherche, un tabou pour l’Open Science ?

Le concept d’Open Science tend à prendre aujourd’hui de plus en plus d’importance, en devenant progressivement le nouveau paradigme de référence de diffusion des résultats de la recherche. Il est notamment poussé par l’Union européenne dans le cadre du programme « Horizon 2020 » et en avril 2016, un appel solennel à été lancé depuis Amsterdam pour inciter les Etats-membres à initier des actions en faveur de la Science Ouverte. Si la définition du concept d’Open Science est parfois assez fluctuante, sinon fuyante, on s’accorde à y voir un « au-delà » de l’Open Access, s’inspirant de la même philosophie générale, mais s’appliquant à d’autres objets que les publications scientifiques. L’Open Science concerne aussi les logiciels utilisés par les chercheurs pour conduire leurs recherches (Open Source), ainsi que les données sur lesquelles ils s’appuient (Open Data). D’autres dimensions du processus de recherche sont parfois incorporées à la notion, comme on peut le voir sur le schéma ci-dessous, proposé par le programme européen FOSTER.

L’article de Wikipédia consacré à l’Open Science suit à peu près la même logique, en déclinant le concept des six principes : Open Data, Open Source, Open Methodology, Open Peer Review, Open Access, Open Educational Resources.

Mais quelque chose me frappe toujours dans ces modélisations de l’Open Science : elles laissent de côté une dimension pourtant essentielle du processus de recherche (au moins dans certaines disciplines), à savoir la question de la gestion des droits sur les inventions et le dépôt de brevets. C’est comme si la Science Ouverte s’arrêtait toujours aux portes de la propriété industrielle et que la question de l’ouverture et de la libre réutilisation des inventions restait une sorte de tabou.

En 2016, le CNRS a publié un livre blanc intitulé « Une Science ouverte dans une République numérique« , remarquable dans l’ensemble, mais qui porte la marque de ces contradictions. Si le texte se prononce très clairement en faveur de l’Open Access, de l’Open Source et de l’Open Data, il se montre par contre beaucoup moins hardi lorsqu’il est question des brevets :

Les frontières de la valorisation et de la science ouverte

Lopen science ne doit pas faire obstacle aux enjeux économiques de la recherche.

La mise à disposition des données scientifiques sur des plateformes open science ne doit pas aller à l’encontre :

  • de la valorisation des données notamment par brevet ;
  • du respect des secrets et des dispositions spécifiques telles que les Zones à Régime Restrictif ;
  • du respect des règles contractuelles de confidentialité.

Pourtant, une autre façon de voir les choses existe et ce sont les universités du Danemark qui montrent qu’il est parfaitement possible d’inclure les brevets dans le processus de l’Open Science. Traditionnellement, les laboratoires de recherche nouent des partenariats avec des entreprises privées afin que celles-ci participent au financement de travaux avec, en contrepartie, un partage des résultats et des dépôts de brevets venant sécuriser les droits de propriété intellectuelle sur les inventions découvertes. Mais l’université d’Aarhus a mis en place une initiative, justement intitulée « Open Science », pour inverser ces rapports avec les partenaires privés et faire évoluer le sens de ces partenariats de recherche :

L’initiative de l’université d’Aarhus, intitulée Open Science, prévoit que ni l’université ou ni les entreprises impliquées dans les projets ne pourront breveter les découvertes effectuées au cours du processus de recherche et, à la fin, les résultats sont mis à la disposition de tous – même à d’autres entreprises – sur une plateforme sans restriction liée à la propriété industrielle.

[…]

Kim Daasbjerg, un professeur de chimie qui a lancé et dirigé l’initiative, a déclaré qu’au cours des 10 à 15 dernières années, les universités avaient pratiqué une politique de dépôt de brevets sur leurs découvertes et qu’elles étaient même encouragées à «obtenir autant de brevets que possible».

« Je ne pense pas que ce soit le rôle de l’université de faire cela », a-t-il déclaré. «Notre compétence, notre apport à la société, c’est la recherche fondamentale».

Jusqu’à présent, six grandes entreprises, dont Lego, ont mis de l’argent sur la table pour financer la recherche sur des matériaux intelligents, tandis que d’autres petites entreprises ont promis du temps et de l’expertise, a-t-il déclaré. Une vingtaine de chercheurs travaillent maintenant dans le cadre de la nouvelle plate-forme, dont six de l’Université d’Aalborg et trois de l’Université de Copenhague.

On peut se demander pourquoi des entreprises iraient collaborer à des projets de recherche et y consacrer des moyens si elles ne peuvent s’assurer en bout de course d’une exclusivité, au moins temporaire, sur les résultats obtenus. Mais ce changement d’approche fait écho à des évolutions dont j’ai déjà eu l’occasion de parler dans ce blog, aux termes desquelles on commence à voir des entreprises de premier plan, comme Tesla ou Toyota, choisir de renoncer aux brevets qu’elles avaient obtenus sur certaines technologies afin de les promouvoir et de les faire évoluer vers des standards. La « guerre des brevets« , qui a frappé des secteurs comme celui des smartphones et des tablettes, aura visiblement laissé des traces, et si des secteurs comme celui des voitures autonomes pourraient à présent connaître des embrasements similaires, d’autres industriels semblent commencer à percevoir les vertus d’une approche « Open ». C’est typiquement sur ce genre de stratégies que les universités pourraient s’appuyer pour développer des partenariats d’un nouveau genre avec les entreprises.

Il faut savoir que cette tendance des universités à déposer des brevets est en réalité relativement récente. Elle date des années 80 et ce sont les Etats-Unis qui ont initié le mouvement dans le cadre de la mise en place d’une « économie de la connaissance », avec de fortes conséquences sur l’activité même de recherche comme l’explique ci-dessous Hervé le Crosnier :

Ce changement de l’état d’esprit de la recherche découle d’une loi de 1980, le Bayh-Dole Act qui a permis aux universités des États-Unis de déposer des brevets. Cela conduit ces dernières à créer des « services de valorisation » et à s’engager dans des stratégies de recherche à finalité directe. Étant donné le poids de la recherche en provenance des États-Unis, ce phénomène s’est étendu sur toute la planète. Et les chercheurs critiques, ou dont les travaux pouvaient mettre à mal certaines sources de revenus des universités, ont été marginalisés, à l’image d’Ignacio Chiapela, renvoyé de l’université de Berkeley en 2001 parce que ses travaux montraient l’existence de contamination OGM au Mexique, alors que l’université qui l’employait avait des contrats avec Syngenta, grande multinationale de l’agro-alimentaire technologique. La discussion scientifique elle-même pâtit de cet alignement des universités sur la recherche de revenus. La façon dont a été traité le chercheur Gilles-Éric Séralini, dont un article opposé aux OGM a été retiré d’une revue suite à la pression de Monsanto, et dont les travaux ont été dénigrés avec des arguments provenant des public-relations et non dans le cadre normal des controverses scientifiques, est un exemple récent de ce phénomène.

Les dépôts de brevets par les universités font partie intégrante de que l’on appelle la deuxième vague d’enclosure des Communs, celle qui a frappé la Connaissance selon les mots du juriste américain James Boyle, après que les terres aient été concernées à partir de la fin du XVIIIème siècle. La propriété intellectuelle, concept qui n’apparaît vraiment qu’après la Seconde guerre mondiale, s’est saisie peu à peu de la plupart des ressources produites par l’esprit humain et cette forme de « privatisation » n’a pas épargné les universités, qui sont même devenues un des rouages essentiels de ce système.

Le parallèle est d’ailleurs assez intéressant entre ce qui s’est passé pour les articles scientifiques et les dépôts de brevets par les instituts de recherche et les universités. On sait que pour les articles, un système d’accaparement s’est mis en place autour des revues scientifiques, propriétés de quelques grands éditeurs mondiaux, qui se font céder les droits d’auteur des chercheurs pour revendre ensuite aux universités l’accès aux résultats de la recherche. On est typiquement devant un processus de constitution d’une « fausse marchandise » au sens où l’entend l’économiste Karl Polanyi. C’est cette forme d’enclosure sur la connaissance que le mouvement de l’Open Access a entrepris de combattre en promouvant, selon diverses formules, la libre diffusion des écrits scientifiques sur Internet.

Pour les brevets, on est face à une logique similaire, dans la mesure où ce que l’on nomme de manière très ambiguë « valorisation des résultats de la recherche » aboutit en réalité à un transfert de propriété du public vers le privé. Mais l’analogie avec les articles scientifiques n’est pas parfaite. En effet, l’équilibre entre le privé et le public paraît à première vue plus équitable en ce qui concerne les inventions. Les brevets, par définition, sont en « Open Access », car on ne peut obtenir un tel titre de propriété intellectuelle auprès de l’INPI ou d’une autre institution habilitée qu’à la condition de révéler son invention pour permettre à tous d’en connaître la teneur. Le système des brevets a été mis en place pour lutter contre la pratique du secret en « récompensant » ceux qui acceptent de révéler leurs inventions par un monopole d’exploitation limité dans le temps (20 ans). Avec les inventions, on n’est donc pas confronté à ces paywalls derrière lesquels les éditeurs scientifiques mettent sous séquestre la connaissance, pour des durées beaucoup plus longues qui plus est (70 ans après la mort de l’auteur…). Par ailleurs si, dans l’immense majorité des cas, les chercheurs ne sont pas payés par les éditeurs pour la publication de leurs articles (c’est même l’inverse qui est en train peu à peu de se généraliser…), ce n’est pas le cas pour la réutilisation des brevets des universités par les entreprises qui font généralement l’objet d’accords de licence impliquant le versement de redevances.

La situation est donc différente du scandale aberrant qui frappent les articles scientifiques, pour lesquels le public paye deux fois : une première fois à l’origine avec le salaire des chercheurs publics pour la production des articles et une seconde fois pour acheter le droit d’y accéder auprès des éditeurs privés. Avec les brevets, il y a bien un flux d’argent en provenance du privé vers le secteur public. Mais en réalité, le problème est ailleurs et l’effet d’enclosure provient essentiellement de la sous-utilisation des ressources qui survient à cause de l’application systématique de droits exclusifs. C’est ce qu’expliquent bien les promoteurs du projet danois cité plus haut, qui critiquent la rationalité économique du dépôt de brevets par les universités :

Une analyse des bureaux de transfert de technologie dans les universités américaines réalisée par le cabinet Brookings en 2013 a conclu que, malgré une augmentation spectaculaire du nombre de ces bureaux depuis la fin des années 1980, les 10 pour cent les plus élevés ont pris environ les trois quarts du revenu. Sur 155 bureaux, 130 fonctionnaient à perte. Le professeur Daasbjerg estiment que les brevets constituent souvent de «mauvaises affaires».

Adam Stoten, directeur général d’Oxford University Innovation, qui aide les universitaires possédant des brevets à gérer les questions de propriété intellectuelle, reconnaît que «de nombreux bureaux de transfert de technologie ne sont pas rentables».

Les droits exclusifs liés aux brevets sont donc rarement profitables pour les universités et ceux qui verraient là un moyen de réaliser le fantasme des fameuses « ressources propres » des universités risquent une cruelle déception. Néanmoins, les brevets, même improductifs sur le plan économique, jouent comme une barrière à la réutilisation des inventions qu’ils « protègent », en raison des coûts de transaction à régler pour avoir accès aux ressources. Du coup, une proportion élevée des brevets déposés par les universités ne sont tout simplement jamais réutilisés et l’on aboutit à ce que Michael Heller a appelé une « tragédie des anti-Communs », c’est-à-dire une situation sous-efficace du point de vue économique où une ressource ne peut trouver son utilité du fait de l’accumulation de droits dont elle fait l’objet.

L’initiative de l’université d’Aarhus montre néanmoins qu’il n’y a pas de fatalité et qu’il est possible de concevoir des dispositifs, finalement très proches des archives ouvertes, pour renverser le sens des relations entre la recherche et le monde de l’entreprise. On notera que cela passe par la mise en place de nouveaux systèmes de conventions, qui au lieu de mettre systématiquement en avant « la propriété des résultats de recherche » prévoient au contraire qu’aucun partenaire ne cherchera à se les approprier pour qu’ils puissent faire l’objet d’une libre diffusion et réutilisation. C’est la condition pour que les traditionnels partenariats Public-Privé deviennent ce que l’on appelle des partenariats Public-Privé-Communs.

Là où le projet danois est également intéressant, c’est qu’il pointe un autre des travers du système actuel : si les chercheurs déposent des brevets, bien que cela soit coûteux et alors même qu’ils savent très bien que dans la majorité des cas aucune licence ne sera ensuite signée, c’est parce que les brevets ont été détournés de leur fonction initiale pour devenir des systèmes de publication des résultats de la recherche, ainsi qu’un moyen d’évaluer les projets. Les chercheurs mettent dans leur CV les brevets déposés, au même titre que leurs publications d’articles, comme autant de « marqueurs » qui serviront ensuite aux agences d’évaluation.

Toute la difficulté pour l’Open Science est d’arriver à découpler le processus de publication de celui de l’attribution de droits exclusifs. Il faut que la publication d’écrits en Open Access, de logiciels en Open Source, de jeux de données en Open Data, et donc aussi d’inventions sans dépôt de brevet, puissent « compter » dans l’évaluation des chercheurs, sans quoi la Science ouverte a peu de chances de dépasser un petit cercle de convaincus.

Et si on libérait (vraiment) les licences libres de la propriété intellectuelle ?

Avertissement : Ce qui va suivre est hautement expérimental, et en partie spéculatif, mais l’idée me paraissait valoir la peine d’être développée.

Image par Christopher Dombres. CC0/Domaine public. Source : Flickr.

Cette semaine, on a appris qu’une cour de justice américaine avait reconnu la valeur contractuelle de la licence GNU-GPL, alors que celle-ci a déjà presque 30 années d’existence, et n’a pas attendu cette consécration jurisprudentielle pour produire des effets réels. Le site TechoLlama se réjouit de cette décision, dans la mesure où elle apporte de solides arguments au débat juridique sur la validité des licences libres :

Nous continuons, décision après décision, à avoir l’assurance que les licences Open Source sont bien valides ; non seulement cela, mais nous avons maintenant l’assurance qu’elles constituent bien des contrats au sens propre du terme. Il n’y a pas si longtemps, je devais encore me défendre lors d’une conférence contre les allégations d’avocats qui affirmaient que les licences de logiciels libres n’ont pas de valeur juridique.

C’est assurément une bonne nouvelle de voir le système juridique reconnaître le principe même des licences libres et l’admettre en son sein, car cela autorise notamment à aller en revendiquer l’application en justice lorsqu’elles ne sont pas respectées. C’est particulièrement important pour la clause de copyleft (Share Alike – Partage à l’Identique) que l’on retrouve dans la licence GNU-GPL, qui protège les logiciels libres des tentatives de réappropriation exclusive et garantit leur caractère de biens communs.

Il faut à cette occasion rappeler que les licences libres ne constituent pas des « alternatives » au droit d’auteur, contrairement à ce que l’on peut parfois entendre. Elles sont au contraire pour les titulaires d’un droit d’auteur une manière légitime d’exercer leurs prérogatives, étant entendu que le droit d’auteur constitue tout autant une faculté d’autoriser que d’interdire. Depuis 2006, le Code de Propriété Intellectuelle français, même s’il ne contient aucune allusion explicite aux licences libres, reconnaît de son côté la possibilité pour les auteurs de mettre gratuitement leurs oeuvres à la disposition du public :

L’auteur est libre de mettre ses oeuvres gratuitement à la disposition du public, sous réserve des droits des éventuels coauteurs et de ceux des tiers ainsi que dans le respect des conventions qu’il a conclues.

Tout ceci est fort bien et vaut tout autant pour la licence GNU-GPL que pour toutes les licences libres ou de libre diffusion, comme les Creative Commons, qui se sont appuyées sur le droit d’auteur pour trouver un fondement dans le système juridique général. C’est en cela que l’on compare souvent le geste initial de Richard Stallman à un « hack juridique » par lequel il est parvenu à renverser le copyright en copyleft, sans avoir pour cela à passer par une réforme législative. De la même manière, les Creative Commons ont été imaginés par le juriste Lawrence Lessig pour donner aux auteurs eux-mêmes la possibilité de faire fonctionner autrement le droit d’auteur, dans un contexte où il tendait à se verrouiller de plus en plus au niveau législatif (vote en 1998 du Mickey Mouse Act, notamment).

Les licences libres sont donc nées sous la forme d’une véritable « inception » du copyleft au sein même du droit d’auteur, en vertu d’une tactique qui s’apparente à celle du Cheval de Troie ou de la prise de judo (s’appuyer sur la force de l’adversaire pour le maîtriser). C’est finalement ce qui leur donne leur force, mais aussi paradoxalement, une certaine forme de fragilité, car ces instruments restent en réalité dépendants du système juridique auquel elles empruntent leur validité. La juriste Séverine Dusollier avait déjà pointé en 2006 cette contradiction dans un intéressant article intitulé « Les licences Creative Commons : les outils du maître à l’assaut de la maison du maître« . Le titre s’inspire d’une phrase prononcée lors d’un discours en 1979 par l’écrivaine féministe Audre Lordre :

Les outils du maître ne détruiront jamais la maison du maître.

La question se pose en effet à propos des licences libres, dans la mesure où elles ne représentent pas un instrument de contestation, en lui-même, du droit d’auteur. Cela ne constituerait en soi pas un problème, si le droit d’auteur n’avait pas fini par être subsumé par le système sous le concept juridique de « propriété intellectuelle« , autrement plus nocif et vilipendé d’ailleurs par Richard Stallman. C’est en effet une question philosophique majeure de savoir si l’on peut appliquer le concept même de propriété aux créations de l’esprit (oeuvres, inventions, marques, etc.) qui constituent des objets immatériels, par définition non-rivaux. Stallman considère que le concept de propriété intellectuelle n’est qu’un « séduisant mirage », rapprochant artificiellement les champs pourtant très différents de la propriété littéraire et artistique et de la propriété industrielle. A ce titre, il condamne radicalement le terme de « propriété intellectuelle », pure construction idéologique à ses yeux, au point de recommander de ne jamais l’employer :

toute opinion à propos de « la question de la propriété intellectuelle », et toute généralisation faite à propos de cette soi-disant catégorie, est presque sûrement absurde. Si vous pensez que toutes ces lois ne sont qu’un même sujet, vous aurez tendance à choisir vos opinions à partir d’une sélection de généralisations abusives, dont aucune n’a la moindre valeur.

[…] Si vous voulez réfléchir clairement aux problèmes soulevés par les brevets, les copyrights, les marques déposées ou diverses autres lois, la première étape est d’oublier l’idée de les mettre toutes dans le même sac, de les traiter comme des sujets séparés. La deuxième étape est de rejeter les perspectives étriquées et l’image simpliste véhiculées par l’expression « propriété intellectuelle ».

Le problème, c’est que si ce débat philosophique à propos de la propriété intellectuelle reste ouvert, il est déjà tranché depuis un bon moment par la jurisprudence qui, aussi bien au niveau français qu’européen, a explicitement raccroché le droit d’auteur, le droit des brevets et le droit des marques au fondement du droit de propriété. On vient d’ailleurs encore d’en avoir une nouvelle confirmation cette semaine avec une décision du Conseil Constitutionnel rendue à propos du statut des webradios dans laquelle il affirme que les droits des producteurs et des interprètes (droits voisins) constituent bien une forme de propriété. Donc même si l’on critique la pertinence du concept de « propriété intellectuelle » (ce qui est mon cas), on est aujourd’hui contraint de reconnaître que le droit positif lui a accordé une réalité. Ce qui fait par ricochet que les licences libres elle-mêmes ne sont désormais plus qu’une émanation indirecte de cette même propriété intellectuelle. Comme je le dis parfois, le droit se moque éperdument de ce que nous pensons de lui : il possède sa propre objectivité qui s’impose à nous et cela vaut (hélas) à présent pour l’existence du concept de propriété intellectuelle. Dura Lex, Sed Lex…

A titre personnel, c’est ce genre de considérations qui m’avaient fait adopter la licence CC0 (Creative Commons Zero) pour les écrits que je publie sur ce blog. Alors que j’avais commencé par utiliser la licence CC-BY, j’ai voulu en changer en 2013 parce que je me suis rendu compte que je ne voulais pas simplement « renverser » le droit d’auteur, mais en sortir complètement. J’avais alors appelé ce geste « Copy-Out » par opposition au « Copyleft » et le choix de la licence CC0 m’avait alors paru cohérent pour manifester mon intention de verser directement mes oeuvres dans le domaine public, sans laisser aucune trace de droit d’auteur :

Pour moi, l’intérêt principal, c’est de sortir en dehors du cadre du droit d’auteur. Avec les licences libres, on passe de la logique du copyright à celle du copyleft, mais on reste encore dans le système du droit d’auteur. Les licences libres ne sont pas une négation du droit d’auteur, mais une autre manière de le faire fonctionner. Avec la licence CC0, on n’est plus dans le copyright, ni même dans le copyleft, mais littéralement dans le copy-out. On décide sciemment que son œuvre n’est plus saisie par le droit d’auteur et ne doit plus être comprise à travers ce filtre. Je ne prétends pas que cette voie doive être suivie par tous les auteurs. Mais au stade où j’en suis, c’est cohérent avec ma démarche.

Sauf qu’en réalité, la licence CC0 ne permet pas réellement d’accomplir cette volonté, car le système juridique (français) ne reconnaît, sans doute, pas aux auteurs la possibilité de renoncer valablement à leur droit moral. Mais plus profondément, la CC0, en dépit de son caractère radical, reste encore une licence de droit d’auteur, qui ne permet à l’auteur d’en sortir qu’en y renonçant (ce qui suppose donc d’abord d’y être entré…). On reste finalement dans la même logique « d’utiliser les outils du maître pour détruire la maison du maître« , d’où d’ailleurs les limites rencontrées à propos du renoncement au droit moral.

Or il arrivera peut-être un moment où « rester dans la maison du maître » risque de devenir dangereux, voir intenable, pour les licences libres. On voit en effet de plus en plus d’évolutions législatives aberrantes qui tendent à « écraser » les licences libres, en « forçant » les auteurs à maintenir leurs oeuvres dans le système classique contre leur volonté. C’est ce qui se passe par exemple en matière de sonorisation des lieux ouverts au public, qui sont soumis à une redevance perçue par la SPRE, même en ce qui concerne les oeuvres sous licence libre pour lesquelles les auteurs ont pourtant autorisé l’usage gratuit. Le risque existe aussi à présent en matière de photographies, suite au vote l’an dernier de la « taxe Google Images » qui pourrait forcer l’entrée en gestion collective des photos sous licence libre pour contraindre les moteurs de recherche à payer pour leur usage. Et des menaces plus redoutables encore se profilent à l’horizon, avec la discussion qui a lieu en ce moment au niveau du Parlement européen autour un « droit inaliénable à la rémunération » susceptible de provoquer un véritable désastre pour la Culture libre.

La question n’est donc pas simplement philosophique, car elle touche en réalité aux limites de la stratégie du « Cheval de Troie » qui a été employée jusqu’à présent par les fondateurs des licences libres. Si le système réagit en secrétant des « anticorps juridiques » neutralisant la portée effective des licences libres en prenant le pas sur la volonté des auteurs, alors la « maison du maître » finira par l’emporter et le hack juridique initial de Stallman sera devenu inutile. C’est pourquoi il importe à mon sens aujourd’hui de réfléchir à la façon d’aller plus loin, en coupant une bonne fois pour toutes le cordon ombilical qui raccroche les licences libres à la propriété intellectuelle.

Jusqu’à une date récente, je pensais qu’une telle entreprise était vouée à l’échec, car je ne voyais pas comment trouver un autre fondement juridique auquel raccrocher les licences libres. Mais une proposition récente de licence Open Source applicable aux semences a montré qu’en réalité, on pouvait raisonner outside the box (voir le billet que j’ai écrit à ce sujet sur S.I.Lex). Le domaine des semences soulève des questions particulières, dans la mesure où le droit d’auteur n’est pas applicable à ce type d’objets, qui ne sont pas considérées comme des « oeuvres de l’esprit ». Les droits que l’on peut revendiquer sur des semences relèvent de la propriété industrielle (Certificats d’Obtention Végétale, brevets) et le dispositif est conçu de telle sorte qu’il est devenu très difficile pour les personnes qui voudraient mettre en partage des semences d’obtenir de tels titres de propriété. Le système s’est donc « protégé » en amont du hack que pourrait constituer le Copyleft appliqué aux semences, en le rendant quasiment « inconstructible » tant qu’on reste sur le terrain des droits de propriété intellectuelle. Mais les initiateurs du projet Open Source Seeds ont essayé de trouver une parade en se raccrochant à une convention internationale – le Protocole de Nagoya – qui reconnaît des droits sur les ressources génétiques au bénéfice de populations sans les relier au concept de propriété intellectuelle :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

Si, en pratique, il n’est pas certain que cette nouvelle licence règle à elle seule tous les problèmes auxquels se heurtent les promoteurs des semences libres, elle repose néanmoins sur une intuition géniale et c’est la première fois, en tous cas, qu’une licence libre ne cherche plus à trouver appui sur la propriété intellectuelle.

On peut à présent se poser la question de savoir si la démarche est susceptible d’être élargie à d’autres objets que les semences, et notamment aux oeuvres de l’esprit relevant du champ du droit d’auteur. Si l’on adopte la même tactique, il faut se demander s’il existe des textes internationaux auxquels se raccrocher, susceptibles de conférer des droits sur des créations culturelles, indépendants de la propriété intellectuelle ? Or la réponse est oui : plusieurs traités internationaux, et notamment la Convention de l’UNESCO de 2005 sur la protection et la promotion de la diversité des expressions culturelles, ont en effet consacré la notion de « droits culturels », qui pourrait être ici utilement mobilisée.

On trouve en effet dans le texte de l’UNESCO, vierge de toute allusion à la propriété intellectuelle, plusieurs passages intéressants :

[…] la diversité des expressions culturelles, y compris des expressions culturelles traditionnelles, est un facteur important qui permet aux individus et aux peuples d’exprimer et de partager avec d’autres leurs idées et leurs valeurs.

[…] Dans le cadre de ses politiques et mesures culturelles […], chaque Partie peut adopter des mesures destinées à protéger et promouvoir la diversité des expressions culturelles sur son territoire.

Ces mesures peuvent inclure :

[…] les mesures qui visent à encourager les organismes à but non lucratif, ainsi que les institutions publiques et privées, les artistes et les autres professionnels de la culture, à développer et promouvoir le libre échange et la libre circulation des idées et des expressions culturelles ainsi que des activités, biens et services culturels, et à stimuler la création et l’esprit d’entreprise dans leurs activités.

Le dernier paragraphe me paraît très pertinent, car on pourrait l’utiliser pour créer une licence libre assise sur les droits culturels, et non sur la propriété intellectuelle, destinée à promouvoir « le libre échange et la libre circulation des idées et des expressions culturelles« . D’après la convention, un État a manifestement la faculté de mettre en place un tel instrument dans le but de favoriser la diversité culturelle. D’autres textes peuvent également être cités, qui sont venus préciser le contenu des droits culturels, comme la déclaration de Fribourg adoptée en 2007. Elle compte parmi les droits culturels celui d’accès et de participation à la vie culturelle impliquant :

la liberté de développer et de partager des connaissances, des expressions culturelles, de conduire des recherches et de participer aux différentes formes de création ainsi qu’à leurs bienfaits.

Rappelons aussi que les droits culturels ont aussi connu une première reconnaissance en France avec l’article 28 de la loi NOTRe et l’article 3 de la loi sur la liberté de création :

L’État, à travers ses services centraux et déconcentrés, les collectivités territoriales et leurs groupements ainsi que leurs établissements publics définissent et mettent en œuvre, dans le respect des droits culturels énoncés par la convention de l’Organisation des Nations unies pour l’éducation, la science et la culture sur la protection et la promotion de la diversité des expressions culturelles du 20 octobre 2005, une politique de service public construite en concertation avec les acteurs de la création artistique.

Les débats restent vifs et complexes pour savoir quelle est la portée exacte de cette insertion des droits culturels dans la loi française, mais pourquoi ne pas considérer que l’État serait tenu à ce titre de reconnaître la validité d’une licence libre assise sur les droits culturels et non sur la propriété intellectuelle ? L’entreprise me paraît dans tous les cas valoir la peine d’être tentée.

Cela nous permettrait de disposer, non plus seulement de licences libres, mais de licences vraiment « libérées » pour reconstruire autour des droits culturels sa propre maison à la Culture libre.

Valérian et le cycle des 1000 réincarnations

La semaine dernière est sorti en salle Valérian et la cité des 1000 planètes, film réalisé par Luc Besson. Le long-métrage est une adaptation de la bande dessinée Valérian et Laureline, par Pierre Christin et Jean-Claude Mézières, qui compte parmi les classiques ayant posé les jalons de la science-fiction dès les années 60. Avec 200 millions d’euros,  le film a rassemblé le plus gros budget français de tous les temps et les attentes qu’il suscitait étaient à la hauteur de cette démesure. Les critiques sont pour l’instant très mitigées, pour ne pas dire assassines (voir par exemple ci-dessous celle de l’excellent YouTubeur INTHEPANDA, précédée par une introduction qui résume bien le contexte de production du film).

Ce n’est pas tellement le film de Besson qui m’intéresse, mais plutôt les circulations complexes d’influences qui existent entre l’univers de la BD originale, Valérian et Laureline, et le cinéma de Science Fiction. Avec la sortie du film, de nombreux articles ont refait surface qui insistent sur les nombreux emprunts que George Lucas, par exemple, a effectué à l’univers de Valérian pour élaborer celui de Star Wars. Les choses sont même allées plus loin, vu que Jean-Claude Mézières a écrit deux fois à Lucas pour l’interpeller sur des similitudes qu’il trouvait un peu trop marquées à son goût. George Lucas ne répondit jamais, mais on trouve facilement sur Internet des comparatifs qui pointent des ressemblances flagrantes. La forme du Faucon Millenium, la cryogénisation dans un bloc de carbonite de Han Solo, le bikini métallique de la princesse Leia dans Le Retour du Jedi : tous ces éléments iconiques (et un certain nombre d’autres…) figuraient déjà avec près d’une décennie d’avance dans les albums de Valérian et Laureline. Certains témoignages attestent par ailleurs que George avait eu accès aux Etats-Unis à ces bandes dessinées, ainsi qu’à celles d’auteurs français comme Moebius ou Druillet, à qui il emprunta aussi des éléments pour Star Wars.

De son côté, Luc Besson entretient également une longue histoire avec Valérian, titre qu’il a lu dans son enfance et qu’il souhaitait adapter au cinéma depuis des années. Il avait d’ailleurs déjà collaboré avec Jean-Claude Mézières sur le Cinquième élément qui s’inspire assez indirectement de Valérian dans son esthétique. Besson aurait sollicité le dessinateur en lui disant que les américains l’avaient assez pillé et qu’il était temps qu’un film français lui rende hommage.

Jean Giraud/Moebius a aussi travaillé sur le Cinquième élément, mais il a rompu sa collaboration avec Besson après s’être brouillé avec lui. Il finit même par lui intenter un procès pour plagiat, en l’accusant d’avoir repris des éléments essentiels de l’Incal, une autre série culte de bande dessinée qu’il élabora avec Alejandro Jodorowsky. Malgré des similitudes assez flagrantes, la justice n’a pas reconnu de contrefaçon dans ces emprunts, mais la carrière de Luc Besson est émaillée de plus d’une dizaine de procès pour plagiat et, à vrai dire, quasiment tous ses films ont attiré ce genre de critiques : du Grand Bleu à Taxi, en passant par Léon et Jeanne d’Arc. C’est comme si, à chaque fois, Besson écrivait ses films en flirtant constamment sur le fil qui sépare le plagiat répréhensible des emprunts légitimes au « fond commun » du cinéma de genre. L’an dernier, la société de production de Besson a cependant fini par être lourdement condamnée pour contrefaçon, à propos du film Lock Out, dont les similitudes avec le classique New York 1997 de John Carpenter étaient trop fortes (voir l’analyse de cette affaire par le juriste Lex Tutor sur YouTube, qui explique avec brio la différence juridique entre le plagiat et la contrefaçon).

Comme je l’ai dit en introduction, les critiques sont pour l’instant sévères à propos de Valérian et la cité des 1000 planètes. Si la dimension visuelle et les prouesses techniques du film sont saluées, on reproche à Besson la fadeur du scénario, l’inconsistance des personnages et, encore une fois… des emprunts très appuyés à des oeuvres antérieures. Certaines critiques américaines sont à ce titre intéressantes à lire, car elles relèvent que le Valérian de Besson comporte de nombreuses similitudes avec les films… de la prélogie Star Wars, notamment le premier épisode (La menace fantôme). L’intrigue politique, les passages sous-marins sur la planète Naboo, l’environnement urbain de Coruscant : tout ceci aurait été décalqué dans Valérian avec trop de servilité. Mais on arrive à un étrange paradoxe, car comment savoir à présent si c’est Besson qui s’est un peu trop inspiré de Lucas, ou si ces ressemblances avaient été auparavant importées par Lucas dans la prélogie à partir de la bande dessinée originale ? Les emprunts entre les deux univers se superposent au point de former un conglomérat inextricable où il devient difficile de discerner les inspirations des innovations…

Sur Numerama, Corentin Durand va plus loin et parle de Valérian, comme d’un « film-palimpseste », mais pas dans un sens élogieux, comme on a pu parfois le dire par exemple des productions de Quentin Tarentino. A force de chipper à droite à gauche à toutes les sources de la SF, Besson aurait transformé son film en un patchwork indigeste sans substance propre :

Avec Besson, les clins d’œil et citations ne sont jamais loin du réchauffé raté. Ainsi, en deux heures, le bestiaire, les tentatives de personnages, les vaisseaux, les mondes, les courses-poursuites, vous rappelleront trente ans de SF compilés ici, sous le sceau baroque d’un quinqua régressif et qui picore visiblement dans un corpus populaire.

[…] si vous avez plus de quinze ans et un peu de respect pour le genre ici insulté, vous pouvez regarder le dernier Star Trek, la prélogie Star Wars — pour retrouver le Coruscant décalqué dans Valérian Avatar et les Gardiens de la Galaxie : les meilleures idées chipées par Luc Besson s’y trouvent dans leur forme originelle.

L’accusation larvée de plagiat va donc encore une fois coller à la peau de Luc Besson, ce qui est a priori surprenant vu qu’il s’attaquait cette fois à l’adaptation d’une oeuvre originale. Mais il suffit à vrai dire de regarder l’affiche du film pour se rendre compte que le clin d’oeil à Star Wars est tout sauf subtil...

On mesure ainsi le gouffre qui sépare Luc Besson et George Lucas dans leur capacité à digérer leurs influences pour produire une synthèse créative. Pour élaborer Star Wars, George Lucas s’est en effet comporté comme une véritable « éponge » en absorbant de très nombreuses inspirations, qui sont souvent explicitement « citées » dans les films de la première trilogie. Lucas a avoué certaines de ses sources comme Flash Gordon ou les films de samouraïs du japonais Akira Kurosawa (La forteresse cachée notamment, d’où il aurait tiré l’idée du couple R2D2 et C3PO). Mais les inspirations « inavouées », à l’image de la BD Valérian et Laureline, sont encore plus nombreuses dans Star Wars. C’est ce qui explique que George Lucas figure en bonne place dans le documentaire Everything Is A Remix de Kirby Ferguson sorti en 2010. Le propos de cette série est de montrer que la création est rarement « originale » et qu’elle procède le plus souvent par réutilisation de contenus préexistants. Pour Star Wars, analysé dans le premier volet (voir ci-dessous à partir de 9.20 mn), Kirby Fergusson identifie de nombreuses scènes qui constituent des décalques presque à l’identique de plusieurs films antérieurs, qu’il s’agisse de westerns, de films de guerre ou de science-fiction.

Le génie de George Lucas donc n’a pas consisté à faire sortir Star Wars tout armé de son esprit, mais à sublimer ces différents emprunts et références pour les fondre en un tout qui dépasse de très loin la somme de ses parties. Et c’est au contraire exactement ce que Besson n’a pas réussi à faire avec son Valérian, qui s’effondre littéralement sous le poids de ses inspirations.

Il faut d’ailleurs noter que ce phénomène de « panne créative » n’affecte pas uniquement Luc Besson, mais concerne aujourd’hui beaucoup plus largement l’industrie du cinéma. Les blockbusters, notamment dans le domaine de la science-fiction, semblent avoir de plus en plus de mal à se dégager des productions antérieures pour proposer quelque chose nouveau aux spectateurs. C’est la conclusion à laquelle arrive Kirby Fergusson dans le dernier volet de sa série Everything Is A Remix, consacré à l’épisode VII de Star Wars (Le Réveil de la Force). Par peur de prendre trop de risques et de décevoir les fans de la saga, Disney a fait de ce film une sorte de remix de l’épisode IV de 1976 (Un nouvel espoir), aussi bien dans sa structure générale que dans certaines de ses scènes, reproduites presque à l’identique (voir ci-dessous).

Il en résulte une sensation dérangeante de ressassement et Kirby Fergusson conclut en faisant remarquer que s’il existe des remix créatifs, il en est d’autres qui restent stériles et dérapent dans la « cannibalisation » d’oeuvres préexistantes. On pourrait presque faire à ce sujet une analogie avec les préceptes du bouddhisme. Cette religion professe que pour atteindre la félicité du Nirvana, l’âme doit parvenir à se libérer du Saṃsāra, le cycle perpétuel des réincarnations. De la même manière, l’âme de la création a aussi besoin d’arriver à se libérer du cycle des remix pour apporter quelque chose de nouveau, sans quoi l’exercice reste vain.

Samsara, le cycle des réincarnations dans la religion bouddhique. (Domaine public. Source : Wikimedia Commons).

J’ai très souvent défendu sur ce blog le Remix, le Mashup et les autres formes d’usages transformatifs, qui sont essentielles à mes yeux pour la dynamique même de la création. La légitimité de ces pratiques nécessite selon moi une réforme en profondeur des règles du droit d’auteur, pour faire cesser la prohibition qui pèse actuellement sur elles. Mais il importe également de rester vigilants, car les industries culturelles ont bien compris que le Remix, à mesure où il sort de sa niche pour devenir plus populaire, pouvait aussi constituer un filon juteux. En un sens, cet « hommage » rendu par les industries culturelles pourrait constituer une bonne nouvelle, dans la mesure où les pratiques transformatives s’en trouveraient reconnues. Mais une boursouflure à 200 millions d’euros comme Valérian montre surtout à quel point cette logique industrielle peut dévitaliser le Remix et lui enlever son potentiel créatif.

Ce n’est d’ailleurs pas un hasard si les pratiques amateurs constituent encore aujourd’hui le terreau le plus fécond pour la pratique du Remix. Ne disposant pas des millions de dollars et des moyens techniques délirants des industries culturelles, ceux qui écrivent des fanfictions ou tournent des fanfilms sont obligés de mettre dans leurs histoires ce qui fait tant défaut au film de Luc Besson : un vrai scénario, de vrais personnages et un vrai respect pour les univers auxquels ils empruntent. J’ai noté à ce sujet dans un article du Hollywood Reporter ce passage ironique où un journaliste espère que les fans s’empareront du Valérian de Besson pour l’améliorer

Il y aura certainement un jour une édition fan-cutée de Valerian qui circulera sur Internet et sera projetée sur les campus des universités comme l’un des meilleurs et des plus colorés films de science-fiction jamais réalisés, mais en attendant, le film n’a pas ce qui faisait que Star Wars arrivait à surmonter ses lacunes.

Avis aux amateurs ? ;-)

Les Archives nationales montrent la voie de l’Open Data culturel !

Lentement (mais sûrement), les choses sont en train de bouger dans le monde culturel en faveur de l’ouverture des données. J’ai déjà eu l’occasion d’écrire à ce sujet en avril dernier à propos de l’évolution graduelle des politiques des bibliothèques, mais c’est du côté des archives publiques qu’une excellente nouvelle est tombée cette semaine : les Archives nationales ont adopté un nouveau règlement appliquant un principe de gratuité par défaut pour la réutilisation des informations publiques qu’elles détiennent (voir l’article écrit par Marc Rees sur NextINpact à ce sujet).

Cette décision est loin d’être anodine, à plus d’un titre. Rappelons tout d’abord que si les administrations françaises sont soumises depuis le vote de la loi République numérique l’an dernier à un principe « d’Open Data par défaut », ce n’est pas le cas des institutions culturelles qui relèvent encore d’un régime d’exception. La loi Valter, adoptée quelques mois avant la loi Lemaire, a certes fixé un principe de gratuité, mais en ménageant la possibilité pour les bibliothèques, archives et musées de continuer à percevoir des redevances de réutilisation pour les « informations issues des opérations de numérisation des fonds et des collections […] et, le cas échéant, sur des informations qui y sont associées lorsque ces dernières sont commercialisées conjointement« . Cela signifie que la réutilisation des reproductions numériques produites par ces établissements, ainsi que les métadonnées associées, peut continuer à être monnayée.

Mais les Archives nationales ont précisément fait le choix de ne pas appliquer ce régime dérogatoire et d’abroger leur précédente grille de tarifs datant de 2010. Cela signifie que la libre réutilisation devient la règle pour « les documents librement communicables à tous et sur lesquels des tiers ne détiennent pas des droits de propriété intellectuelle. » Il persistera bien des exceptions à ce principe, mais elles découlent logiquement de la législation en vigueur. Elles concernent : «  les documents qui ne sont pas encore librement communicables au regard du code du patrimoine ou d’autres dispositions législatives, les documents d’origine privée conservés aux Archives nationales mais dont l’accès ou l’exploitation sont soumis à restrictions ainsi que les œuvres de l’esprit qui ne sont pas encore tombées dans le domaine public. » Ce dernier passage est d’ailleurs important, car on en déduit a contrario que la gratuité concernera bien les oeuvres du domaine public. Il ne s’agit donc pas uniquement d’une politique d’Open Data, limitée à des informations, mais aussi d’un Open Content. Les Archives nationales avaient déjà commencé à s’engager dans cette voie grâce à un partenariat conclu avec Wikimedia France pour la libre diffusion de plus de 500 documents numérisés remarquables issus de leurs collections. On devrait logiquement assister à présent à une amplification de cette politique, qui est déjà la norme aux Etats-Unis ou en Allemagne.

Les Archives nationales sont déjà présentes sur Wikimedia Commons.

Les Archives nationales tirent aussi les conséquences du mécanisme d’Open Data « à la demande » mis en place dans la Loi Lemaire. Elles précisent en effet qu’elles seront « tenues de satisfaire les demandes faites au titre du droit d’accès, donc de remettre, le cas échéant, des copies des documents dès lors qu’ils sont librement communicables« . Cela signifie que si des copies numériques de documents existent, les AN seront obligées de les fournir aux demandeurs qui bénéficieront alors « d’un droit non exclusif et gratuit de libre réutilisation à des fins commerciales ou non, dans le monde entier et pour une durée illimitée« . On notera que les AN ont par contre fait le choix de ne pas appliquer de licence particulière à leurs données (comme la Licence Ouverte d’Etalab ou l’ODbL, par exemple). C’est tout à fait possible, les licences de réutilisation étant facultatives lorsque la réutilisation est gratuite. Ce sont les règles de base du Code des Relations entre le Public et l’Administration qui s’appliqueront par défaut, ce qui revient dans les faits à peu près aux mêmes conditions que la Licence Ouverte (libre réutilisation à charge de citer la source des données).

La décision des Archives nationales de passer à un Open Data par défaut a une portée symbolique importante, car le domaine des archives publiques est certainement l’un de ceux pour lesquels la réutilisation a soulevé jusqu’à présent le plus de crispations. Au niveau des archives départementales, un conflit a même éclaté avec la société de généalogie NotreFamille.com (rebaptisée depuis l’an dernier Filae) à propos de la réutilisation des données d’état civil. Cette querelle a même fini par dégénérer en contentieux et elle a encore connu des rebondissements après le vote de la loi Valter. Résultat : rares sont les archives municipales et départementales à s’engager dans des politiques d’Open Data aujourd’hui. En matière d’archives, l’essentiel de l’effort de numérisation au plan national a pourtant été porté par les départements et les Archives nationales, paradoxalement, ne sont pas aussi avancées en la matière que peut l’être la Bibliothèque nationale de France. Mais l’application de la gratuité par défaut aux AN reste un message important envoyé à l’ensemble de la sphère des archives, et même au-delà.

Plusieurs signes ces derniers mois montrent que les mentalités sont lentement en train d’évoluer dans le champ culturel. En mars dernier, le lancement du portail France Archives mis en place par le SIAF avait déjà été l’occasion de faire passer en Open Data les données d’inventaire des Archives nationales et départementales. Les choses avancent aussi en matière d’Open Content, comme le montrent par exemple les Archives des Hauts-de-Seine, qui ont publié ce mois-ci sous Licence Ouverte près de 2000 cartes postales numérisées sur le portail Open Data du département. Mais la nouvelle la plus spectaculaire en matière d’Open Data culturel est venue ces derniers jours de Toulouse. Les Archives municipales de la ville rose s’étaient déjà montrées pionnières en libérant dès 2013 leurs données et leurs contenus numérisés. A la fin du mois de juin, le Conseil municipal a décidé d’étendre cette politique à l’ensemble des établissements culturels de la ville : archives, musées et bibliothèques. Les données produites par ces institutions sont placées sous licence ODbL (avec une clause de partage à l’identique), tandis que les reproductions d’oeuvres du domaine public sont complètement ouvertes. C’est la première fois en France, à ma connaissance, qu’une politique globale d’Open Data culturel est appliquée à l’échelle d’une ville.

Des reproductions 3D d’objets conservés au Musée Saint-Raymond de Toulouse, librement réutilisables sur la plateforme Sketchfab.

Ce que ces exemples montrent, c’est qu’un nombre croissant d’établissements culturels font à présent le choix de ne pas appliquer le régime dérogatoire en matière de réutilisation que la loi Valter avait pourtant aménagé pour eux. J’avais déjà écrit en avril dernier un billet à propos de l’évolution sensible en faveur de l’ouverture que l’on constate du côté des bibliothèques. Près de la moitié d’entre elles pratiquent à présent la libre réutilisation des contenus qu’elles numérisent, notamment les bibliothèques universitaires et de recherche. Le secteur culturel le plus en retard en France en matière d’ouverture reste celui des musées. Cela s’explique en partie à cause de l’influence d’un établissement comme la RMN (Réunion des Musées Nationaux) dont l’agence photographique continue à commercialiser les reproductions des oeuvres du domaine public des musées pour lesquels elles numérisent les collections.

Mais on commence à voir que ce modèle de commercialisation des données arrive à bout de souffle. La ville de Paris a par exemple fait un choix similaire en confiant la gestion de ses fonds numérisés à une institution privée : la Parisienne de photographie. Or cette dernière connaît visiblement des problèmes de rentabilité suffisamment sérieux pour que sa suppression soit envisagée par la ville. Ces difficultés financières n’ont à vrai dire rien de surprenant, car on sait que la RMN est elle aussi lourdement déficitaire et qu’un trou inquiétant se creuse chaque année un peu plus dans son budget…

Le « trou de la RMN » tel que révélé par une question parlementaire en 2015.

Si les établissements culturels renoncent de plus en plus par eux-mêmes à lever des redevances de réutilisation sur leurs données, c’est qu’ils se rendent compte qu’il ne s’agit pas d’une manière pérenne de financer leurs activités de numérisation. La rentabilité n’est tout simplement pas au rendez-vous, tandis que les « dégâts collatéraux » provoqués par ce type de politiques sont importants. On pense notamment à la réutilisation des images par les chercheurs dans les articles publiés dans des revues scientifiques, qui se trouve fortement entravée lorsque le paiement de redevances est imposé.

De ce point de vue, les institutions culturelles doivent se rendre compte qu’elles sont dans une situation absolument identique à toutes les autres administrations : en dehors de quelques exceptions limitées, les données publiques n’ont qu’une faible valeur d’échange, alors qu’elles ont une forte valeur d’usage. Appliquer des redevances revient à neutraliser l’essentiel de cette valeur d’usage, sans être en mesure de dégager des ressources propres suffisantes pour auto-financer les activités des établissements. Et cela peut même s’avérer un piège redoutable, comme le montre ce qui est train d’arriver à la Parisienne de photographie, qui joue à présent sa survie pour avoir défendu ce modèle de marchandisation du patrimoine…

C’est ce constat lucide sur la valeur des données, fait notamment par le rapport Trojette en 2013, qui a conduit à la consécration du principe d’Open Data par défaut dans la loi Lemaire. Le Conseil National du Numérique avait d’ailleurs explicitement recommandé de ne pas faire d’exception pour les données culturelles et de les réintégrer dans le droit commun. La loi Valter en a décidé autrement, mais elle risque à présent de subir une forme d’abrogation par l’usage. C’est à mon sens une fatalité à long terme, car les redevances de réutilisation ne constituent pas en réalité un modèle économique, mais un modèle idéologique, lié à une tradition solidement ancrée dans notre pays de contrôle de la culture en complet décalage avec les réalités de l’économie de l’abondance.

Comme l’atteste la décision des Archives nationales, les établissements culturels peuvent faire le choix de dépasser cette vision passéiste de leur rôle. C’est la première fois qu’une institution de cette envergure adopte une politique générale d’Open Data et cela marque sans doute un jalon. Au niveau national, la Bibliothèque nationale de France (BnF) pratique déjà l’Open Data pour ses données bibliographiques placées sous Licence Ouverte depuis 2014. Mais les reproductions d’oeuvres du domaine public diffusées par la bibliothèque numérique Gallica font toujours l’objet de redevances de réutilisation. Et du côté des musées, force est de constater qu’aucun établissement national ne s’est pour l’instant engagé dans une politique d’ouverture, alors même que les exemples étrangers commencent à devenir significatifs (le Metropolitan Museum en a apporté la preuve en février dernier en libérant 375 000 images). On attend également à présent de voir quelles seront les orientations du nouveau Ministère de la Culture en la matière, car l’Open Data culturel constitue à l’évidence un enjeu national.

***

Les Archives nationales ont été créées à la Révolution française par la loi du 7 messidor de l’An II qui affirmait un principe de libre consultation des documents d’archives reconnu à tous les citoyens. Plus de deux siècles plus tard, une nouvelle page de cette histoire se tourne avec le passage à un principe de libre réutilisation des données, qui constitue le prolongement moderne de cette philosophie républicaine.

Vers la possibilité d’un Copyleft pour libérer les semences ?

Le mois dernier, la nouvelle s’est diffusée qu’une initiative avait été lancée depuis l’Allemagne pour proposer une licence libre applicable aux semences. Ce projet, porté par l’organisation à but non-lucratif Agrecol, s’intitule Open Source Seeds et il a pour objet d’appliquer à la culture des végétaux les principes du Copyleft appliqués depuis les années 90 dans la sphère du logiciel libre, par le biais d’instruments comme la licence GNU-GPL. Le journal d’Arte a consacré un court reportage à ce sujet, qui permet de bien cerner l’intérêt et les enjeux de la démarche.

A vrai dire, ce n’est pas la première fois que des licences libres applicables aux semences sont proposées et j’ai déjà eu l’occasion d’en parler deux fois sur ce blog : la première en 2013 et la seconde l’an dernier, à propos de deux licences en provenance des Etats-Unis. Les deux fois, j’avais souligné l’importance de tels projets, mais aussi les questions juridiques épineuses qui se posent au sujet de la validité de tels instruments. En effet, les semences ne relèvent pas des mêmes types de droits que les logiciels, qui sont automatiquement protégés par le droit d’auteur. En Europe, les variétés végétales sont couvertes par des COV (Certificats d’Obtention Végétale) et aux Etats-Unis, les caractéristiques des plantes peuvent aussi être protégées par le biais de brevets. Or l’acquisition de ces droits s’opèrent par le biais de procédures de dépôt, ce qui complique sensiblement l’articulation avec une licence libre

Mais ce nouveau projet Open Source Seeds ne se positionne pas de la même façon et il semble avoir trouvé une manière d’appuyer sa licence sur un fondement juridique original, qui permettra peut-être enfin de contourner les difficultés auxquelles se sont heurtées les tentatives précédentes. Cette prouesse mérite d’être saluée et je voulais prendre le temps d’expliquer la manière dont cette licence fonctionne.

De l’importance du Copyleft pour les semences

La première question que l’on est en droit de se poser, c’est de savoir quelle analogie il existe entre les semences et les logiciels et pourquoi il peut être intéressant de leur appliquer une licence libre. Ces raisons sont expliquées dans la documentation du projet, et notamment l’article « Liberating Seeds With An Open Source Seed Licence« , écrit par Johannes Kotschi et Klaus Rapf, qui a été traduite en français par Adrien Labaeye (cliquez ici pour télécharger cette traduction). Ce dernier propose d’ailleurs de traduire « Open Source Seed Licence » par « Licence Semence Libre » et je vais le suivre dans cette voie pour la suite de ce billet.

Il faut en effet savoir que les semences agricoles, qui historiquement ont été développées comme des Communs par un lent processus de sélection opéré sur des siècles par des générations de paysans, ont fait l’objet au cours du 20ème siècle d’un phénomène de privatisation et d’enclosure, à mesure qu’elles ont été saisies par des droits de propriété intellectuelle. Ce système, qui était censé à l’origine encourager l’innovation, a conduit à la concentration de ces droits entre les mains d’un petit nombre de firmes de l’industrie semencière (Monsanto, Bayer, Syngenta, etc.), qui se retrouvent de fait dans une situation d’oligopole extrêmement défavorable aux agriculteurs du monde entier (voir l’excellent documentaire ci-dessous pour en savoir plus).

La situation est donc en réalité très proche de ce qui s’est produit avec l’avènement des logiciels propriétaires dans les années 80, lesquels ont entraîné une riposte de la part du mouvement du logiciel libre. Le Copyleft, inventé par Richard Stallman pour le projet GNU-Linux, est venu répondre au Copyright pour garantir les libertés des utilisateurs et s’assurer que celles-ci ne pourraient plus être retirées une fois accordées. C’est exactement la même philosophie que les porteurs du projet Licence Semence Libre veulent appliquer aux végétaux :

Avec cette licence, Agrecol a trouvé un moyen de préserver les semences comme communs. « Libre » , dans la tradition de l’open-source, signifie que la semence reste libre d’accès et de droits de propriété intellectuelle tels que les certificats d’obtention végétales ou les brevets. Dans le même temps libre, dans le sens d’open-source, n’est pas équivalent d’un accès libre de tous droits et régulation. Il s’agit plutôt de protéger un bien en tant que commun, autrement dit, de le protéger de toute tentative de privatisation. Les règles de l’open-source ont d’abord été établies par des informaticiens à travers le projet GNU qui a défini et conduit à la création de la General Public License (GPL) et, plus récemment, aux licences Creative Commons qui s’appliquent aux créations généralement soumises au droit d’auteur.

La Licence Semence Libre autorise le bénéficiaire à utiliser la semence à des fins personnelles, à la multiplier, la donner, l’améliorer ainsi qu’à distribuer tout matériel génétique résultat d’une sélection ou amélioration. Simultanément, le bénéficiaire de la licence s’engage à céder ces mêmes droits à tout détenteur de la semence et des améliorations éventuelles et à s’abstenir de toute restriction
(brevet, certificat d’obtention végétale). Cette obligation est dite « virale » et généralement appelée « copyleft ». Avec le premier dépôt de licence, une chaîne de contrat est initiée et ce, en principe, sans limitation dans le temps. Les bénéficiaires de la licence en deviennent les titulaires. Ce faisant, la licence protège un commun qui ne peut plus être transféré dans le domaine privé.

On comprend l’intérêt d’appliquer ces principes de réciprocité qui ont prévalu pour le logiciel libre aux semences : l’obtenteur d’une nouvelle variété de végétaux obtenue par sélection peut grâce à cet instrument la mettre en partage et permettre à d’autres sélectionneurs de l’améliorer pour produire des variétés dérivées, par exemple mieux adaptées à des conditions de culture différentes ou présentant de nouvelles caractéristiques intéressantes. Mais le copyleft figurant dans la licence impose une règle de partage à l’identique (Share Alike), qui oblige tout utilisateur ayant produit une variété dérivée de la placer à son tour sous la même licence. De cette manière, on arrive à ce qu’une première variété libérée crée toute une « lignée » de végétaux libres, qui ne pourront plus refaire l’objet d’exclusivités et sur lesquels les droits d’usage demeureront perpétuellement ouverts.

Problèmes récurrents de validité…

Le problème, c’est que si cette démarche est relativement simple à mettre en oeuvre pour les logiciels, ce n’est pas le cas pour les végétaux. Les programmes informatiques, tout comme l’ensemble des oeuvres de l’esprit relevant de la propriété littéraire et artistique (textes, musiques, vidéos, peintures, dessins, etc.), sont automatiquement protégés par le droit d’auteur dès leur création, sans formalité à accomplir. Le droit d’auteur étant aussi bien un droit d’autoriser que d’interdire, il permet aux créateurs d’utiliser des licences libres pour accorder par voie contractuelle des autorisations générales de réutilisation, tout en continuant à fixer certaines obligations. C’est donc bien dans le droit d’auteur que le Copyleft des logiciels libres trouve son fondement et son caractère opposable à des tiers, qui peut être sanctionné en justice en cas de manquement.

La logique juridique à laquelle les semences sont soumises est différente. Un sélectionneur qui obtient une nouvelle variété n’entre pas automatiquement en possession d’un titre de propriété intellectuelle. Il doit pour cela accomplir une démarche particulière d’enregistrement dans le but d’obtenir un Certificat d’Obtention Végétale (C.O.V), voire un brevet aux Etats-Unis. Or cette procédure n’est pas gratuite et elle nécessite que la variété réponde à un certain nombre de critères fixés par la réglementation (dits DHS pour Distinction, Homogénéité, Stabilité).  A défaut de pouvoir s’arrimer à un tel titre de propriété préexistant, appliquer une licence à des semences pose des problèmes de validité juridique, car cela revient à bâtir une maison sans l’appuyer sur des fondations.

Des étiquettes indiquant que des variétés végétales font l’objet de COV, avec pour conséquence une « multiplication interdire sans autorisation ».

Les porteurs de la première licence Open Source pour les semences que j’avais repérée en 2013 et analysée sur ce blog avaient conscience de ces difficultés et ils exprimaient même des doutes quant à la validité des contrats qu’ils proposaient :

Il n’est pas certain que les conditions imposées par la licence puissent avoir une valeur juridique les rendant opposables. Il est possible qu’elles doivent être plutôt regardées comme un code de bonnes pratiques à respecter sur une base volontaire.

L’an dernier, un autre projet dont j’avais parlé sur le blog avait essayé de trouver une voie différente, en s’appuyant sur une forme « d’auto-obligation » de l’utilisateur. Leur licence était inscrite sur les paquets de graines à libérer et elle se « déclenchait » au moment où l’utilisateur le déchirait pour l’ouvrir. Celui-ci était alors réputé avoir accepté les conditions d’utilisation fixées par la licence, aux termes desquels il s’engageait à ne pas restreindre l’utilisation de ces graines ou de tout dérivé produit  à partir d’elles. C’était donc l’équivalent d’un Copyleft, mais s’appuyant uniquement sur une base contractuelle là où les licences de logiciel libre peuvent profiter par ricochet de la force de dispositions légales. Or si le procédé était astucieux, il n’était pas certain qu’il passe l’épreuve de la validité juridique devant un juge.

Les licences libres appliquées aux semences se heurtaient donc jusqu’à présent à une forme d’impasse, d’ailleurs assez similaire aux difficultés rencontrées par le mouvement de l’Open Hardware pour appliquer les principes du logiciel libre au matériel. Comme pour les Certificats d’Obtention Végétale, les objets physiques peuvent relever du droit des brevets ou de celui des dessins et modèles, qui ne s’obtiennent pas automatiquement, mais par des procédures de dépôt. Des tentatives ont bien été faites d’écrire des licences Open Hardware (TAPR Licence, CERN Licence), mais aucune n’a pour l’instant réellement réussi à convaincre quant à sa validité (voir ici pour une synthèse sur la question).

Trouver un nouveau fondement dans le protocole de Nagoya ?

Pour essayer de sortir de cette impasse, les porteurs du projet Open Source Seeds se sont tournés vers le Protocole de Nagoya « sur l’accès aux ressources génétiques et le partage juste et équitable des avantages découlant de leur utilisation« .  Ce traité international conclu en 2010 a pour but de défendre la biodiversité et de combattre ce que l’on appelle la « biopiraterie« , c’est-à-dire l’appropriation illégitime des ressources génétiques et des connaissances traditionnelles autochtones. De nombreux abus ont en effet eu lieu, lorsque des firmes pharmaceutiques, issus généralement des pays du Nord, ont déposé des brevets sur les propriétés de certaines plantes, avec pour effet de « déposséder » des populations autochtones qui en faisaient usage, parfois depuis des siècles.

Pour remédier à cette situation, le protocole de Nagoya essaie de trouver un compromis, en permettant d’une part l’accès pour les entreprises aux ressources génétiques, mais en conférant d’autre part aux populations autochtones le droit de consentir à l’usage de leurs connaissances traditionnelles et de fixer en retour des conditions, notamment pour percevoir un retour sur les bénéfices réalisés par les firmes. Le protocole de Nagoya est entré en vigueur depuis 2014 et il a été ratifié par un grand nombre de pays dans le monde (dont la France, mais pas les Etats-Unis).

D’après les promoteurs du projet Open Source Seeds, le Protocole de Nagoya constituerait un fondement juridique sur lequel une licence peut s’appuyer pour s’appliquer à des semences :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

De la même manière que les licences applicables aux logiciels libres ne tirent pas leur force uniquement de leurs clauses contractuelles, mais s’appuient sur un fondement supérieur (les législations sur le droit d’auteur, elles-mêmes fondées sur des traités internationaux comme la convention de Berne), la licence Semence Libre pourrait donc s’appuyer sur une norme de droit objectif, en l’occurrence le Protocole de Nagoya.

En bleu les Etats parties au Protocole de Nagoya ; en vert les pays où le texte est signé, mais pas ratifié. Source / Wikipedia.

Le texte du Protocole accorde en réalité une place importante aux Etats dans la détermination des conditions du partage équitable des avantages liés aux ressources génétiques, et c’est d’ailleurs un aspect qui a fait l’objet de critiques, dans la mesure où certains lui reprochent d’avoir en quelque sorte « étatisé » les connaissances traditionnelles, en cantonnant les communautés dépositaires à un rôle assez marginal. Le mécanisme de partage des avantages est parfois aussi accusé de risquer de dériver paradoxalement vers une nouvelle forme de marchandisation de ces connaissances, lorsqu’il prend une forme financière.

Néanmoins, il paraît possible d’en faire une autre lecture selon laquelle des licences libres pourraient constituer une manière pour les détenteurs de droits sur une ressource génétique d’exprimer et d’imposer les conditions d’accès et de réutilisation à des tiers. La différence, c’est qu’au lieu d’un partage des avantages sous forme de retour monétaire, l’approche par les licences libres imposerait un « partage à l’identique » (Copyleft), selon une logique de réciprocité et de constitution d’un bien commun.

Cette logique « contractuelle » se lit en filigrane dans ce type de passages que l’on retrouve dans le texte du Protocole :

Conformément à son droit interne, chaque Partie prend, selon qu’il convient, les mesures appropriées pour faire en sorte que l’accès aux connaissances traditionnelles associées aux ressources génétiques détenues par les communautés autochtones et locales soit soumis au consentement préalable donné en connaissance de cause ou à l’accord et à la participation de ces communautés autochtones et locales, et que des conditions convenues d’un commun accord soient établies.

Et le texte parle bien de la possibilité de passer par la mise en place de « clauses contractuelles type » pour régler le partage des avantages :

Chaque Partie encourage, selon qu’il convient, l’élaboration, la mise à jour et l’utilisation de clauses contractuelles types sectorielles et intersectorielles pour les conditions convenues d’un commun accord.

Quid de la commercialisation des semences libérées ?

Tous les problèmes ne seront pourtant pas réglés, même si on admet que les licences libres sur les semences puissent trouver un fondement valable dans le Protocole de Nagoya. Une autre difficulté susceptible d’affecter les semences libres concerne en effet les conditions de leur commercialisation. Au sein de l’Union européenne, les semences doivent faire l’objet d’un enregistrement dans un Catalogue Officiel qui conditionne la possibilité de les vendre. Or du fait des critères qu’il met en oeuvre, ce catalogue favorise mécaniquement les semences « propriétaires » protégées par des Certificats d’Obtention Végétale. Les variétés anciennes (dites aussi traditionnelles ou paysannes) sont difficiles à faire figurer au catalogue, ce qui restreint leur accès au marché et limite leur diffusion.

Les semences placées sous licence libre risquent de se heurter à ce même problème d’exclusion forcée du marché qui affecte les semences du domaine public. Les rédacteurs de la Licence Semence Libre en conviennent d’ailleurs et ils font référence à ces questions d’enregistrement au Catalogue dans la documentation :

Indépendamment de ces conditions, tout sélectionneur de semences utilisant la Licence Semence Libre pour de nouvelles variétés peut faire enregistrer ces dernières pour fins de commercialisation conformément à la régulation en vigueur. Une fois inscrite au Catalogue Officiel avec une dénomination de variété la nouvelle semence, même si elle ne bénéficie pas de protection, peut être commercialisée sous cette dénomination – par quiconque du fait de son caractère open-source (libre).

Il faudra voir à l’usage si des semences Open Source arrivent à obtenir leur inscription au Catalogue Officiel, car comme j’ai eu l’occasion de le montrer dans un billet récent, la commercialisation constitue un enjeu important, pour lequel se bat notamment une association comme Kokopelli, car elle est un vecteur à part entière de la diffusion des semences alternatives.

***

Au final, même si tous les problèmes ne seront pas immédiatement levés, cette nouvelle licence est néanmoins porteuse d’espoir, car elle va peut-être enfin permettre à la logique de l’Open Source de libérer des semences pour en faire à nouveau des Communs, en s’appuyant sur une base juridique valide. Ce serait d’ailleurs la première fois qu’une licence libre n’est pas assise sur la propriété intellectuelle et qu’elle parvient à s’autonomiser par rapport à ce fondement juridique. Pour l’instant, une variété de tomates et une autre de blé ont été déjà placées sous cette licence et la structure Agrecol se fixe comme objectif d’atteindre 20 variétés libérées en 2017. Si vous voulez soutenir cette initiative, parlez-en autour de vous et n’hésitez pas à verser un don.

 

Ressources pédagogiques, Learning Analytics et données personnelles

J’ai eu la chance récemment d’être invité pour intervenir lors des rencontres 2017 de la communauté Scenari (un logiciel libre permettant de créer des chaînes éditoriales pour produire  – entre autres – des ressources pédagogiques). On m’avait demandé à cette occasion de traiter le sujet des Learning Analytics (analyse des données d’apprentissage, en français) dans leurs liens avec la protection des données personnelles et je vous propose la présentation ci-dessous, qui essaie de balayer les divers aspects de la question.

Les Learning Analytics constituent un enjeu important du numérique appliqué aux activités pédagogiques, que ce soit à l’école, à l’université ou dans le secteur privé. C’est typiquement le genre de technologies présentant une nature « pharmacologique » – pour reprendre la notion de Pharmakon développée par Bernard Stiegler.  A la fois remède et poison, l’analyse des traces laissées par les utilisateurs des ressources pédagogiques offre des perspectives révolutionnaires d’accompagnement et de personnalisation des enseignements, de manière à ce que chacun puisse bénéficier au mieux des contenus numériques en fonction de son profil et de ses besoins.

Mais évidemment, ces outils technologiques peuvent aussi se révéler passablement intrusifs et porter atteinte à la vie privée des utilisateurs, en favorisant le fichage ou le profilage des individus, ainsi que la marchandisation des données qu’ils produisent en contexte d’apprentissage. La CNIL a d’ailleurs publié le mois dernier un article intéressant sur la question des Learning Analytics qui souligne bien cette nature ambivalente :

Si elles sont utiles à l’amélioration globale de la plateforme, la production et la réutilisation de ces données interrogent : elles pourraient tout aussi bien être utilisées pour prédire des situations d’échec, détecter des élèves à risque, enfermer les élèves dans des parcours scolaires « adaptés à leur profil »,  prédire les abandons dans les Moocs, voire même fournir des profils adaptés à des employeurs potentiels… Des finalités qui pour certaines, si elles ne sont pas encadrées, pourraient aboutir à des formes de discrimination.

[…] Au-delà de l’aspect juridique, des questions seront certainement à soulever du côté de l’éthique, dès lors que l’on cherchera à classer les élèves dès leur plus jeune âge pour repérer des cas de déviance, avec le risque de les enfermer dans des bulles d’échec. Pour que les données de leur enfance ne les poursuivent pas tout au long de leur vie.

Le (controversé) rapport « Enseignement supérieur et numérique », publié il y a quelques semaines par l’Institut Montaigne, accorde lui aussi une large place aux Learning Analytics, en lien avec l’enjeu du pilotage des établissements académiques :

L’analyse des données d’apprentissage (learning analytics) a également une importance capitale, puisqu’elle permet à la fois aux professeurs de connaître les attentes de leurs étudiants et leurs difficultés, et aux étudiants d’individualiser leurs parcours, d’identifier leurs faiblesses et de bénéficier d’une pédagogie sur mesure. La généralisation de cette analyse quantitative pourrait notamment être un moyen de lutter efficacement contre le décrochage en licence. Rappelons en effet que près de 60 % des inscrits en première année de licence ne passent pas en deuxième année. Plus globalement, elle constitue un réel levier pour améliorer la performance générale du système éducatif.

Il y a donc beaucoup de gains à attendre des Learning Analytics, mais elles risquent aussi de générer de redoutables externalités négatives, notamment si les communautés d’apprentissage ne maîtrisent pas les outils et l’environnement numérique où ces pratiques se dérouleront. On pense bien sûr ici aux effets de bord du partenariat signé entre l’Éducation nationale et Microsoft. À ce sujet, je vous recommande de lire la transcription de l’émission Rue des écoles- France Culture  « Élèves, tous fichés ? Quel encadrement pour le numérique dans l’éducation ? » , publiée par l’April, dans laquelle Daniel Agacinski pointe les risques de dépossession des institutions liés à l’utilisation d’outils propriétaires externes :

Mais il y a cette question, que vous avez évoquée aussi tout à l’heure, des traces d’apprentissage. Quand vous faites faire des exercices ou des leçons à des élèves, ou des interactions entre enseignants, par un certain nombre d’outils numériques qui sont à la disposition du grand public, avec ou sans conditions spécifiques à l’Éducation, vous laissez des traces d’apprentissage qui n’appartiennent, au fond, ni aux enseignants, ni aux élèves eux-mêmes, ni à l’Éducation nationale en tant qu’institution, mais à l’entreprise, au fabricant de cet outil-là.

Au fond, après, qu’il soit français, étranger, et que les données soient hébergées ici ou là, qu’est-ce qui se passe ? Il se passe que quand vous fabriquez un outil pédagogique et que vous l’ouvrez à un grand nombre d’utilisateurs, vous récupérez précisément ces traces d’apprentissage qui vont vous permettre de le développer et de l’améliorer considérablement. Or si, à moyen terme, les élèves français, les enseignants français, à force d’utiliser des outils que l’institution ne connaît pas complètement, ne maîtrise pas complètement, eh bien le travail que font les enseignants et les élèves au quotidien va, non pas servir à améliorer directement les pratiques des enseignants et la connaissance que l’Éducation nationale a de ses élèves, parce que vous disiez tout à l’heure l’Éducation nationale en sait beaucoup sur ses élèves, eh bien peut-être pas tant que ça, finalement ! L’Éducation nationale n’a pas les traces d’apprentissage .

Dans la présentation ci-dessus, j’essaie de passer en revue quelles sont les règles de protection des données personnelles applicables à ce type de traitements, dans le cadre de la réglementation CNIL actuellement en vigueur. Mais je m’efforce aussi d’anticiper des évolutions importantes à venir, notamment celle de l’entrée en vigueur l’année prochaine du Règlement Général de Protection des Données (RGPD) d’origine européenne, qui va profondément bouleverser la matière.

Là où la législation française reposait essentiellement sur des formalités préalables de déclaration à la CNIL, le règlement européen les supprime pour mettre en place un principe de « redevabilité » (accountability) qui va imposer aux établissements de définir a priori des politiques de protection des données (études d’impact, privacy by design, sécurisation, etc.). Par ailleurs, le règlement va désormais nécessiter de recueillir le consentement éclairé des personnes intéressées par un traitement des données personnelles, là où la loi française antérieure ne réservait cette obligation qu’à des hypothèses bien déterminées (données sensibles, cookies, prospection commerciale) et se limitait en dehors de ces cas à un devoir d’information préalable des individus. Si le règlement paraît globalement renforcer la protection des données et consacrer de nouveaux droits (comme celui à la portabilité des données), il a aussi des effets plus ambigus dans la mesure où certains acquis du cadre français paraissent fragilisés (l’exigence d’anonymisation des données par exemple est remplacée par une simple pseudonymisation moins protectrice). Le règlement permet aussi de mettre en place des pratiques de profilage prédictif du comportement des individus, qui peuvent avoir leur intérêt dans le cadre des Learning Analytics, mais dont le caractère intrusif pose aussi de nombreuses questions.

Au-delà du Règlement européen, j’essaie également de voir quelles vont être les incidences de la loi numérique sur les Learning Analytics. A priori, ces données devraient être concernées par l’obligation d’Open Data par défaut que la loi Lemaire impose aux administrations (y compris les universités). Cela signifie qu’elles devront mettre en ligne et rendre librement réutilisables les données d’apprentissage, sans pouvoir fixer de redevances de réutilisation (y compris pour les éventuels usages commerciaux réalisés par des entreprises). Mais ces principes ne vaudront que pour les données anonymisées, car l’Open Data par défaut ne s’applique pas aux documents contenant des informations à caractère personnel. Et cela ne concerna pas non plus le contenu des ressources pédagogiques elles-mêmes, lorsqu’il est protégé par le droit d’auteur. Une licence libre peut bien sûr être appliqué pour entrer dans la logique des Ressources Educatives Libres (REL), mais ce n’est pas une obligation pour les établissements.

Au final, le cadre juridique n’empêche pas bien sûr pas de déployer des technologies de Learning Analytics, mais il impose de prendre des précautions pour garantir les droits des individus concernés (information, consentement, accès, effacement, portabilité) et la maîtrise de leurs données. La mise en place peut être relativement simple si l’on se contente de traiter des données anonymisées (à condition de garantir que les réidentifications indirectes soient impossibles, ce qui peut ne pas être si évident). Mais il faudra établir des politiques de protection précises et spécifiques pour être en mesure d’effectuer des traitements de données personnelles, ce qui paraît inévitable si l’on veut bénéficier à plein du potentiel des Learning Analytics.

Ce sujet est extrêmement intéressant, car il se trouve au carrefour de plusieurs évolutions juridiques importantes – et parfois contradictoires, puisque les administrations vont bientôt se retrouver à devoir gérer en même temps des exigences accrues de protection, mais aussi d’ouverture. Il faudra sans doute du temps et beaucoup d’expérimentations pour trouver où positionner le curseur de manière à tirer le meilleur parti de ces technologies, sans fragiliser les droits des individus.

 

Humain, robotique, animal : que devient l’auteur ?

Ces dernières semaines, une succession de décisions de justice ont été rendues, suscitant de nombreux débats, qui interrogent profondément la définition de ce qu’est un auteur. Ces discussions ont porté sur des objets a priori disparates : une photographie de Jimi Hendrix, des transcriptions de manuscrits médiévaux, un selfie pris par un singe et des créations produites par des algorithmes. Bien qu’une telle liste puisse ressembler à un improbable inventaire à la Prévert, ces éléments ont pour point commun la manière dont ils questionnent le concept central d’originalité et à travers lui, la définition juridique de l’auteur.

La création a ses mystères, notamment sur le plan juridique ! (Michel-Ange. Domaine Public. Source : Wikimedia Commons).

Le Code de propriété intellectuelle se contente de présenter l’auteur comme celui qui crée une « oeuvre de l’esprit », sans donner de définition précise de celle-ci. La jurisprudence a ajouté au fil du temps deux critères d’éligibilité à la protection du droit d’auteur : la mise en forme des idées et l’originalité entendue comme « l’empreinte de la personnalité de l’auteur » dans l’oeuvre. Mais ce concept s’est toujours avéré extrêmement fuyant et imprévisible dans son applicable par les juges, avec de surcroît des divergences notables selon les pays. Il arrive ainsi que les tribunaux refusent la qualité d’auteur à un créateur, selon des critères difficiles à appréhender et parfois de manière assez déroutante.

Le fameux « Monkey Selfie » qui a déjà fait couler tant d’encre… (Source : Wikimedia Commons).

Mais au-delà de ce « flou ontologique » (ou peut-être justement à cause de son existence…), d’autres débats plus surprenants surviennent. La question revient par exemple de plus en plus souvent de savoir s’il faut reconnaître un droit d’auteur aux intelligences artificielles et aux robots lorsqu’ils produisent des créations comme des textes ou des musiques (voir par exemple cet article de synthèse sur The Conversation). Et cela fait maintenant près de six ans qu’une controverse improbable a éclaté pour savoir si un singe qui s’est pris en selfie avec un appareil photo trouvé dans la jungle doit être considéré comme l’auteur du cliché. La question paraît à première vue saugrenue, mais il est fort possible que la Cour suprême des États-Unis ait un jour à se prononcer sur cette affaire, finalement pas si anodine que cela…

Ces disputes peuvent sembler baroques au premier abord, mais je crois au contraire qu’elles permettent de mettre le doigt sur des aspects fondamentaux du droit d’auteur. Notamment, elles obligent à se repencher sur l’articulation entre des notions essentielles comme la liberté, la sensibilité, l’originalité, la personnalité et in fine l’humanité.

Insaisissable originalité…

Une grande partie des difficultés dans ces débats tient au caractère insaisissable du concept d’originalité, qui est pourtant considéré comme la « pierre angulaire du droit d’auteur« . De manière assez paradoxale, l’originalité se retourne souvent contre les créateurs, car elle constitue un argument utilisé en justice par ceux qui se défendent contre des accusations de contrefaçon, pour essayer de leur dénier la qualité d’auteur.

C’est ce qui s’est produit à propos d’une célèbre photographie de Jimi Hendrix, dans une affaire qui fit grand bruit en 2015 et dont la décision en appel est tombée la semaine dernière. Un vendeur de cigarettes électroniques avait détourné un portrait de Jimi Hendrix réalisé en 1967 par un célèbre photographe anglais, en remplaçant la cigarette de la rockstar par une vapoteuse.

La photographie en question, par Gered Mankowitz, qui va nous permettre de nous plonger dans les brumes opaques du concept d’originalité.

En première instance, le photographe – sans doute un peu trop confiant – ne s’est pas défendu de manière adéquate lorsque la partie adverse a répliqué en prétendant que cette photographie n’était pas originale. Dans une telle hypothèse, les juges demandent en effet à l’auteur de produire un discours dans lequel il doit justifier des différents choix opérés pour aboutir à la création de son oeuvre. Or les juges ont estimé que dans son argumentaire, le photographe n’avait pas assez distingué ce qui relevait de la pose prise par Jimi Hendrix de ses propres apports personnels, ne mettant pas « les défendeurs en mesure de débattre de l’originalité de la photographie litigieuse et le juge d’en apprécier la pertinence ». Le défaut d’originalité a de lourdes conséquences, car la photographie n’est alors plus considérée comme une « oeuvre de l’esprit » et le photographe n’est plus un auteur au sens juridique du terme. Le cliché appartient complètement au domaine public et il devient possible de le réutiliser, de l’exploiter et de le détourner librement, sans même avoir à citer le nom de la personne qui l’a produit.

Mais le photographe (ou plutôt ses avocats…) ont tiré les enseignements de cette première déconvenue et ils ont réussi à convaincre les juges d’appel de l’originalité de la photographie en modifiant leur discours. Ils ont insisté cette fois sur le choix du noir et blanc, du décor, de l’éclairage, de l’angle de vue, du cadrage et de l’appareil photo lui-même, permettant au juge de conclure que « la photographie en cause est le résultat de choix libres et créatifs opérés par le photographe traduisant l’expression de sa personnalité« . Si la décision a été accueillie avec soulagement dans le milieu des photographes professionnels, elle laisse aussi une impression mitigée sur la consistance même de la notion d’originalité, car on voit bien avec cet exemple sa profonde subjectivité et son caractère de discours produit a posteriori pour justifier de prétendues décisions conscientes, sans doute assez éloignées de la réalité du processus créatif lui-même.

Mais les choses se compliquent encore lorsque l’on sait que la manière dont les tribunaux français appréhendent l’originalité diffère sensiblement de la définition qu’en donne la Cour de Justice de l’Union européenne. Celle-ci s’efforce en effet depuis plusieurs années de pousser une conception plus objective et moins « personnaliste » de la notion d’originalité [voir notamment les décisions Infopaq (2009) et Eva Maria Painer (2011), cette dernière portant justement sur un portrait photographique]. La CJUE a érigé l’originalité en une « notion autonome du droit de l’Union », en définissant l’oeuvre protégeable comme « une création intellectuelle propre à son auteur« . Cela semble a priori assez proche de la conception française, mais pour certains juristes,  cette définition européenne serait plus objective que la traditionnelle « empreinte de la personnalité » chère aux juges hexagonaux.

En pratique, ces divergences subtiles introduisent des incertitudes tenaces pour identifier les oeuvres protégées et, par ricochet, qui est auteur. C’est ce que montre notamment une intéressante jurisprudence relative à la transcription de manuscrits anciens, dont j’ai déjà eu l’occasion de parler dans S.I.Lex, et pour laquelle nous avons également eu un jugement en appel la semaine dernière. Dans cette affaire opposant la librairie Droz à l’éditeur Garnier, il est question d’éditions critiques de manuscrits médiévaux opérées par des spécialistes à partir de multiples fragments de textes et pour lesquels l’original a été perdu. Cette opération ne peut se résumer à un simple déchiffrage : elle comporte assurément des choix effectués pour sélectionner telle version plutôt qu’une autre ou pour rétablir parfois des portions manquantes, en essayant de se rapprocher le plus possible du texte « originel ».

L’établissement d’éditions critiques à partir de manuscrits anciens. Un travail assurément intellectuel, mais pas « créatif » au sens du droit d’auteur. (Image Domaine public. Source : Wikimedia Commons).

En 2014, les juges de première instance avaient rendu un jugement qui a fait couler beaucoup d’encre, considérant que ce travail d’édition critique ne donnait pas lieu à l’attribution d’un droit d’auteur sur le texte reconstitué. La décision avait notamment été motivée par ce raisonnement :

Il convient de rappeler que le droit de la propriété intellectuelle n’a pas vocation à appréhender tout travail intellectuel ou scientifique mais uniquement celui qui repose sur un apport créatif qui est le reflet de la personnalité de son auteur.

Or en l’espèce, le savant qui va transcrire un texte ancien dont le manuscrit original a disparu, à partir de copies plus ou moins nombreuses, ne cherche pas à faire œuvre de création, mais de restauration et de reconstitution et il tend à établir une transcription la plus fidèle possible du texte médiéval, en mobilisant ses connaissances dans des domaines divers.

Cette position se comprend par rapport à une conception « subjectiviste » de l’originalité, mais elle pose question si on adopte une vision plus « objectiviste » destinée à protéger une « création intellectuelle propre » et pas uniquement « l’expression d’une personnalité ». La librarie Droz a d’ailleurs essayé de jouer sur ce point en appel, en présentant des tableaux montrant les différences entre les versions établies par ses spécialistes et celles existants déjà pour les mêmes textes (ce qui est typiquement une manière « objectivante » d’essayer de prouver l’originalité d’une production). Mais les juges d’appel ont maintenu la décision de première instance en considérant qu’aucune preuve d’un « travail créatif sur les textes » n’avait été apportée. Selon la Cour, « ces comparaisons portent sur des éditions réalisées à des époques différentes, avec des connaissances et des moyens qui avaient évolué, expliquant ainsi les divergences sans démontrer qu’elles sont le fruit de la créativité de leur auteur« . Les arguments liés à la ponctuation sont aussi inopérants, car celle-ci « obéit à des règles de grammaire et a pour but de rendre le texte intelligible, de même que l’utilisation de majuscules ou d’espaces qui en sont la conséquence et ne relèvent pas d’une création originale portant l’empreinte de son auteur.« 

On peut donc en déduire que, contrairement à ce que soutient toute une partie de la doctrine française, les juges hexagonaux semblent encore attachés à une conception « personnaliste » de l’originalité, ce qui a pour effet de border le champ d’application du droit d’auteur en laissant ici les transcriptions de manuscrits anciens dans le domaine public, mais avec pour conséquence que les spécialistes de ces travaux sont dénués du statut d’auteur. Tel est l’effet de cette originalité « à géométrie variable », mais ce n’est pas la seule surprise que nous réserve le concept…

L’animal sera-t-il un auteur comme les autres ?

Complexe déjà à saisir en ce qui concerne les humains, l’originalité peut provoquer des effets de bord plus étranges encore et rien ne le montre mieux que la célèbre affaire du Selfie de Singe (Monkey Selfie) ! En 2011, un macaque noir trouve dans la jungle indonésienne un appareil déposé à son campement par le photographe animalier David Slater. En jouant avec les boutons, il déclenche le mécanisme et prend une série d’auto-portraits assez extraordinaires. Après une série de péripéties rocambolesques (dont je ne vais pas reparler ici, ayant déjà écrit à ce sujet sur ce blog), le photographe – qui estime être l’auteur légitime de ces images parce qu’il aurait procédé aux réglages préalables de l’appareil… – est accusé de contrefaçon par l’association de défense des animaux PETA qui lui intente un procès aux États-Unis pour défendre les droits du singe ! Une première décision de justice a été rendue en 2015, qui a rejeté les prétentions de l’association au motif que le législateur américain n’a manifestement pas envisagé que le copyright puisse bénéficier aux animaux. La semaine dernière, les juges d’appel se sont réunis pour délibérer à nouveau et on attend (avec impatience !) le rendu de leur décision sous peu.

David Slater et le fameux macaque facétieux. Il y a un auteur sur cette image et un seul. Sauras-tu deviner où il est ? ;-)

Cette affaire provoque depuis plusieurs années des échanges nourris entre trois partis : ceux qui défendent les droits du photographe, ceux qui admettraient volontiers un copyright pour le singe et ceux qui estiment que cette image doit appartenir au domaine public. Je me situe pour ma part plutôt du côté de cette troisième solution, mais je trouve néanmoins que la plupart des commentateurs positionnent mal leurs arguments et qu’ils manquent l’essentiel de ce qui est en jeu dans cette affaire. Beaucoup cherchent en effet à tout prix à faire en sorte que quelqu’un soit propriétaire des droits sur cette photographe, et à ce compte, on peut tout à fait renvoyer le photographe et PETA dos à dos. Cela tient à mon sens au fait que nous vivons immergés dans un paradigme « propriétariste » et qu’il nous est difficile d’imaginer qu’une chose puisse n’appartenir à personne. De mon point de vue, cette photographie constitue pourtant (tout comme le singe,  d’ailleurs…) une res nullius, c’est-à-dire une chose sans maître n’appartenant à personne et le domaine public est le statut qui lui convient le mieux.

Ceci étant dit, je trouve également que les arguments de ceux qui s’opposent à la reconnaissance d’un droit d’auteur au bénéfice du singe sont généralement assez faibles, car on ne peut balayer cette hypothèse d’un simple revers de la main comme si c’était en soi une solution « inconstructible » en droit. J’avais d’ailleurs déjà écrit sur cette question de « l’Animal Copyright » (bien avant que n’éclate l’affaire du Monkey Selfie…) et le problème gagne à être réexaminé aujourd’hui. Les avocats de PETA se montrent en effet excellents et ils soulèvent des arguments assez redoutables. Leur angle d’attaque principal consiste à faire valoir que si la loi parle bien de « l’auteur », elle ne précise à aucun moment que celui-ci doit nécessairement être humain (ce qui est vrai aussi bien aux États-Unis qu’en France) et ils ajoutent :

La protection prévue par la loi sur le droit d’auteur ne dépend pas de l’humanité de l’auteur, mais de l’originalité du travail lui-même.

Nous voilà donc à nouveau ramenés sur le terrain de l’originalité, dont on peut a priori se dire qu’elle sous-entend nécessairement la présence d’un être humain. Mais les choses sont en réalité beaucoup plus complexes. PETA a notamment fait comparaître lors du procès un primatologue qui a expliqué que les singes ont une sensibilité et que les individus au sein de la même espèce présentent des « personnalités » distinctes, au sens de caractères propres. Il me semble néanmoins que, même sur cette base,  la position de l’association est indéfendable pour ce « selfie » en particulier, car cette photo a été prise par inadvertance et à vrai dire, même si c’était un humain qui avait appuyé ainsi sur le déclencheur d’un appareil, le cliché qui en aurait résulté n’aurait pas constitué une oeuvre protégeable. Mais cela n’implique pas à mon sens que l’on écarte sine die l’idée que, dans d’autres circonstances, les grands singes puissent bénéficier d’un droit d’auteur au titre de l’expression d’une sensibilité ou d’une « personnalité ».

Il existe par exemple des singes qui aiment peindre, comme ce fut le cas pour un chimpanzé dénommé Congo, qui vécut dans les années 50 et produisit plus de 400 toiles au cours de sa vie. Il s’était épris de cette activité après y avoir été initié par un zoologiste et Picasso en personne a acquis l’un de ses tableaux pour l’accrocher dans son atelier. Au-delà de cet exemple particulier, rappelons que depuis une réforme de 2015, les animaux ne sont plus considérés en France comme des choses (des « biens meubles » disait l’ancien Code Civil), mais comme des « êtres doués de sensibilité » et en Argentine, un orang-outang a même été reconnu en 2015 comme une « personne non-humaine ».

La qualité de la sensibilité, et même celle de la personnalité, peuvent donc très bien être attribuées aux animaux. Ce qui fait obstacle à la reconnaissance d’un droit d’auteur à leur profit, c’est plutôt le fait que les juges définissent « l’oeuvre de l’esprit » comme une « création intellectuelle » dont le créateur doit être capable de justifier l’originalité par la production d’un récit attestant des « choix libres » mis en oeuvre pour produire l’oeuvre. Difficile en effet d’imaginer que Naruto – nom donné au fameux macaque qui s’est pris en selfie – nous explique un jour ses choix créatifs (cela dit, méfions-nous quand même, parce que certains singes sont visiblement capables d’acquérir la capacité de manier des formes élaborées de langage…).

Mais à vrai dire, cette manière de raisonner est encore bien trop « anthropomorphique » et le droit lui-même ne fonctionne pas toujours ainsi. Car si certains sont « choqués » que l’on puisse envisager de reconnaître la personnalité juridique à des animaux, personne ne s’émeut plus qu’on l’attribue à des sociétés ou des collectivités publiques sous la forme de la personnalité morale. Or des personnes morales peuvent très bien aussi se voir reconnaître des droits de propriété intellectuelle. C’est chose courante aux États-Unis où le copyright sur les œuvres produites par des salariés appartient dès l’origine à leur employeur et donc aux entreprises pour qui ils travaillent (cas fameux par exemple des scénaristes d’Hollywood ou des créateurs de comics). Mais même en France, contrairement à la vulgate « beaumarchéenne » que l’on entend souvent, cette hypothèse est de plus en plus fréquente. Depuis plusieurs années, les tribunaux semblent en effet avoir une conception extensive de la notion « d’oeuvre collective » pour laquelle les droits appartiennent bien dès l’origine à l’employeur, même si en dehors d’une telle hypothèse, la Cour de Cassation répugne encore à aller trop loin en la matière.

Or si des personnes morales peuvent se voir reconnaître des droits d’auteur, pourquoi des animaux ne le pourraient-ils pas ? Pour ma part, je ne trouve pas la première hypothèse plus « naturelle » que la seconde, une société étant par définition un être de fiction. Tout est affaire d’opportunité et de choix de société, et c’est bien ce que les avocats de PETA essaient de défendre à travers ce procès. Car reconnaître un droit d’auteur aux singes ne leur fera sans aucun doute ni chaud, ni froid, mais c’est avant tout un levier juridique pour que des tiers, telle l’association PETA, puissent les représenter en justice et faire payer des droits sur l’exploitation de leurs « productions. » En ce sens, la notion d’auteur devient une sorte de simple « point d’imputation » au sens juridique, nécessaire pour qu’un intermédiaire puisse agir pour récupérer des sommes au nom de « l’auteur ». Cela ne vous rappelle-t-il rien ? Remplacez par exemple l’acronyme PETA par SACEM et vous verrez que le montage présente alors comme des airs de familiarité… Nous y reviendrons d’ailleurs plus loin, car historiquement, le droit d’auteur s’est toujours construit comme un instrument destiné à ce que des intermédiaires puissent bénéficier de droits cédés par les auteurs. Et si on arrive à quitter un instant les œillères de l’idéologie, on se rend compte que cela reste même sa fonction principale et la raison pour laquelle il a été construit comme un droit de propriété.

En ce sens « fonctionnel », l’idée d’un droit d’auteur pour les animaux n’est donc finalement pas plus absurde que le droit d’auteur lui-même et on va voir qu’il en va de même en ce qui concerne les machines.

Qui veut un droit d’auteur pour les machines ?

Depuis le début de l’année, la question de l’opportunité de créer un droit d’auteur pour les robots ou les intelligences artificielles revient sans cesse. Elle s’est même frayée un chemin jusqu’au Parlement européen, qui a officiellement demandé en février dernier à la Commission de faire des propositions de cadre légal en matière de robotique, incluant la création d’une « personnalité électronique » et des solutions concernant les droits de propriété intellectuelle sur leurs créations. Il est vrai que les progrès en matière de créations produites par des machines autonomes sont spectaculaires. Cela fait déjà un certain temps que des algorithmes sont capables d’écrire des chroniques météo, sportives ou boursières à partir de données. Mais l’an dernier, c’est un roman co-écrit par une intelligence artificielle qui a réussi à passer l’épreuve de sélection d’un concours de littérature au Japon. Et on apprenait la semaine dernière que Spotify a recruté un spécialiste français du machine learning pour qu’il développe des « outils d’assistance à la création musicale« , dont beaucoup soupçonnent qu’ils finiront par composer automatiquement des morceaux pour enrichir les playlists de la plateforme sans qu’elle ait à verser de droits à des humains.

A vrai dire, la question de la création assistée par ordinateur existe depuis longtemps, mais ce qui change aujourd’hui, c’est l’apparition de machines autonomes, capables de prendre des décisions indépendantes et donc de procéder à des choix. De manière intéressante, deux questions ressortaient dans le rapport du Parlement européen sur l’encadrement légal des robots : celle des éventuels droits de propriété intellectuelle à reconnaître aux machines et celle de leur responsabilité lorsqu’ils provoquent des dommages. Or le langage courant considère que l’on est « l’auteur d’une oeuvre » comme on est « l’auteur d’une faute ou d’une infraction ». L’accession à l’auctorialité constitue donc un élément déclencheur qui pourrait faire que les machines quittent le monde des objets pour basculer du côté des sujets de droits.

« Je crée donc je suis (un auteur) », pense cette machine…

Les termes de la question se posent à vrai dire dans des termes assez similaires à ceux de l’affaire du selfie de singe. Si les machines n’ont pas de droit d’auteur propre, il existe de fortes chances pour que leurs productions appartiennent directement au domaine public. Or notre système propriétariste a horreur du vide et il cherche donc à reconstituer un « point d’imputation » auquel il pourra raccrocher des droits exclusifs, de manière à pouvoir inclure à nouveau ces « actifs » sur des marchés. Et pour cela, on sent bien que beaucoup d’acteurs seraient prêts à couper le cordon ombilical entre le droit d’auteur et l’humanité (avec d’ailleurs sans doute beaucoup moins de remords théoriques que pour les singes !).

Là encore, le noeud gordien tourne autour de l’attribution de la personnalité juridique, raison pour laquelle certains avancent l’idée de créer une « personnalité électronique » que l’on pourrait reconnaître aux robots. Le sens commun répugne à cette idée, car il tend à voir dans la personnalité un attribut caractéristique des humains. Mais cette vision des choses est profondément fausse. Comme l’indique l’étymologie du terme (persona en latin, qui désigne le masque que portaient les acteurs de théâtre), la personnalité est une pure fiction juridique. Il a existé des époques où des humains étaient des choses et n’avaient pas la qualité de personnes (les esclaves, par exemple) et aujourd’hui encore, c’est la loi qui détermine arbitrairement que le foetus est dépourvu de personnalité juridique jusqu’à un certain stade de développement, variable selon les pays. Par ailleurs, nous avons vu que la personnalité pouvait être reconnue à des entités comme les entreprises ou les collectivités, suprême preuve de l’artificialité de la notion. Rappelons aussi qu’en mars dernier, un fleuve de Nouvelle Zélande s’est officiellement vu reconnaître par le biais d’une loi la personnalité juridique, ouvrant droit à une tribu Maori de représenter ses intérêts en justice.

Dès lors que l’on regarde en face cette artificialité foncière de la notion de personne juridique, il n’existe plus aucun obstacle théorique à ce qu’elle soit étendue aux robots et aux intelligences artificielles. Mais à vrai dire, raisonner ainsi est encore trop anthropomorphique, puisque dans l’absolu, même un vulgaire fer à repasser sans aucune intelligence, ni autonomie pourrait recevoir la personnalité juridique à condition qu’un législateur le décrète ! La question ne se pose pas en termes d’artificialité ou de naturalité, mais uniquement par rapport aux effets engendrés par l’attribution de cet attribut aux machines. Or ici, l’enjeu réel du débat porte sur l’antagonisme entre le domaine public et le droit de propriété. Soit les machines acquièrent une personnalité et il sera possible d’attacher des droits de propriété intellectuelle à leurs productions. Soit elles n’en auront pas et les créations qu’elles produiront n’appartiendront à personne. Or quelque chose me dit que notre époque a une aversion beaucoup plus forte envers le domaine public et l’absence de propriété qu’elle n’aura de scrupules à commettre l’apparent sacrilège de lèse-humanité qui consisterait à reconnaître un droit d’auteur aux machines !

Je mets donc ma main à couper que les arguments « humanistes » que l’on oppose à cette idée seront assez rapidement balayés et que de puissants intérêts économiques et industriels inscriront bientôt à l’agenda législatif la reconnaissance de droits de propriété intellectuelle pour les robots. Sans doute d’ailleurs avec d’autant plus de facilité que s’il paraît délicat d’étendre la notion « d’oeuvre de l’esprit » aux productions des animaux, cela le sera beaucoup moins pour les intelligences artificielles à qui l’on reconnaîtra plus volontiers une activité d’ordre « intellectuelle » et la capacité de faire des « choix autonomes » qui sont la marque même de l’originalité et le signe de « l’empreinte de la personnalité » (et ce alors même que « l’intelligence artificielle » n’a en réalité rien à voir avec l’intelligence des humains…).

Mais poussons ce raisonnement sur l’artificialité un cran encore plus loin, en nous replongeant dans les origines historiques véritables du droit d’auteur.

Se souvenir de l’artificialité originelle du droit d’auteur…

Dans ces discussions sur le droit d’auteur pour les machines ou pour les animaux, il y a quelque chose qui m’agace toujours prodigieusement, car ces débats sont environnés d’un épais voile idéologique qui obscurcit le raisonnement. Beaucoup considèrent en effet qu’il ne serait « pas naturel » de reconnaître un droit d’auteur aux animaux ou aux machines, mais ils oublient ce faisant que la consécration d’un droit d’auteur aux humains est en elle-même purement artificielle.

Rappelons en effet que le droit d’auteur est une invention historiquement récente qui date de 1709 en Angleterre et de la Révolution de 1789 pour la France. Auparavant durant des siècles – et alors que l’Humanité a toujours eu des activités créatives-, l’idée même du droit d’auteur est restée ignorée. C’est donc une pure construction légale qui l’a fait naître à un moment historique donné et rien ne garantit d’ailleurs que cette fiction existera toujours.

Mieux encore, il est important de se rappeler comment le droit d’auteur est né exactement et, surtout, par qui l’idée de le créer sous la forme d’un droit de propriété a été avancée. Pour cela (contrairement à ce qui est enseigné dans la plupart des facultés de droit), il faut remonter non pas à la Révolution française et aux combats de Beaumarchais face à la Comédie française, mais un peu avant sous l’Ancien Régime à la « Querelle des Libraires ».  Au début du XVIIIème siècle, les libraires (équivalent de nos éditeurs actuels) obtenaient des monopoles d’exploitation des ouvrages sous la forme de privilèges octroyés par le Roi. Mais ceux-ci étaient limités dans le temps, ce qui fait qu’après quelques années les livres pouvaient être publiés par n’importe quel libraire du pays. Or les libraires parisiens, qui avaient un accès plus facile aux auteurs, souhaitaient que ces privilèges deviennent perpétuels, de manière à ne pas souffrir de la concurrence des libraires de Province. L’affaire dégénéra en justice et c’est là que les libraires parisiens eurent l’idée d’inventer la propriété des auteurs.

Voyez ce qu’en dit l’historien du droit Laurent Pfister dans cet article :

C’est à partir de 1725 que les éditeurs parisiens s’efforcent de rendre leur monopole définitivement opposable à l’État royal qui menace de le leur retirer. Par la voix de leurs avocats, ils prétendent qu’ils détiennent sur les œuvres de l’esprit non pas des privilèges royaux mais une propriété privée perpétuelle et de droit naturel, qui leur a été cédée par ceux qui l’avaient acquise originairement en vertu de leur travail intellectuel : les auteurs.

On constate donc que dès l’origine, l’idée d’un « droit de l’auteur » n’est qu’un artifice, inventé par des intermédiaires pour assurer leur propre pouvoir en instrumentalisant les créateurs à leur avantage. Remplacez maintenant les libraires d’Ancien Régime par l’association PETA ou par les constructeurs de robots et vous verrez que nous nous retrouvons exactement dans la même situation. Tous ces débats révèlent au fond la vérité mise à nu du droit d’auteur : pour que des droits puissent être cédés ou transférés à des tiers, il faut d’abord construire juridiquement un « point d’imputation » que l’on appellera par convention « auteur ». Une fois des droits disposés sur ce point, il devient possible d’en organiser la transition vers d’autres acteurs économiques. Historiquement, ce sont des humains qui ont occupé les premiers ces points d’imputation, mais déjà aujourd’hui, on les voit de plus en plus remplacés par des personnes morales et demain, ils pourraient bien glisser vers des machines ou des animaux, au gré des évolutions de la législation. La même histoire se répètera fatalement si des intérêts suffisamment puissants arrivent à trouver l’oreille du législateur.

Droit de propriété VS droits sociaux

Ce que je trouve assez fantastique dans ces débats, c’est que notre époque arrive à envisager sérieusement d’attribuer des droits d’auteur aux machines ou aux animaux, mais elle n’a toujours pas trouvé de solution efficace pour que les auteurs humains puissent vivre dignement de leurs créations. Car si la fonction latente du droit d’auteur fonctionne parfaitement (organiser des transferts de droits de propriété de l’auteur vers des tiers économiques), sa fonction manifeste (donner aux auteurs les moyens de vivre) est plus que jamais défaillante. Les chiffres sont accablants : seule une infime minorité des créateurs est à même de vivre de ses droits d’auteur, tandis que la grande majorité reste condamnée soit à une grande précarité, soit à exercer d’autres activités professionnelles pour subvenir à ses besoins.

Or, quitte à réinventer le droit d’auteur, peut-être y a-t-il plus urgent que de penser à gâter les machines ou les animaux ? Quand s’attaquera-t-on réellement à faire du droit d’auteur autre chose qu’un droit de propriété pour le transformer en un véritable droit social, par lequel nous arriverons collectivement à une juste organisation permettant à un plus grand nombre de s’adonner à des activités créatrices ? La vérité, c’est qu’en rattachant le droit d’auteur à la notion d’originalité, on en a fait un concept désincarné – certes flatteur pour l’ego des artistes, car les érigeant au rang de démiurge – mais déconnecté du travail même de création, jamais pris en compte par le système. Et c’était aussi précisément tout l’enjeu de concevoir le droit d’auteur comme un droit de propriété que de le couper du travail du créateur, car si les industries culturelles payaient les auteurs comme des salariés – c’est-à-dire à raison de leur travail réel -, il est clair qu’elles s’effondreraient instantanément !

Des pistes intéressantes existent pourtant pour ramener le droit d’auteur du côté du droit social, comme celle par exemple l’idée de créer un nouveau régime d’intermittence pour les artistes-auteurs, qui a émergé dans certains partis lors de la campagne présidentielle. Un jour peut-être, on s’attaquera à  la vraie question de savoir comment « faire société » autour de la construction d’un modèle soutenable pour la création et peut-être arrêterons-nous alors de disserter sur le sexe des anges, l’originalité des oeuvres, le droit d’auteur des robots ou des animaux…

Pour regarder enfin en face l’humain derrière le masque de l’auteur.

Street Art et liberté de panorama : et si on arrêtait la désinformation ?

En marge des élections législatives, il s’est produit la semaine dernière un incident qui mérite que l’on s’y attarde, surtout quand on voit la manière dont il a été traité dans la presse. Le graffeur C215 a dénoncé l’utilisation qui était faite d’une de ses fresques par le comité électoral du parti « En Marche » du 13ème arrondissement. Une photographie de l’oeuvre a en effet été reprise comme bannière sur les profils Twitter et Facebook du comité, avec l’ajout du slogan « En marche ! » en travers (voir ci-dessous).

Le post Facebook de C215 a été relayé plusieurs centaines de fois et il a soulevé une vague de commentaires de la part des internautes en soutien à l’artiste. Devant le bad buzz qui commençait à se lever, le comité électoral d’En Marche a d’abord cherché à faire valoir qu’il voulait « rendre hommage » au travail de C215, dont beaucoup d’oeuvres ornent les murs du 13ème arrondissement. Mais il a fini sous la pression par retirer les images, non sans avoir eu visiblement des échanges assez âpres avec l’artiste, qui dit même avoir été insulté et menacé

Lire la suite

Quel modèle économique pour une numérisation patrimoniale respectueuse du domaine public ?

Le mois dernier est paru au Cercle de la Librairie le livre « Communs du savoir et bibliothèques« , pour lequel Lionel Dujol, qui coordonnait l’ouvrage, m’a demandé d’écrire une contribution. La publication de ce livre est un signe de plus de l’importance croissante de la thématique des Communs dans la sphère professionnelle des bibliothèques. On peut également noter que l’éditeur a accepté que les auteurs puissent publier sans délai leurs contributions en Libre Accès, ce qui me permet de poster le chapitre dont j’avais la charge sur ce blog. C’était important pour beaucoup des contributeurs à ce livre, afin qu’il n’y ait pas de contradiction entre le fond et la forme. Et cela montre par ailleurs qu’il y a toujours intérêt à négocier avec un éditeur pour obtenir des conditions de diffusion compatibles avec les principes de l’Open Access, même dans le cas de monographies.

Lionel Dujol m’a demandé de traiter la question (épineuse) de la numérisation du domaine public en bibliothèque, et plus précisément des modèles économiques qui peuvent sous-tendre ce type d’activités. J’examine quatre types de modèles (la numérisation à la demande, le financement participatif, les partenariats public-privé de numérisation et le Freemium) en essayant de voir lesquels sont les mieux à même de garantir la soutenabilité de la numérisation patrimoniale, sans générer de nouvelles enclosures sur la diffusion de la Connaissance.

Retrouvez ci-dessous l’introduction de cet article (et la version intégrale sur la plateforme HAL). Lire la suite

L’exclusion forcée du marché comme enclosure des biens communs

La semaine dernière est paru sur le site Reporterre un intéressant article consacré à Jean-Luc Danneyrolles, le fondateur du « Potager d’un curieux » : un lieu situé dans le Vaucluse dédié à la préservation et à la promotion des semences libres. Le papier explique notamment le parcours du combattant que ce paysan a dû traverser pour faire accepter son activité par les autorités administratives. Il a heureusement pu régulariser pour l’essentiel sa situation, mais un point continue à générer des frictions : celui de la commercialisation des semences qu’il produit.

Quand on pose à Jean-Luc la question simple du droit à vendre toutes ses graines, il renverse l’interrogation. « De quel droit n’aurait-on pas le droit de produire de bonnes graines et de les commercialiser ? C’est la réappropriation de ce patrimoine que je défends. On n’a pas le droit, on prend le droit. Prendre un droit, ce n’est pas voler quelque chose, explique t-il. Je ne m’imagine jamais que la police viendra m’arrêter parce que je vends mes graines. On est soutenu par la société civile, c’est-à-dire qu’il y a plein de gens qui m’encouragent à continuer et ça me suffit. »

Image par Petr Kratochvil. CC0 – Domaine public.

Lire la suite

La cuisine va-t-elle cesser d’être Open Source ?

Par MorningBirdPhoto. Domaine public.

Du point de vue du droit d’auteur, et de la propriété intellectuelle en général, la cuisine possédait jusqu’à présent un statut très particulier.

Alors qu’il s’agit incontestablement d’un des champs de la création, les juges considérent que les recettes de cuisine ne sont pas protégeables par le droit d’auteur. Il en résulte que les cuisiniers sont libres de se copier les uns les autres, sans pouvoir être accusés de contrefaçon. C’est ce qui fait que la cuisine peut être dite « Open Source« , au même titre que les logiciels. Tels des programmes informatiques, les recettes constituent en effet des instructions à suivre pour produire un résultat donné. Un cuisinier qui publie sa recette est dans une situation similaire à un informaticien donnant accès au code source de son programme afin que d’autres puissent le reproduire et l’améliorer.

La grande différence, c’est que les logiciels naissent automatiquement protégés par le droit d’auteur et les développeurs doivent opter pour des licences libres afin de rendre leurs logiciels réutilisables. De leur côté, les cuisiniers n’avaient jusqu’à présent pas le choix : les recettes n’étant en tant que telles pas protégeables, la cuisine était Open Source « par défaut ». Or les choses risquent peut-être de changer à l’avenir, en raison d‘une affaire survenue en Hollande à propos d’un fromage (le Heks’nkass – un fromage blanc aux herbes, qui a l’air de ressembler à une sorte de Boursin).

Une question de goût

Se plaignant que son produit ait été « copié » par un concurrent, l’entreprise qui commercialise ce fromage a saisi les tribunaux, mais en soulevant un argument assez original. Elle ne revendiquait en effet pas de droits sur la recette (ce qui aurait été voué à l’échec), mais directement sur le goût du Heks’nkass, en considérant que celui-ci pouvait constituer une oeuvre protégée par le droit d’auteur. En 2015, un premier tribunal a rejeté cette prétention, estimant que les saveurs ne pouvaient pas rentrer dans le champ des « oeuvres de l’esprit ». Mais l’affaire rebondit à présent, car la Cour de Justice de l’Union Européenne va être saisie de ce cas, pour trancher deux questions :

  • Est-ce que la législation européenne admet qu’un goût puisse recevoir une protection au titre du droit d’auteur ?
  • Si c’est le cas, quels critères doit-on employer pour déterminer quand s’applique cette protection ?

Or cet angle d’attaque est assez redoutable, car il existe déjà une jurisprudence de la CJUE sur la notion d’oeuvre protégeable, dont elle a une conception relativement extensive. Si la Cour a déjà été amené à considérer par exemple que les matchs de football ne sont pas des oeuvres, elle considère qu’une catégorie de créations n’a pas à être exclue en tant que telle du bénéfice de la protection du droit d’auteur, du moment que l’on est en présence d’une forme d’originalité, au sens de « création intellectuelle de l’auteur ».

Une création culinaire peut-elle être considérée comme une oeuvre ? Vaste question… (Image par Tkw3. Domaine public).

Pour les rencontres sportives, la qualification d’oeuvre a été écartée, car un match est la résultante des interactions entre les différents joueurs et non la création délibérée d’un esprit manifestant sa personnalité. Mais pour une création culinaire, les juges de la Cour risquent d’être confrontés à un problème beaucoup plus épineux, car il est indéniable que la cuisine est un champ où l’expressivité joue un rôle. Les grands chefs étoilés le prouvent, mais même quand je mange la blanquette de ma mère, j’y trouve un goût à nul autre pareil et je peux avoir l’impression de percevoir l’empreinte de sa personnalité à travers ce plat !

La cuisine saisie par la propriété intellectuelle ? 

Concrètement, beaucoup de choses changeraient pour la cuisine si la Cour de Justice de l’Union Européenne admettait que les goûts peuvent être copyrightés. Cela fait longtemps que la cuisine et la propriété intellectuelle jouent au chat et à la souris, mais jusqu’à présent seuls des modes indirects de protection étaient admis. Par exemple, si une recette en elle-même ne peut pas être protégée par le droit d’auteur, les juges reconnaissaient que la manière dont une recette est écrite sur le plan littéraire peut mériter protection, au cas où elle manifeste une originalité. Cela permet par exemple de protéger un livre de cuisine, dans la mesure où il a fait l’objet d’un travail d’écriture élaboré, mais cela n’empêchait pas quiconque de refaire, et même de vendre, les plats décrits dans le livre.

La recette de la mayonnaise en vers. Source : Gallica BnF

Certains chefs ont aussi pu chercher à protéger l’apparence ou la forme de leurs plats, soit par le droit d’auteur, soit  par le biais des dessins et modèles (mais avec beaucoup d’aléas, comme le montrent par exemple les déconvenues subies par le cuisinier Yves Thuriès dans la protection du « chocolat macaron ») . On a pu également voir des dépôts de brevets, souvent assez contestables, portant par exemple sur des méthodes de découpe de viandes employées pour réaliser certains plats (les pilons de poulets frits de KFC, par exemple). Le droit des marques peut également être mobilisé pour se protéger dans une certaine mesure de la concurrence. Ainsi, le pâtissier français Dominique Ansel a connu un énorme succès en 2013 à New York en inventant le « cronut » (un croisement entre un croissant et un donut). Il s’est empressé alors de déposer une marque sur ce nom, ce qui lui a permis d’être le seul à pouvoir désigner de la sorte ce produit. Mais il n’a pas pu empêcher les autres pâtisseries de la ville de proposer des gâteaux similaires, du moment qu’elles n’employaient pas son nom…

Malgré cette difficulté pour la propriété intellectuelle à se saisir de la création culinaire, on observe néanmoins une certaine forme de susceptibilité chez les cuisiniers, et pas uniquement les professionnels. La question du « plagiat culinaire » est en effet assez vive chez les blogueurs spécialisés dans la cuisine. Ils s’accusent souvent de se « voler » de recettes, sans percevoir que cette affirmation n’a en réalité pas de sens puisqu’on ne peut par définition voler ce qui ne peut être approprié. Néanmoins ce que critiquent ces blogueurs, ce n’est pas tellement que l’on reprenne une de leurs recettes, mais plutôt de ne pas être crédités ou qu’on ne fasse pas de lien en retour vers leur site. Cela nous amène dès lors davantage du côté de l’éthique ou des bonnes pratiques que du droit pur et dur.

La question du plagiat culinaire fait l’objet d’une Charte à laquelle ont adhéré plusieurs dizaines de blogs cuisine. Cliquez sur l’image pour la consulter.

Code d’honneur des cuisiniers et esprit du Remix

Or ce lien à l’éthique est intéressant à observer. En effet, c’est aussi une sorte de « code d’honneur » que suivent les grands chefs. Il est en effet admis parmi les cuisiniers étoilés que l’on puisse s’inspirer des créations d’un confrère, mais uniquement pour essayer de les améliorer et pas pour reproduire à l’identique. C’est ce qui ressortait d’un article passionnant (On The Legal Consequences of Sauce) publié en 2006 par le juriste américain Christopher Buccafusco, dont je vous recommande vivement la lecture. Comme la cuisine est « Open Source », les chefs ne peuvent de toutes façons empêcher d’autres cuisiniers de reprendre leurs créations. Mais afin de réguler les pratiques, la corporation a développé ses propres règles, qui n’ont pas de valeur juridique à proprement parler, mais déterminent tout de même ce qu’il est acceptable de faire ou non dans le champ de la grande cuisine. Et ce que je trouve remarquable, c’est que ces normes privilégient l’innovation au détriment du monopole et de la rente de situation. Se sachant toujours susceptibles d’être repris et copiés, les grands chefs sont incités à constamment innover. Mais pour que la copie ne soit pas stérile et « déloyale », ils mettent un point d’honneur à ne pas reproduire à l’identique, mais à toujours chercher à améliorer les créations précédentes.

C’est ni plus, ni moins l’esprit de ce que l’on appelle le Remix dans la création numérique, à la différence que les pratiques transformatives sont en grande majorité illégales quand elles s’exercent à partir d’oeuvres littéraires (fanfictions), musicales ou audiovisuelles (mashup, détournements) en raison des rigidités du droit d’auteur. Or c’est cet équilibre subtil que la décision de la CJUE pourrait remettre en cause, si elle admettait que les goûts eux-mêmes deviennent éligibles à la protection du droit d’auteur. Certes, les recettes pourraient toujours servir de source pour reproduire un plat, mais les cuisiniers seraient en mesure de s’accuser les uns les autres de violation de leur droit d’auteur. On verra donc sans doute reculer les formes d’innovation incrémentale qui constituent le propre de la manière dont la cuisine avance et évolue. Les plats ne naissent en général pas de nulle part : ils s’inscrivent dans des traditions, qu’elles soient familiales, régionales ou nationales. C’est en copiant des « classiques » de la cuisine que l’on devient soit même cuisinier et les grands chefs trouvent leur propre style en croisant de multiples influences. La cuisine est avant tout un patrimoine et un bien commun, dont chaque cuisinier est à la fois le transmetteur et le prolongateur, mais jamais « l’auteur », parce que la gastronomie est par essence une création collective.

***

Il faudra donc garder un oeil attentif sur cette décision à venir de la Cour de Justice de l’Union Européenne, car elle pourrait remettre en question la dynamique propre au secteur de la cuisine, qui avait pourtant fait la preuve que l’on peut être innovant sans avoir besoin d’une protection au titre de la propriété intellectuelle. On imagine à quel point il pourrait devenir dangereux de produire de nouvelles créations culinaires si l’on risque constamment un procès pour plagiat pour s’être trop rapproché du goût d’un autre plat ! Le critère de l’originalité est déjà parfois extrêmement aléatoire dans ses effets pour certains types de créations, comme les photographies par exemple. Mais il le serait sans doute davantage en ce qui concerne le goût, domaine où la subjectivité est encore plus forte. Par ricochet, le secteur du parfum pourrait aussi être atteint, car les mêmes principes de non-protection par le droit d’auteur s’appliquent aujourd’hui à ce domaine. Les parfums se protègent en gardant secrètes leurs formules et en déposant une marque sur leur nom, mais on ne peut empêcher un concurrent de produire et de vendre une imitation s’il est capable de la réaliser.

Il y a une ironie dans cette histoire. L’auteur grec Athénée de Naucratis, qui a vécu au troisième siècle après Jésus Christ, rapporte dans son ouvrage « Le banquet des hommes sages » que les cuisiniers de l’île de Sybaris pouvaient revendiquer pendant un an une exclusivité sur les recettes de cuisines qu’ils créaient. L’île était d’ailleurs réputée pour l’excellence de sa gastronomie (au point que son nom nous a donné l’adjectif « sybarite »). Certains voient dans cette « loi de Sybaris » la plus ancienne manifestation de propriété intellectuelle de l’histoire et il est assez étrange qu’elle ait porté sur un des rares secteurs qui échappent encore aujourd’hui à l’emprise du droit d’auteur et n’a en réalité jamais été soumis à ses principes. C’est en restant « Open Source » et en se développant nativement dans le domaine public que la cuisine a pu évoluer et constituer cette forme de créativité si particulière.

Espérons que la Cour de Justice de l’Union Européenne aura le bon goût de s’en souvenir avant de rendre sa décision !

[Mise à jour : suite à la publication de ce billet, quelqu’un m’a signalé le restaurant Leka à Barcelone où tout est Open Source : non seulement les plats, dont on peut obtenir la recette et les chefs de l’établissement peuvent vous expliquer comment les reproduire, mais aussi les meubles et les vêtements des serveurs dont on peut télécharger les plans et les modèles !]