La végétalisation des villes et la tragi-comédie des Communs

Au début du mois d’août, une nouvelle plateforme « Végétalisons Paris » a été lancée par la municipalité de la capitale. Le site rassemble les informations concernant les différentes initiatives de la mairie de Paris visant à inciter les habitants à investir les espaces publics pour y planter des végétaux. Chacun peut y effectuer les démarches nécessaires pour son projet de végétalisation et signaler ses réalisations sur une carte.

Déjà plus d’un millier de réalisations épinglées sur la carte de la plateforme « Végétalisons Paris ».

Parmi les différents aspects de la politique de Paris, le permis de végétaliser est sans doute celui qui a le plus attiré l’attention, avec plusieurs milliers d’autorisations accordées à des habitants depuis sa création en 2015 pour implanter des végétaux dans des espaces comme des pieds d’arbres, des potelets, des trottoirs ou des murs. De nombreuses autres villes françaises – comme Lille, Marseille, Strasbourg, Grenoble ou Bordeaux – ont mis en place des dispositifs similaires (même si les règles peuvent varier d’une ville à l’autre).

Je croise de plus en plus souvent à Paris des espaces végétalisés dans le cadre de ce dispositif et en observant ces réalisations, je me suis souvent demandé dans quelle mesure ce système peut favoriser l’émergence de Communs urbains (ou pas). On pourrait penser que le permis de végétaliser va naturellement dans le sens des Communs, dans la mesure où il permet aux habitants de se réapproprier l’espace public. Mais il me semble que les choses sont plus complexes et que, tant du point de vue du montage juridique que de ses résultats pratiques, le permis de végétaliser n’aboutit pas toujours à la constitution de Communs dans la ville, loin s’en faut. Il peut même déboucher sur leur exact contraire, à savoir une forme de Tragédie des Communs, bien que ce ne soit heureusement pas une fatalité.

Lire la suite

L’ouverture des brevets de la recherche, un tabou pour l’Open Science ?

Le concept d’Open Science tend à prendre aujourd’hui de plus en plus d’importance, en devenant progressivement le nouveau paradigme de référence de diffusion des résultats de la recherche. Il est notamment poussé par l’Union européenne dans le cadre du programme « Horizon 2020 » et en avril 2016, un appel solennel à été lancé depuis Amsterdam pour inciter les Etats-membres à initier des actions en faveur de la Science Ouverte. Si la définition du concept d’Open Science est parfois assez fluctuante, sinon fuyante, on s’accorde à y voir un « au-delà » de l’Open Access, s’inspirant de la même philosophie générale, mais s’appliquant à d’autres objets que les publications scientifiques. L’Open Science concerne aussi les logiciels utilisés par les chercheurs pour conduire leurs recherches (Open Source), ainsi que les données sur lesquelles ils s’appuient (Open Data). D’autres dimensions du processus de recherche sont parfois incorporées à la notion, comme on peut le voir sur le schéma ci-dessous, proposé par le programme européen FOSTER.

L’article de Wikipédia consacré à l’Open Science suit à peu près la même logique, en déclinant le concept des six principes : Open Data, Open Source, Open Methodology, Open Peer Review, Open Access, Open Educational Resources.

Mais quelque chose me frappe toujours dans ces modélisations de l’Open Science : elles laissent de côté une dimension pourtant essentielle du processus de recherche (au moins dans certaines disciplines), à savoir la question de la gestion des droits sur les inventions et le dépôt de brevets. C’est comme si la Science Ouverte s’arrêtait toujours aux portes de la propriété industrielle et que la question de l’ouverture et de la libre réutilisation des inventions restait une sorte de tabou.

En 2016, le CNRS a publié un livre blanc intitulé « Une Science ouverte dans une République numérique« , remarquable dans l’ensemble, mais qui porte la marque de ces contradictions. Si le texte se prononce très clairement en faveur de l’Open Access, de l’Open Source et de l’Open Data, il se montre par contre beaucoup moins hardi lorsqu’il est question des brevets :

Les frontières de la valorisation et de la science ouverte

Lopen science ne doit pas faire obstacle aux enjeux économiques de la recherche.

La mise à disposition des données scientifiques sur des plateformes open science ne doit pas aller à l’encontre :

  • de la valorisation des données notamment par brevet ;
  • du respect des secrets et des dispositions spécifiques telles que les Zones à Régime Restrictif ;
  • du respect des règles contractuelles de confidentialité.

Pourtant, une autre façon de voir les choses existe et ce sont les universités du Danemark qui montrent qu’il est parfaitement possible d’inclure les brevets dans le processus de l’Open Science. Traditionnellement, les laboratoires de recherche nouent des partenariats avec des entreprises privées afin que celles-ci participent au financement de travaux avec, en contrepartie, un partage des résultats et des dépôts de brevets venant sécuriser les droits de propriété intellectuelle sur les inventions découvertes. Mais l’université d’Aarhus a mis en place une initiative, justement intitulée « Open Science », pour inverser ces rapports avec les partenaires privés et faire évoluer le sens de ces partenariats de recherche :

L’initiative de l’université d’Aarhus, intitulée Open Science, prévoit que ni l’université ou ni les entreprises impliquées dans les projets ne pourront breveter les découvertes effectuées au cours du processus de recherche et, à la fin, les résultats sont mis à la disposition de tous – même à d’autres entreprises – sur une plateforme sans restriction liée à la propriété industrielle.

[…]

Kim Daasbjerg, un professeur de chimie qui a lancé et dirigé l’initiative, a déclaré qu’au cours des 10 à 15 dernières années, les universités avaient pratiqué une politique de dépôt de brevets sur leurs découvertes et qu’elles étaient même encouragées à «obtenir autant de brevets que possible».

« Je ne pense pas que ce soit le rôle de l’université de faire cela », a-t-il déclaré. «Notre compétence, notre apport à la société, c’est la recherche fondamentale».

Jusqu’à présent, six grandes entreprises, dont Lego, ont mis de l’argent sur la table pour financer la recherche sur des matériaux intelligents, tandis que d’autres petites entreprises ont promis du temps et de l’expertise, a-t-il déclaré. Une vingtaine de chercheurs travaillent maintenant dans le cadre de la nouvelle plate-forme, dont six de l’Université d’Aalborg et trois de l’Université de Copenhague.

On peut se demander pourquoi des entreprises iraient collaborer à des projets de recherche et y consacrer des moyens si elles ne peuvent s’assurer en bout de course d’une exclusivité, au moins temporaire, sur les résultats obtenus. Mais ce changement d’approche fait écho à des évolutions dont j’ai déjà eu l’occasion de parler dans ce blog, aux termes desquelles on commence à voir des entreprises de premier plan, comme Tesla ou Toyota, choisir de renoncer aux brevets qu’elles avaient obtenus sur certaines technologies afin de les promouvoir et de les faire évoluer vers des standards. La « guerre des brevets« , qui a frappé des secteurs comme celui des smartphones et des tablettes, aura visiblement laissé des traces, et si des secteurs comme celui des voitures autonomes pourraient à présent connaître des embrasements similaires, d’autres industriels semblent commencer à percevoir les vertus d’une approche « Open ». C’est typiquement sur ce genre de stratégies que les universités pourraient s’appuyer pour développer des partenariats d’un nouveau genre avec les entreprises.

Il faut savoir que cette tendance des universités à déposer des brevets est en réalité relativement récente. Elle date des années 80 et ce sont les Etats-Unis qui ont initié le mouvement dans le cadre de la mise en place d’une « économie de la connaissance », avec de fortes conséquences sur l’activité même de recherche comme l’explique ci-dessous Hervé le Crosnier :

Ce changement de l’état d’esprit de la recherche découle d’une loi de 1980, le Bayh-Dole Act qui a permis aux universités des États-Unis de déposer des brevets. Cela conduit ces dernières à créer des « services de valorisation » et à s’engager dans des stratégies de recherche à finalité directe. Étant donné le poids de la recherche en provenance des États-Unis, ce phénomène s’est étendu sur toute la planète. Et les chercheurs critiques, ou dont les travaux pouvaient mettre à mal certaines sources de revenus des universités, ont été marginalisés, à l’image d’Ignacio Chiapela, renvoyé de l’université de Berkeley en 2001 parce que ses travaux montraient l’existence de contamination OGM au Mexique, alors que l’université qui l’employait avait des contrats avec Syngenta, grande multinationale de l’agro-alimentaire technologique. La discussion scientifique elle-même pâtit de cet alignement des universités sur la recherche de revenus. La façon dont a été traité le chercheur Gilles-Éric Séralini, dont un article opposé aux OGM a été retiré d’une revue suite à la pression de Monsanto, et dont les travaux ont été dénigrés avec des arguments provenant des public-relations et non dans le cadre normal des controverses scientifiques, est un exemple récent de ce phénomène.

Les dépôts de brevets par les universités font partie intégrante de que l’on appelle la deuxième vague d’enclosure des Communs, celle qui a frappé la Connaissance selon les mots du juriste américain James Boyle, après que les terres aient été concernées à partir de la fin du XVIIIème siècle. La propriété intellectuelle, concept qui n’apparaît vraiment qu’après la Seconde guerre mondiale, s’est saisie peu à peu de la plupart des ressources produites par l’esprit humain et cette forme de « privatisation » n’a pas épargné les universités, qui sont même devenues un des rouages essentiels de ce système.

Le parallèle est d’ailleurs assez intéressant entre ce qui s’est passé pour les articles scientifiques et les dépôts de brevets par les instituts de recherche et les universités. On sait que pour les articles, un système d’accaparement s’est mis en place autour des revues scientifiques, propriétés de quelques grands éditeurs mondiaux, qui se font céder les droits d’auteur des chercheurs pour revendre ensuite aux universités l’accès aux résultats de la recherche. On est typiquement devant un processus de constitution d’une « fausse marchandise » au sens où l’entend l’économiste Karl Polanyi. C’est cette forme d’enclosure sur la connaissance que le mouvement de l’Open Access a entrepris de combattre en promouvant, selon diverses formules, la libre diffusion des écrits scientifiques sur Internet.

Pour les brevets, on est face à une logique similaire, dans la mesure où ce que l’on nomme de manière très ambiguë « valorisation des résultats de la recherche » aboutit en réalité à un transfert de propriété du public vers le privé. Mais l’analogie avec les articles scientifiques n’est pas parfaite. En effet, l’équilibre entre le privé et le public paraît à première vue plus équitable en ce qui concerne les inventions. Les brevets, par définition, sont en « Open Access », car on ne peut obtenir un tel titre de propriété intellectuelle auprès de l’INPI ou d’une autre institution habilitée qu’à la condition de révéler son invention pour permettre à tous d’en connaître la teneur. Le système des brevets a été mis en place pour lutter contre la pratique du secret en « récompensant » ceux qui acceptent de révéler leurs inventions par un monopole d’exploitation limité dans le temps (20 ans). Avec les inventions, on n’est donc pas confronté à ces paywalls derrière lesquels les éditeurs scientifiques mettent sous séquestre la connaissance, pour des durées beaucoup plus longues qui plus est (70 ans après la mort de l’auteur…). Par ailleurs si, dans l’immense majorité des cas, les chercheurs ne sont pas payés par les éditeurs pour la publication de leurs articles (c’est même l’inverse qui est en train peu à peu de se généraliser…), ce n’est pas le cas pour la réutilisation des brevets des universités par les entreprises qui font généralement l’objet d’accords de licence impliquant le versement de redevances.

La situation est donc différente du scandale aberrant qui frappent les articles scientifiques, pour lesquels le public paye deux fois : une première fois à l’origine avec le salaire des chercheurs publics pour la production des articles et une seconde fois pour acheter le droit d’y accéder auprès des éditeurs privés. Avec les brevets, il y a bien un flux d’argent en provenance du privé vers le secteur public. Mais en réalité, le problème est ailleurs et l’effet d’enclosure provient essentiellement de la sous-utilisation des ressources qui survient à cause de l’application systématique de droits exclusifs. C’est ce qu’expliquent bien les promoteurs du projet danois cité plus haut, qui critiquent la rationalité économique du dépôt de brevets par les universités :

Une analyse des bureaux de transfert de technologie dans les universités américaines réalisée par le cabinet Brookings en 2013 a conclu que, malgré une augmentation spectaculaire du nombre de ces bureaux depuis la fin des années 1980, les 10 pour cent les plus élevés ont pris environ les trois quarts du revenu. Sur 155 bureaux, 130 fonctionnaient à perte. Le professeur Daasbjerg estiment que les brevets constituent souvent de «mauvaises affaires».

Adam Stoten, directeur général d’Oxford University Innovation, qui aide les universitaires possédant des brevets à gérer les questions de propriété intellectuelle, reconnaît que «de nombreux bureaux de transfert de technologie ne sont pas rentables».

Les droits exclusifs liés aux brevets sont donc rarement profitables pour les universités et ceux qui verraient là un moyen de réaliser le fantasme des fameuses « ressources propres » des universités risquent une cruelle déception. Néanmoins, les brevets, même improductifs sur le plan économique, jouent comme une barrière à la réutilisation des inventions qu’ils « protègent », en raison des coûts de transaction à régler pour avoir accès aux ressources. Du coup, une proportion élevée des brevets déposés par les universités ne sont tout simplement jamais réutilisés et l’on aboutit à ce que Michael Heller a appelé une « tragédie des anti-Communs », c’est-à-dire une situation sous-efficace du point de vue économique où une ressource ne peut trouver son utilité du fait de l’accumulation de droits dont elle fait l’objet.

L’initiative de l’université d’Aarhus montre néanmoins qu’il n’y a pas de fatalité et qu’il est possible de concevoir des dispositifs, finalement très proches des archives ouvertes, pour renverser le sens des relations entre la recherche et le monde de l’entreprise. On notera que cela passe par la mise en place de nouveaux systèmes de conventions, qui au lieu de mettre systématiquement en avant « la propriété des résultats de recherche » prévoient au contraire qu’aucun partenaire ne cherchera à se les approprier pour qu’ils puissent faire l’objet d’une libre diffusion et réutilisation. C’est la condition pour que les traditionnels partenariats Public-Privé deviennent ce que l’on appelle des partenariats Public-Privé-Communs.

Là où le projet danois est également intéressant, c’est qu’il pointe un autre des travers du système actuel : si les chercheurs déposent des brevets, bien que cela soit coûteux et alors même qu’ils savent très bien que dans la majorité des cas aucune licence ne sera ensuite signée, c’est parce que les brevets ont été détournés de leur fonction initiale pour devenir des systèmes de publication des résultats de la recherche, ainsi qu’un moyen d’évaluer les projets. Les chercheurs mettent dans leur CV les brevets déposés, au même titre que leurs publications d’articles, comme autant de « marqueurs » qui serviront ensuite aux agences d’évaluation.

Toute la difficulté pour l’Open Science est d’arriver à découpler le processus de publication de celui de l’attribution de droits exclusifs. Il faut que la publication d’écrits en Open Access, de logiciels en Open Source, de jeux de données en Open Data, et donc aussi d’inventions sans dépôt de brevet, puissent « compter » dans l’évaluation des chercheurs, sans quoi la Science ouverte a peu de chances de dépasser un petit cercle de convaincus.

Et si on libérait (vraiment) les licences libres de la propriété intellectuelle ?

Avertissement : Ce qui va suivre est hautement expérimental, et en partie spéculatif, mais l’idée me paraissait valoir la peine d’être développée.

Image par Christopher Dombres. CC0/Domaine public. Source : Flickr.

Cette semaine, on a appris qu’une cour de justice américaine avait reconnu la valeur contractuelle de la licence GNU-GPL, alors que celle-ci a déjà presque 30 années d’existence, et n’a pas attendu cette consécration jurisprudentielle pour produire des effets réels. Le site TechoLlama se réjouit de cette décision, dans la mesure où elle apporte de solides arguments au débat juridique sur la validité des licences libres :

Nous continuons, décision après décision, à avoir l’assurance que les licences Open Source sont bien valides ; non seulement cela, mais nous avons maintenant l’assurance qu’elles constituent bien des contrats au sens propre du terme. Il n’y a pas si longtemps, je devais encore me défendre lors d’une conférence contre les allégations d’avocats qui affirmaient que les licences de logiciels libres n’ont pas de valeur juridique.

C’est assurément une bonne nouvelle de voir le système juridique reconnaître le principe même des licences libres et l’admettre en son sein, car cela autorise notamment à aller en revendiquer l’application en justice lorsqu’elles ne sont pas respectées. C’est particulièrement important pour la clause de copyleft (Share Alike – Partage à l’Identique) que l’on retrouve dans la licence GNU-GPL, qui protège les logiciels libres des tentatives de réappropriation exclusive et garantit leur caractère de biens communs.

Il faut à cette occasion rappeler que les licences libres ne constituent pas des « alternatives » au droit d’auteur, contrairement à ce que l’on peut parfois entendre. Elles sont au contraire pour les titulaires d’un droit d’auteur une manière légitime d’exercer leurs prérogatives, étant entendu que le droit d’auteur constitue tout autant une faculté d’autoriser que d’interdire. Depuis 2006, le Code de Propriété Intellectuelle français, même s’il ne contient aucune allusion explicite aux licences libres, reconnaît de son côté la possibilité pour les auteurs de mettre gratuitement leurs oeuvres à la disposition du public :

L’auteur est libre de mettre ses oeuvres gratuitement à la disposition du public, sous réserve des droits des éventuels coauteurs et de ceux des tiers ainsi que dans le respect des conventions qu’il a conclues.

Tout ceci est fort bien et vaut tout autant pour la licence GNU-GPL que pour toutes les licences libres ou de libre diffusion, comme les Creative Commons, qui se sont appuyées sur le droit d’auteur pour trouver un fondement dans le système juridique général. C’est en cela que l’on compare souvent le geste initial de Richard Stallman à un « hack juridique » par lequel il est parvenu à renverser le copyright en copyleft, sans avoir pour cela à passer par une réforme législative. De la même manière, les Creative Commons ont été imaginés par le juriste Lawrence Lessig pour donner aux auteurs eux-mêmes la possibilité de faire fonctionner autrement le droit d’auteur, dans un contexte où il tendait à se verrouiller de plus en plus au niveau législatif (vote en 1998 du Mickey Mouse Act, notamment).

Les licences libres sont donc nées sous la forme d’une véritable « inception » du copyleft au sein même du droit d’auteur, en vertu d’une tactique qui s’apparente à celle du Cheval de Troie ou de la prise de judo (s’appuyer sur la force de l’adversaire pour le maîtriser). C’est finalement ce qui leur donne leur force, mais aussi paradoxalement, une certaine forme de fragilité, car ces instruments restent en réalité dépendants du système juridique auquel elles empruntent leur validité. La juriste Séverine Dusollier avait déjà pointé en 2006 cette contradiction dans un intéressant article intitulé « Les licences Creative Commons : les outils du maître à l’assaut de la maison du maître« . Le titre s’inspire d’une phrase prononcée lors d’un discours en 1979 par l’écrivaine féministe Audre Lordre :

Les outils du maître ne détruiront jamais la maison du maître.

La question se pose en effet à propos des licences libres, dans la mesure où elles ne représentent pas un instrument de contestation, en lui-même, du droit d’auteur. Cela ne constituerait en soi pas un problème, si le droit d’auteur n’avait pas fini par être subsumé par le système sous le concept juridique de « propriété intellectuelle« , autrement plus nocif et vilipendé d’ailleurs par Richard Stallman. C’est en effet une question philosophique majeure de savoir si l’on peut appliquer le concept même de propriété aux créations de l’esprit (oeuvres, inventions, marques, etc.) qui constituent des objets immatériels, par définition non-rivaux. Stallman considère que le concept de propriété intellectuelle n’est qu’un « séduisant mirage », rapprochant artificiellement les champs pourtant très différents de la propriété littéraire et artistique et de la propriété industrielle. A ce titre, il condamne radicalement le terme de « propriété intellectuelle », pure construction idéologique à ses yeux, au point de recommander de ne jamais l’employer :

toute opinion à propos de « la question de la propriété intellectuelle », et toute généralisation faite à propos de cette soi-disant catégorie, est presque sûrement absurde. Si vous pensez que toutes ces lois ne sont qu’un même sujet, vous aurez tendance à choisir vos opinions à partir d’une sélection de généralisations abusives, dont aucune n’a la moindre valeur.

[…] Si vous voulez réfléchir clairement aux problèmes soulevés par les brevets, les copyrights, les marques déposées ou diverses autres lois, la première étape est d’oublier l’idée de les mettre toutes dans le même sac, de les traiter comme des sujets séparés. La deuxième étape est de rejeter les perspectives étriquées et l’image simpliste véhiculées par l’expression « propriété intellectuelle ».

Le problème, c’est que si ce débat philosophique à propos de la propriété intellectuelle reste ouvert, il est déjà tranché depuis un bon moment par la jurisprudence qui, aussi bien au niveau français qu’européen, a explicitement raccroché le droit d’auteur, le droit des brevets et le droit des marques au fondement du droit de propriété. On vient d’ailleurs encore d’en avoir une nouvelle confirmation cette semaine avec une décision du Conseil Constitutionnel rendue à propos du statut des webradios dans laquelle il affirme que les droits des producteurs et des interprètes (droits voisins) constituent bien une forme de propriété. Donc même si l’on critique la pertinence du concept de « propriété intellectuelle » (ce qui est mon cas), on est aujourd’hui contraint de reconnaître que le droit positif lui a accordé une réalité. Ce qui fait par ricochet que les licences libres elle-mêmes ne sont désormais plus qu’une émanation indirecte de cette même propriété intellectuelle. Comme je le dis parfois, le droit se moque éperdument de ce que nous pensons de lui : il possède sa propre objectivité qui s’impose à nous et cela vaut (hélas) à présent pour l’existence du concept de propriété intellectuelle. Dura Lex, Sed Lex…

A titre personnel, c’est ce genre de considérations qui m’avaient fait adopter la licence CC0 (Creative Commons Zero) pour les écrits que je publie sur ce blog. Alors que j’avais commencé par utiliser la licence CC-BY, j’ai voulu en changer en 2013 parce que je me suis rendu compte que je ne voulais pas simplement « renverser » le droit d’auteur, mais en sortir complètement. J’avais alors appelé ce geste « Copy-Out » par opposition au « Copyleft » et le choix de la licence CC0 m’avait alors paru cohérent pour manifester mon intention de verser directement mes oeuvres dans le domaine public, sans laisser aucune trace de droit d’auteur :

Pour moi, l’intérêt principal, c’est de sortir en dehors du cadre du droit d’auteur. Avec les licences libres, on passe de la logique du copyright à celle du copyleft, mais on reste encore dans le système du droit d’auteur. Les licences libres ne sont pas une négation du droit d’auteur, mais une autre manière de le faire fonctionner. Avec la licence CC0, on n’est plus dans le copyright, ni même dans le copyleft, mais littéralement dans le copy-out. On décide sciemment que son œuvre n’est plus saisie par le droit d’auteur et ne doit plus être comprise à travers ce filtre. Je ne prétends pas que cette voie doive être suivie par tous les auteurs. Mais au stade où j’en suis, c’est cohérent avec ma démarche.

Sauf qu’en réalité, la licence CC0 ne permet pas réellement d’accomplir cette volonté, car le système juridique (français) ne reconnaît, sans doute, pas aux auteurs la possibilité de renoncer valablement à leur droit moral. Mais plus profondément, la CC0, en dépit de son caractère radical, reste encore une licence de droit d’auteur, qui ne permet à l’auteur d’en sortir qu’en y renonçant (ce qui suppose donc d’abord d’y être entré…). On reste finalement dans la même logique « d’utiliser les outils du maître pour détruire la maison du maître« , d’où d’ailleurs les limites rencontrées à propos du renoncement au droit moral.

Or il arrivera peut-être un moment où « rester dans la maison du maître » risque de devenir dangereux, voir intenable, pour les licences libres. On voit en effet de plus en plus d’évolutions législatives aberrantes qui tendent à « écraser » les licences libres, en « forçant » les auteurs à maintenir leurs oeuvres dans le système classique contre leur volonté. C’est ce qui se passe par exemple en matière de sonorisation des lieux ouverts au public, qui sont soumis à une redevance perçue par la SPRE, même en ce qui concerne les oeuvres sous licence libre pour lesquelles les auteurs ont pourtant autorisé l’usage gratuit. Le risque existe aussi à présent en matière de photographies, suite au vote l’an dernier de la « taxe Google Images » qui pourrait forcer l’entrée en gestion collective des photos sous licence libre pour contraindre les moteurs de recherche à payer pour leur usage. Et des menaces plus redoutables encore se profilent à l’horizon, avec la discussion qui a lieu en ce moment au niveau du Parlement européen autour un « droit inaliénable à la rémunération » susceptible de provoquer un véritable désastre pour la Culture libre.

La question n’est donc pas simplement philosophique, car elle touche en réalité aux limites de la stratégie du « Cheval de Troie » qui a été employée jusqu’à présent par les fondateurs des licences libres. Si le système réagit en secrétant des « anticorps juridiques » neutralisant la portée effective des licences libres en prenant le pas sur la volonté des auteurs, alors la « maison du maître » finira par l’emporter et le hack juridique initial de Stallman sera devenu inutile. C’est pourquoi il importe à mon sens aujourd’hui de réfléchir à la façon d’aller plus loin, en coupant une bonne fois pour toutes le cordon ombilical qui raccroche les licences libres à la propriété intellectuelle.

Jusqu’à une date récente, je pensais qu’une telle entreprise était vouée à l’échec, car je ne voyais pas comment trouver un autre fondement juridique auquel raccrocher les licences libres. Mais une proposition récente de licence Open Source applicable aux semences a montré qu’en réalité, on pouvait raisonner outside the box (voir le billet que j’ai écrit à ce sujet sur S.I.Lex). Le domaine des semences soulève des questions particulières, dans la mesure où le droit d’auteur n’est pas applicable à ce type d’objets, qui ne sont pas considérées comme des « oeuvres de l’esprit ». Les droits que l’on peut revendiquer sur des semences relèvent de la propriété industrielle (Certificats d’Obtention Végétale, brevets) et le dispositif est conçu de telle sorte qu’il est devenu très difficile pour les personnes qui voudraient mettre en partage des semences d’obtenir de tels titres de propriété. Le système s’est donc « protégé » en amont du hack que pourrait constituer le Copyleft appliqué aux semences, en le rendant quasiment « inconstructible » tant qu’on reste sur le terrain des droits de propriété intellectuelle. Mais les initiateurs du projet Open Source Seeds ont essayé de trouver une parade en se raccrochant à une convention internationale – le Protocole de Nagoya – qui reconnaît des droits sur les ressources génétiques au bénéfice de populations sans les relier au concept de propriété intellectuelle :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

Si, en pratique, il n’est pas certain que cette nouvelle licence règle à elle seule tous les problèmes auxquels se heurtent les promoteurs des semences libres, elle repose néanmoins sur une intuition géniale et c’est la première fois, en tous cas, qu’une licence libre ne cherche plus à trouver appui sur la propriété intellectuelle.

On peut à présent se poser la question de savoir si la démarche est susceptible d’être élargie à d’autres objets que les semences, et notamment aux oeuvres de l’esprit relevant du champ du droit d’auteur. Si l’on adopte la même tactique, il faut se demander s’il existe des textes internationaux auxquels se raccrocher, susceptibles de conférer des droits sur des créations culturelles, indépendants de la propriété intellectuelle ? Or la réponse est oui : plusieurs traités internationaux, et notamment la Convention de l’UNESCO de 2005 sur la protection et la promotion de la diversité des expressions culturelles, ont en effet consacré la notion de « droits culturels », qui pourrait être ici utilement mobilisée.

On trouve en effet dans le texte de l’UNESCO, vierge de toute allusion à la propriété intellectuelle, plusieurs passages intéressants :

[…] la diversité des expressions culturelles, y compris des expressions culturelles traditionnelles, est un facteur important qui permet aux individus et aux peuples d’exprimer et de partager avec d’autres leurs idées et leurs valeurs.

[…] Dans le cadre de ses politiques et mesures culturelles […], chaque Partie peut adopter des mesures destinées à protéger et promouvoir la diversité des expressions culturelles sur son territoire.

Ces mesures peuvent inclure :

[…] les mesures qui visent à encourager les organismes à but non lucratif, ainsi que les institutions publiques et privées, les artistes et les autres professionnels de la culture, à développer et promouvoir le libre échange et la libre circulation des idées et des expressions culturelles ainsi que des activités, biens et services culturels, et à stimuler la création et l’esprit d’entreprise dans leurs activités.

Le dernier paragraphe me paraît très pertinent, car on pourrait l’utiliser pour créer une licence libre assise sur les droits culturels, et non sur la propriété intellectuelle, destinée à promouvoir « le libre échange et la libre circulation des idées et des expressions culturelles« . D’après la convention, un État a manifestement la faculté de mettre en place un tel instrument dans le but de favoriser la diversité culturelle. D’autres textes peuvent également être cités, qui sont venus préciser le contenu des droits culturels, comme la déclaration de Fribourg adoptée en 2007. Elle compte parmi les droits culturels celui d’accès et de participation à la vie culturelle impliquant :

la liberté de développer et de partager des connaissances, des expressions culturelles, de conduire des recherches et de participer aux différentes formes de création ainsi qu’à leurs bienfaits.

Rappelons aussi que les droits culturels ont aussi connu une première reconnaissance en France avec l’article 28 de la loi NOTRe et l’article 3 de la loi sur la liberté de création :

L’État, à travers ses services centraux et déconcentrés, les collectivités territoriales et leurs groupements ainsi que leurs établissements publics définissent et mettent en œuvre, dans le respect des droits culturels énoncés par la convention de l’Organisation des Nations unies pour l’éducation, la science et la culture sur la protection et la promotion de la diversité des expressions culturelles du 20 octobre 2005, une politique de service public construite en concertation avec les acteurs de la création artistique.

Les débats restent vifs et complexes pour savoir quelle est la portée exacte de cette insertion des droits culturels dans la loi française, mais pourquoi ne pas considérer que l’État serait tenu à ce titre de reconnaître la validité d’une licence libre assise sur les droits culturels et non sur la propriété intellectuelle ? L’entreprise me paraît dans tous les cas valoir la peine d’être tentée.

Cela nous permettrait de disposer, non plus seulement de licences libres, mais de licences vraiment « libérées » pour reconstruire autour des droits culturels sa propre maison à la Culture libre.

Valérian et le cycle des 1000 réincarnations

La semaine dernière est sorti en salle Valérian et la cité des 1000 planètes, film réalisé par Luc Besson. Le long-métrage est une adaptation de la bande dessinée Valérian et Laureline, par Pierre Christin et Jean-Claude Mézières, qui compte parmi les classiques ayant posé les jalons de la science-fiction dès les années 60. Avec 200 millions d’euros,  le film a rassemblé le plus gros budget français de tous les temps et les attentes qu’il suscitait étaient à la hauteur de cette démesure. Les critiques sont pour l’instant très mitigées, pour ne pas dire assassines (voir par exemple ci-dessous celle de l’excellent YouTubeur INTHEPANDA, précédée par une introduction qui résume bien le contexte de production du film).

Ce n’est pas tellement le film de Besson qui m’intéresse, mais plutôt les circulations complexes d’influences qui existent entre l’univers de la BD originale, Valérian et Laureline, et le cinéma de Science Fiction. Avec la sortie du film, de nombreux articles ont refait surface qui insistent sur les nombreux emprunts que George Lucas, par exemple, a effectué à l’univers de Valérian pour élaborer celui de Star Wars. Les choses sont même allées plus loin, vu que Jean-Claude Mézières a écrit deux fois à Lucas pour l’interpeller sur des similitudes qu’il trouvait un peu trop marquées à son goût. George Lucas ne répondit jamais, mais on trouve facilement sur Internet des comparatifs qui pointent des ressemblances flagrantes. La forme du Faucon Millenium, la cryogénisation dans un bloc de carbonite de Han Solo, le bikini métallique de la princesse Leia dans Le Retour du Jedi : tous ces éléments iconiques (et un certain nombre d’autres…) figuraient déjà avec près d’une décennie d’avance dans les albums de Valérian et Laureline. Certains témoignages attestent par ailleurs que George avait eu accès aux Etats-Unis à ces bandes dessinées, ainsi qu’à celles d’auteurs français comme Moebius ou Druillet, à qui il emprunta aussi des éléments pour Star Wars.

De son côté, Luc Besson entretient également une longue histoire avec Valérian, titre qu’il a lu dans son enfance et qu’il souhaitait adapter au cinéma depuis des années. Il avait d’ailleurs déjà collaboré avec Jean-Claude Mézières sur le Cinquième élément qui s’inspire assez indirectement de Valérian dans son esthétique. Besson aurait sollicité le dessinateur en lui disant que les américains l’avaient assez pillé et qu’il était temps qu’un film français lui rende hommage.

Jean Giraud/Moebius a aussi travaillé sur le Cinquième élément, mais il a rompu sa collaboration avec Besson après s’être brouillé avec lui. Il finit même par lui intenter un procès pour plagiat, en l’accusant d’avoir repris des éléments essentiels de l’Incal, une autre série culte de bande dessinée qu’il élabora avec Alejandro Jodorowsky. Malgré des similitudes assez flagrantes, la justice n’a pas reconnu de contrefaçon dans ces emprunts, mais la carrière de Luc Besson est émaillée de plus d’une dizaine de procès pour plagiat et, à vrai dire, quasiment tous ses films ont attiré ce genre de critiques : du Grand Bleu à Taxi, en passant par Léon et Jeanne d’Arc. C’est comme si, à chaque fois, Besson écrivait ses films en flirtant constamment sur le fil qui sépare le plagiat répréhensible des emprunts légitimes au « fond commun » du cinéma de genre. L’an dernier, la société de production de Besson a cependant fini par être lourdement condamnée pour contrefaçon, à propos du film Lock Out, dont les similitudes avec le classique New York 1997 de John Carpenter étaient trop fortes (voir l’analyse de cette affaire par le juriste Lex Tutor sur YouTube, qui explique avec brio la différence juridique entre le plagiat et la contrefaçon).

Comme je l’ai dit en introduction, les critiques sont pour l’instant sévères à propos de Valérian et la cité des 1000 planètes. Si la dimension visuelle et les prouesses techniques du film sont saluées, on reproche à Besson la fadeur du scénario, l’inconsistance des personnages et, encore une fois… des emprunts très appuyés à des oeuvres antérieures. Certaines critiques américaines sont à ce titre intéressantes à lire, car elles relèvent que le Valérian de Besson comporte de nombreuses similitudes avec les films… de la prélogie Star Wars, notamment le premier épisode (La menace fantôme). L’intrigue politique, les passages sous-marins sur la planète Naboo, l’environnement urbain de Coruscant : tout ceci aurait été décalqué dans Valérian avec trop de servilité. Mais on arrive à un étrange paradoxe, car comment savoir à présent si c’est Besson qui s’est un peu trop inspiré de Lucas, ou si ces ressemblances avaient été auparavant importées par Lucas dans la prélogie à partir de la bande dessinée originale ? Les emprunts entre les deux univers se superposent au point de former un conglomérat inextricable où il devient difficile de discerner les inspirations des innovations…

Sur Numerama, Corentin Durand va plus loin et parle de Valérian, comme d’un « film-palimpseste », mais pas dans un sens élogieux, comme on a pu parfois le dire par exemple des productions de Quentin Tarentino. A force de chipper à droite à gauche à toutes les sources de la SF, Besson aurait transformé son film en un patchwork indigeste sans substance propre :

Avec Besson, les clins d’œil et citations ne sont jamais loin du réchauffé raté. Ainsi, en deux heures, le bestiaire, les tentatives de personnages, les vaisseaux, les mondes, les courses-poursuites, vous rappelleront trente ans de SF compilés ici, sous le sceau baroque d’un quinqua régressif et qui picore visiblement dans un corpus populaire.

[…] si vous avez plus de quinze ans et un peu de respect pour le genre ici insulté, vous pouvez regarder le dernier Star Trek, la prélogie Star Wars — pour retrouver le Coruscant décalqué dans Valérian Avatar et les Gardiens de la Galaxie : les meilleures idées chipées par Luc Besson s’y trouvent dans leur forme originelle.

L’accusation larvée de plagiat va donc encore une fois coller à la peau de Luc Besson, ce qui est a priori surprenant vu qu’il s’attaquait cette fois à l’adaptation d’une oeuvre originale. Mais il suffit à vrai dire de regarder l’affiche du film pour se rendre compte que le clin d’oeil à Star Wars est tout sauf subtil...

On mesure ainsi le gouffre qui sépare Luc Besson et George Lucas dans leur capacité à digérer leurs influences pour produire une synthèse créative. Pour élaborer Star Wars, George Lucas s’est en effet comporté comme une véritable « éponge » en absorbant de très nombreuses inspirations, qui sont souvent explicitement « citées » dans les films de la première trilogie. Lucas a avoué certaines de ses sources comme Flash Gordon ou les films de samouraïs du japonais Akira Kurosawa (La forteresse cachée notamment, d’où il aurait tiré l’idée du couple R2D2 et C3PO). Mais les inspirations « inavouées », à l’image de la BD Valérian et Laureline, sont encore plus nombreuses dans Star Wars. C’est ce qui explique que George Lucas figure en bonne place dans le documentaire Everything Is A Remix de Kirby Ferguson sorti en 2010. Le propos de cette série est de montrer que la création est rarement « originale » et qu’elle procède le plus souvent par réutilisation de contenus préexistants. Pour Star Wars, analysé dans le premier volet (voir ci-dessous à partir de 9.20 mn), Kirby Fergusson identifie de nombreuses scènes qui constituent des décalques presque à l’identique de plusieurs films antérieurs, qu’il s’agisse de westerns, de films de guerre ou de science-fiction.

Le génie de George Lucas donc n’a pas consisté à faire sortir Star Wars tout armé de son esprit, mais à sublimer ces différents emprunts et références pour les fondre en un tout qui dépasse de très loin la somme de ses parties. Et c’est au contraire exactement ce que Besson n’a pas réussi à faire avec son Valérian, qui s’effondre littéralement sous le poids de ses inspirations.

Il faut d’ailleurs noter que ce phénomène de « panne créative » n’affecte pas uniquement Luc Besson, mais concerne aujourd’hui beaucoup plus largement l’industrie du cinéma. Les blockbusters, notamment dans le domaine de la science-fiction, semblent avoir de plus en plus de mal à se dégager des productions antérieures pour proposer quelque chose nouveau aux spectateurs. C’est la conclusion à laquelle arrive Kirby Fergusson dans le dernier volet de sa série Everything Is A Remix, consacré à l’épisode VII de Star Wars (Le Réveil de la Force). Par peur de prendre trop de risques et de décevoir les fans de la saga, Disney a fait de ce film une sorte de remix de l’épisode IV de 1976 (Un nouvel espoir), aussi bien dans sa structure générale que dans certaines de ses scènes, reproduites presque à l’identique (voir ci-dessous).

Il en résulte une sensation dérangeante de ressassement et Kirby Fergusson conclut en faisant remarquer que s’il existe des remix créatifs, il en est d’autres qui restent stériles et dérapent dans la « cannibalisation » d’oeuvres préexistantes. On pourrait presque faire à ce sujet une analogie avec les préceptes du bouddhisme. Cette religion professe que pour atteindre la félicité du Nirvana, l’âme doit parvenir à se libérer du Saṃsāra, le cycle perpétuel des réincarnations. De la même manière, l’âme de la création a aussi besoin d’arriver à se libérer du cycle des remix pour apporter quelque chose de nouveau, sans quoi l’exercice reste vain.

Samsara, le cycle des réincarnations dans la religion bouddhique. (Domaine public. Source : Wikimedia Commons).

J’ai très souvent défendu sur ce blog le Remix, le Mashup et les autres formes d’usages transformatifs, qui sont essentielles à mes yeux pour la dynamique même de la création. La légitimité de ces pratiques nécessite selon moi une réforme en profondeur des règles du droit d’auteur, pour faire cesser la prohibition qui pèse actuellement sur elles. Mais il importe également de rester vigilants, car les industries culturelles ont bien compris que le Remix, à mesure où il sort de sa niche pour devenir plus populaire, pouvait aussi constituer un filon juteux. En un sens, cet « hommage » rendu par les industries culturelles pourrait constituer une bonne nouvelle, dans la mesure où les pratiques transformatives s’en trouveraient reconnues. Mais une boursouflure à 200 millions d’euros comme Valérian montre surtout à quel point cette logique industrielle peut dévitaliser le Remix et lui enlever son potentiel créatif.

Ce n’est d’ailleurs pas un hasard si les pratiques amateurs constituent encore aujourd’hui le terreau le plus fécond pour la pratique du Remix. Ne disposant pas des millions de dollars et des moyens techniques délirants des industries culturelles, ceux qui écrivent des fanfictions ou tournent des fanfilms sont obligés de mettre dans leurs histoires ce qui fait tant défaut au film de Luc Besson : un vrai scénario, de vrais personnages et un vrai respect pour les univers auxquels ils empruntent. J’ai noté à ce sujet dans un article du Hollywood Reporter ce passage ironique où un journaliste espère que les fans s’empareront du Valérian de Besson pour l’améliorer

Il y aura certainement un jour une édition fan-cutée de Valerian qui circulera sur Internet et sera projetée sur les campus des universités comme l’un des meilleurs et des plus colorés films de science-fiction jamais réalisés, mais en attendant, le film n’a pas ce qui faisait que Star Wars arrivait à surmonter ses lacunes.

Avis aux amateurs ? ;-)

Les Archives nationales montrent la voie de l’Open Data culturel !

Lentement (mais sûrement), les choses sont en train de bouger dans le monde culturel en faveur de l’ouverture des données. J’ai déjà eu l’occasion d’écrire à ce sujet en avril dernier à propos de l’évolution graduelle des politiques des bibliothèques, mais c’est du côté des archives publiques qu’une excellente nouvelle est tombée cette semaine : les Archives nationales ont adopté un nouveau règlement appliquant un principe de gratuité par défaut pour la réutilisation des informations publiques qu’elles détiennent (voir l’article écrit par Marc Rees sur NextINpact à ce sujet).

Cette décision est loin d’être anodine, à plus d’un titre. Rappelons tout d’abord que si les administrations françaises sont soumises depuis le vote de la loi République numérique l’an dernier à un principe « d’Open Data par défaut », ce n’est pas le cas des institutions culturelles qui relèvent encore d’un régime d’exception. La loi Valter, adoptée quelques mois avant la loi Lemaire, a certes fixé un principe de gratuité, mais en ménageant la possibilité pour les bibliothèques, archives et musées de continuer à percevoir des redevances de réutilisation pour les « informations issues des opérations de numérisation des fonds et des collections […] et, le cas échéant, sur des informations qui y sont associées lorsque ces dernières sont commercialisées conjointement« . Cela signifie que la réutilisation des reproductions numériques produites par ces établissements, ainsi que les métadonnées associées, peut continuer à être monnayée.

Mais les Archives nationales ont précisément fait le choix de ne pas appliquer ce régime dérogatoire et d’abroger leur précédente grille de tarifs datant de 2010. Cela signifie que la libre réutilisation devient la règle pour « les documents librement communicables à tous et sur lesquels des tiers ne détiennent pas des droits de propriété intellectuelle. » Il persistera bien des exceptions à ce principe, mais elles découlent logiquement de la législation en vigueur. Elles concernent : «  les documents qui ne sont pas encore librement communicables au regard du code du patrimoine ou d’autres dispositions législatives, les documents d’origine privée conservés aux Archives nationales mais dont l’accès ou l’exploitation sont soumis à restrictions ainsi que les œuvres de l’esprit qui ne sont pas encore tombées dans le domaine public. » Ce dernier passage est d’ailleurs important, car on en déduit a contrario que la gratuité concernera bien les oeuvres du domaine public. Il ne s’agit donc pas uniquement d’une politique d’Open Data, limitée à des informations, mais aussi d’un Open Content. Les Archives nationales avaient déjà commencé à s’engager dans cette voie grâce à un partenariat conclu avec Wikimedia France pour la libre diffusion de plus de 500 documents numérisés remarquables issus de leurs collections. On devrait logiquement assister à présent à une amplification de cette politique, qui est déjà la norme aux Etats-Unis ou en Allemagne.

Les Archives nationales sont déjà présentes sur Wikimedia Commons.

Les Archives nationales tirent aussi les conséquences du mécanisme d’Open Data « à la demande » mis en place dans la Loi Lemaire. Elles précisent en effet qu’elles seront « tenues de satisfaire les demandes faites au titre du droit d’accès, donc de remettre, le cas échéant, des copies des documents dès lors qu’ils sont librement communicables« . Cela signifie que si des copies numériques de documents existent, les AN seront obligées de les fournir aux demandeurs qui bénéficieront alors « d’un droit non exclusif et gratuit de libre réutilisation à des fins commerciales ou non, dans le monde entier et pour une durée illimitée« . On notera que les AN ont par contre fait le choix de ne pas appliquer de licence particulière à leurs données (comme la Licence Ouverte d’Etalab ou l’ODbL, par exemple). C’est tout à fait possible, les licences de réutilisation étant facultatives lorsque la réutilisation est gratuite. Ce sont les règles de base du Code des Relations entre le Public et l’Administration qui s’appliqueront par défaut, ce qui revient dans les faits à peu près aux mêmes conditions que la Licence Ouverte (libre réutilisation à charge de citer la source des données).

La décision des Archives nationales de passer à un Open Data par défaut a une portée symbolique importante, car le domaine des archives publiques est certainement l’un de ceux pour lesquels la réutilisation a soulevé jusqu’à présent le plus de crispations. Au niveau des archives départementales, un conflit a même éclaté avec la société de généalogie NotreFamille.com (rebaptisée depuis l’an dernier Filae) à propos de la réutilisation des données d’état civil. Cette querelle a même fini par dégénérer en contentieux et elle a encore connu des rebondissements après le vote de la loi Valter. Résultat : rares sont les archives municipales et départementales à s’engager dans des politiques d’Open Data aujourd’hui. En matière d’archives, l’essentiel de l’effort de numérisation au plan national a pourtant été porté par les départements et les Archives nationales, paradoxalement, ne sont pas aussi avancées en la matière que peut l’être la Bibliothèque nationale de France. Mais l’application de la gratuité par défaut aux AN reste un message important envoyé à l’ensemble de la sphère des archives, et même au-delà.

Plusieurs signes ces derniers mois montrent que les mentalités sont lentement en train d’évoluer dans le champ culturel. En mars dernier, le lancement du portail France Archives mis en place par le SIAF avait déjà été l’occasion de faire passer en Open Data les données d’inventaire des Archives nationales et départementales. Les choses avancent aussi en matière d’Open Content, comme le montrent par exemple les Archives des Hauts-de-Seine, qui ont publié ce mois-ci sous Licence Ouverte près de 2000 cartes postales numérisées sur le portail Open Data du département. Mais la nouvelle la plus spectaculaire en matière d’Open Data culturel est venue ces derniers jours de Toulouse. Les Archives municipales de la ville rose s’étaient déjà montrées pionnières en libérant dès 2013 leurs données et leurs contenus numérisés. A la fin du mois de juin, le Conseil municipal a décidé d’étendre cette politique à l’ensemble des établissements culturels de la ville : archives, musées et bibliothèques. Les données produites par ces institutions sont placées sous licence ODbL (avec une clause de partage à l’identique), tandis que les reproductions d’oeuvres du domaine public sont complètement ouvertes. C’est la première fois en France, à ma connaissance, qu’une politique globale d’Open Data culturel est appliquée à l’échelle d’une ville.

Des reproductions 3D d’objets conservés au Musée Saint-Raymond de Toulouse, librement réutilisables sur la plateforme Sketchfab.

Ce que ces exemples montrent, c’est qu’un nombre croissant d’établissements culturels font à présent le choix de ne pas appliquer le régime dérogatoire en matière de réutilisation que la loi Valter avait pourtant aménagé pour eux. J’avais déjà écrit en avril dernier un billet à propos de l’évolution sensible en faveur de l’ouverture que l’on constate du côté des bibliothèques. Près de la moitié d’entre elles pratiquent à présent la libre réutilisation des contenus qu’elles numérisent, notamment les bibliothèques universitaires et de recherche. Le secteur culturel le plus en retard en France en matière d’ouverture reste celui des musées. Cela s’explique en partie à cause de l’influence d’un établissement comme la RMN (Réunion des Musées Nationaux) dont l’agence photographique continue à commercialiser les reproductions des oeuvres du domaine public des musées pour lesquels elles numérisent les collections.

Mais on commence à voir que ce modèle de commercialisation des données arrive à bout de souffle. La ville de Paris a par exemple fait un choix similaire en confiant la gestion de ses fonds numérisés à une institution privée : la Parisienne de photographie. Or cette dernière connaît visiblement des problèmes de rentabilité suffisamment sérieux pour que sa suppression soit envisagée par la ville. Ces difficultés financières n’ont à vrai dire rien de surprenant, car on sait que la RMN est elle aussi lourdement déficitaire et qu’un trou inquiétant se creuse chaque année un peu plus dans son budget…

Le « trou de la RMN » tel que révélé par une question parlementaire en 2015.

Si les établissements culturels renoncent de plus en plus par eux-mêmes à lever des redevances de réutilisation sur leurs données, c’est qu’ils se rendent compte qu’il ne s’agit pas d’une manière pérenne de financer leurs activités de numérisation. La rentabilité n’est tout simplement pas au rendez-vous, tandis que les « dégâts collatéraux » provoqués par ce type de politiques sont importants. On pense notamment à la réutilisation des images par les chercheurs dans les articles publiés dans des revues scientifiques, qui se trouve fortement entravée lorsque le paiement de redevances est imposé.

De ce point de vue, les institutions culturelles doivent se rendre compte qu’elles sont dans une situation absolument identique à toutes les autres administrations : en dehors de quelques exceptions limitées, les données publiques n’ont qu’une faible valeur d’échange, alors qu’elles ont une forte valeur d’usage. Appliquer des redevances revient à neutraliser l’essentiel de cette valeur d’usage, sans être en mesure de dégager des ressources propres suffisantes pour auto-financer les activités des établissements. Et cela peut même s’avérer un piège redoutable, comme le montre ce qui est train d’arriver à la Parisienne de photographie, qui joue à présent sa survie pour avoir défendu ce modèle de marchandisation du patrimoine…

C’est ce constat lucide sur la valeur des données, fait notamment par le rapport Trojette en 2013, qui a conduit à la consécration du principe d’Open Data par défaut dans la loi Lemaire. Le Conseil National du Numérique avait d’ailleurs explicitement recommandé de ne pas faire d’exception pour les données culturelles et de les réintégrer dans le droit commun. La loi Valter en a décidé autrement, mais elle risque à présent de subir une forme d’abrogation par l’usage. C’est à mon sens une fatalité à long terme, car les redevances de réutilisation ne constituent pas en réalité un modèle économique, mais un modèle idéologique, lié à une tradition solidement ancrée dans notre pays de contrôle de la culture en complet décalage avec les réalités de l’économie de l’abondance.

Comme l’atteste la décision des Archives nationales, les établissements culturels peuvent faire le choix de dépasser cette vision passéiste de leur rôle. C’est la première fois qu’une institution de cette envergure adopte une politique générale d’Open Data et cela marque sans doute un jalon. Au niveau national, la Bibliothèque nationale de France (BnF) pratique déjà l’Open Data pour ses données bibliographiques placées sous Licence Ouverte depuis 2014. Mais les reproductions d’oeuvres du domaine public diffusées par la bibliothèque numérique Gallica font toujours l’objet de redevances de réutilisation. Et du côté des musées, force est de constater qu’aucun établissement national ne s’est pour l’instant engagé dans une politique d’ouverture, alors même que les exemples étrangers commencent à devenir significatifs (le Metropolitan Museum en a apporté la preuve en février dernier en libérant 375 000 images). On attend également à présent de voir quelles seront les orientations du nouveau Ministère de la Culture en la matière, car l’Open Data culturel constitue à l’évidence un enjeu national.

***

Les Archives nationales ont été créées à la Révolution française par la loi du 7 messidor de l’An II qui affirmait un principe de libre consultation des documents d’archives reconnu à tous les citoyens. Plus de deux siècles plus tard, une nouvelle page de cette histoire se tourne avec le passage à un principe de libre réutilisation des données, qui constitue le prolongement moderne de cette philosophie républicaine.

Vers la possibilité d’un Copyleft pour libérer les semences ?

Le mois dernier, la nouvelle s’est diffusée qu’une initiative avait été lancée depuis l’Allemagne pour proposer une licence libre applicable aux semences. Ce projet, porté par l’organisation à but non-lucratif Agrecol, s’intitule Open Source Seeds et il a pour objet d’appliquer à la culture des végétaux les principes du Copyleft appliqués depuis les années 90 dans la sphère du logiciel libre, par le biais d’instruments comme la licence GNU-GPL. Le journal d’Arte a consacré un court reportage à ce sujet, qui permet de bien cerner l’intérêt et les enjeux de la démarche.

A vrai dire, ce n’est pas la première fois que des licences libres applicables aux semences sont proposées et j’ai déjà eu l’occasion d’en parler deux fois sur ce blog : la première en 2013 et la seconde l’an dernier, à propos de deux licences en provenance des Etats-Unis. Les deux fois, j’avais souligné l’importance de tels projets, mais aussi les questions juridiques épineuses qui se posent au sujet de la validité de tels instruments. En effet, les semences ne relèvent pas des mêmes types de droits que les logiciels, qui sont automatiquement protégés par le droit d’auteur. En Europe, les variétés végétales sont couvertes par des COV (Certificats d’Obtention Végétale) et aux Etats-Unis, les caractéristiques des plantes peuvent aussi être protégées par le biais de brevets. Or l’acquisition de ces droits s’opèrent par le biais de procédures de dépôt, ce qui complique sensiblement l’articulation avec une licence libre

Mais ce nouveau projet Open Source Seeds ne se positionne pas de la même façon et il semble avoir trouvé une manière d’appuyer sa licence sur un fondement juridique original, qui permettra peut-être enfin de contourner les difficultés auxquelles se sont heurtées les tentatives précédentes. Cette prouesse mérite d’être saluée et je voulais prendre le temps d’expliquer la manière dont cette licence fonctionne.

De l’importance du Copyleft pour les semences

La première question que l’on est en droit de se poser, c’est de savoir quelle analogie il existe entre les semences et les logiciels et pourquoi il peut être intéressant de leur appliquer une licence libre. Ces raisons sont expliquées dans la documentation du projet, et notamment l’article « Liberating Seeds With An Open Source Seed Licence« , écrit par Johannes Kotschi et Klaus Rapf, qui a été traduite en français par Adrien Labaeye (cliquez ici pour télécharger cette traduction). Ce dernier propose d’ailleurs de traduire « Open Source Seed Licence » par « Licence Semence Libre » et je vais le suivre dans cette voie pour la suite de ce billet.

Il faut en effet savoir que les semences agricoles, qui historiquement ont été développées comme des Communs par un lent processus de sélection opéré sur des siècles par des générations de paysans, ont fait l’objet au cours du 20ème siècle d’un phénomène de privatisation et d’enclosure, à mesure qu’elles ont été saisies par des droits de propriété intellectuelle. Ce système, qui était censé à l’origine encourager l’innovation, a conduit à la concentration de ces droits entre les mains d’un petit nombre de firmes de l’industrie semencière (Monsanto, Bayer, Syngenta, etc.), qui se retrouvent de fait dans une situation d’oligopole extrêmement défavorable aux agriculteurs du monde entier (voir l’excellent documentaire ci-dessous pour en savoir plus).

La situation est donc en réalité très proche de ce qui s’est produit avec l’avènement des logiciels propriétaires dans les années 80, lesquels ont entraîné une riposte de la part du mouvement du logiciel libre. Le Copyleft, inventé par Richard Stallman pour le projet GNU-Linux, est venu répondre au Copyright pour garantir les libertés des utilisateurs et s’assurer que celles-ci ne pourraient plus être retirées une fois accordées. C’est exactement la même philosophie que les porteurs du projet Licence Semence Libre veulent appliquer aux végétaux :

Avec cette licence, Agrecol a trouvé un moyen de préserver les semences comme communs. « Libre » , dans la tradition de l’open-source, signifie que la semence reste libre d’accès et de droits de propriété intellectuelle tels que les certificats d’obtention végétales ou les brevets. Dans le même temps libre, dans le sens d’open-source, n’est pas équivalent d’un accès libre de tous droits et régulation. Il s’agit plutôt de protéger un bien en tant que commun, autrement dit, de le protéger de toute tentative de privatisation. Les règles de l’open-source ont d’abord été établies par des informaticiens à travers le projet GNU qui a défini et conduit à la création de la General Public License (GPL) et, plus récemment, aux licences Creative Commons qui s’appliquent aux créations généralement soumises au droit d’auteur.

La Licence Semence Libre autorise le bénéficiaire à utiliser la semence à des fins personnelles, à la multiplier, la donner, l’améliorer ainsi qu’à distribuer tout matériel génétique résultat d’une sélection ou amélioration. Simultanément, le bénéficiaire de la licence s’engage à céder ces mêmes droits à tout détenteur de la semence et des améliorations éventuelles et à s’abstenir de toute restriction
(brevet, certificat d’obtention végétale). Cette obligation est dite « virale » et généralement appelée « copyleft ». Avec le premier dépôt de licence, une chaîne de contrat est initiée et ce, en principe, sans limitation dans le temps. Les bénéficiaires de la licence en deviennent les titulaires. Ce faisant, la licence protège un commun qui ne peut plus être transféré dans le domaine privé.

On comprend l’intérêt d’appliquer ces principes de réciprocité qui ont prévalu pour le logiciel libre aux semences : l’obtenteur d’une nouvelle variété de végétaux obtenue par sélection peut grâce à cet instrument la mettre en partage et permettre à d’autres sélectionneurs de l’améliorer pour produire des variétés dérivées, par exemple mieux adaptées à des conditions de culture différentes ou présentant de nouvelles caractéristiques intéressantes. Mais le copyleft figurant dans la licence impose une règle de partage à l’identique (Share Alike), qui oblige tout utilisateur ayant produit une variété dérivée de la placer à son tour sous la même licence. De cette manière, on arrive à ce qu’une première variété libérée crée toute une « lignée » de végétaux libres, qui ne pourront plus refaire l’objet d’exclusivités et sur lesquels les droits d’usage demeureront perpétuellement ouverts.

Problèmes récurrents de validité…

Le problème, c’est que si cette démarche est relativement simple à mettre en oeuvre pour les logiciels, ce n’est pas le cas pour les végétaux. Les programmes informatiques, tout comme l’ensemble des oeuvres de l’esprit relevant de la propriété littéraire et artistique (textes, musiques, vidéos, peintures, dessins, etc.), sont automatiquement protégés par le droit d’auteur dès leur création, sans formalité à accomplir. Le droit d’auteur étant aussi bien un droit d’autoriser que d’interdire, il permet aux créateurs d’utiliser des licences libres pour accorder par voie contractuelle des autorisations générales de réutilisation, tout en continuant à fixer certaines obligations. C’est donc bien dans le droit d’auteur que le Copyleft des logiciels libres trouve son fondement et son caractère opposable à des tiers, qui peut être sanctionné en justice en cas de manquement.

La logique juridique à laquelle les semences sont soumises est différente. Un sélectionneur qui obtient une nouvelle variété n’entre pas automatiquement en possession d’un titre de propriété intellectuelle. Il doit pour cela accomplir une démarche particulière d’enregistrement dans le but d’obtenir un Certificat d’Obtention Végétale (C.O.V), voire un brevet aux Etats-Unis. Or cette procédure n’est pas gratuite et elle nécessite que la variété réponde à un certain nombre de critères fixés par la réglementation (dits DHS pour Distinction, Homogénéité, Stabilité).  A défaut de pouvoir s’arrimer à un tel titre de propriété préexistant, appliquer une licence à des semences pose des problèmes de validité juridique, car cela revient à bâtir une maison sans l’appuyer sur des fondations.

Des étiquettes indiquant que des variétés végétales font l’objet de COV, avec pour conséquence une « multiplication interdire sans autorisation ».

Les porteurs de la première licence Open Source pour les semences que j’avais repérée en 2013 et analysée sur ce blog avaient conscience de ces difficultés et ils exprimaient même des doutes quant à la validité des contrats qu’ils proposaient :

Il n’est pas certain que les conditions imposées par la licence puissent avoir une valeur juridique les rendant opposables. Il est possible qu’elles doivent être plutôt regardées comme un code de bonnes pratiques à respecter sur une base volontaire.

L’an dernier, un autre projet dont j’avais parlé sur le blog avait essayé de trouver une voie différente, en s’appuyant sur une forme « d’auto-obligation » de l’utilisateur. Leur licence était inscrite sur les paquets de graines à libérer et elle se « déclenchait » au moment où l’utilisateur le déchirait pour l’ouvrir. Celui-ci était alors réputé avoir accepté les conditions d’utilisation fixées par la licence, aux termes desquels il s’engageait à ne pas restreindre l’utilisation de ces graines ou de tout dérivé produit  à partir d’elles. C’était donc l’équivalent d’un Copyleft, mais s’appuyant uniquement sur une base contractuelle là où les licences de logiciel libre peuvent profiter par ricochet de la force de dispositions légales. Or si le procédé était astucieux, il n’était pas certain qu’il passe l’épreuve de la validité juridique devant un juge.

Les licences libres appliquées aux semences se heurtaient donc jusqu’à présent à une forme d’impasse, d’ailleurs assez similaire aux difficultés rencontrées par le mouvement de l’Open Hardware pour appliquer les principes du logiciel libre au matériel. Comme pour les Certificats d’Obtention Végétale, les objets physiques peuvent relever du droit des brevets ou de celui des dessins et modèles, qui ne s’obtiennent pas automatiquement, mais par des procédures de dépôt. Des tentatives ont bien été faites d’écrire des licences Open Hardware (TAPR Licence, CERN Licence), mais aucune n’a pour l’instant réellement réussi à convaincre quant à sa validité (voir ici pour une synthèse sur la question).

Trouver un nouveau fondement dans le protocole de Nagoya ?

Pour essayer de sortir de cette impasse, les porteurs du projet Open Source Seeds se sont tournés vers le Protocole de Nagoya « sur l’accès aux ressources génétiques et le partage juste et équitable des avantages découlant de leur utilisation« .  Ce traité international conclu en 2010 a pour but de défendre la biodiversité et de combattre ce que l’on appelle la « biopiraterie« , c’est-à-dire l’appropriation illégitime des ressources génétiques et des connaissances traditionnelles autochtones. De nombreux abus ont en effet eu lieu, lorsque des firmes pharmaceutiques, issus généralement des pays du Nord, ont déposé des brevets sur les propriétés de certaines plantes, avec pour effet de « déposséder » des populations autochtones qui en faisaient usage, parfois depuis des siècles.

Pour remédier à cette situation, le protocole de Nagoya essaie de trouver un compromis, en permettant d’une part l’accès pour les entreprises aux ressources génétiques, mais en conférant d’autre part aux populations autochtones le droit de consentir à l’usage de leurs connaissances traditionnelles et de fixer en retour des conditions, notamment pour percevoir un retour sur les bénéfices réalisés par les firmes. Le protocole de Nagoya est entré en vigueur depuis 2014 et il a été ratifié par un grand nombre de pays dans le monde (dont la France, mais pas les Etats-Unis).

D’après les promoteurs du projet Open Source Seeds, le Protocole de Nagoya constituerait un fondement juridique sur lequel une licence peut s’appuyer pour s’appliquer à des semences :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

De la même manière que les licences applicables aux logiciels libres ne tirent pas leur force uniquement de leurs clauses contractuelles, mais s’appuient sur un fondement supérieur (les législations sur le droit d’auteur, elles-mêmes fondées sur des traités internationaux comme la convention de Berne), la licence Semence Libre pourrait donc s’appuyer sur une norme de droit objectif, en l’occurrence le Protocole de Nagoya.

En bleu les Etats parties au Protocole de Nagoya ; en vert les pays où le texte est signé, mais pas ratifié. Source / Wikipedia.

Le texte du Protocole accorde en réalité une place importante aux Etats dans la détermination des conditions du partage équitable des avantages liés aux ressources génétiques, et c’est d’ailleurs un aspect qui a fait l’objet de critiques, dans la mesure où certains lui reprochent d’avoir en quelque sorte « étatisé » les connaissances traditionnelles, en cantonnant les communautés dépositaires à un rôle assez marginal. Le mécanisme de partage des avantages est parfois aussi accusé de risquer de dériver paradoxalement vers une nouvelle forme de marchandisation de ces connaissances, lorsqu’il prend une forme financière.

Néanmoins, il paraît possible d’en faire une autre lecture selon laquelle des licences libres pourraient constituer une manière pour les détenteurs de droits sur une ressource génétique d’exprimer et d’imposer les conditions d’accès et de réutilisation à des tiers. La différence, c’est qu’au lieu d’un partage des avantages sous forme de retour monétaire, l’approche par les licences libres imposerait un « partage à l’identique » (Copyleft), selon une logique de réciprocité et de constitution d’un bien commun.

Cette logique « contractuelle » se lit en filigrane dans ce type de passages que l’on retrouve dans le texte du Protocole :

Conformément à son droit interne, chaque Partie prend, selon qu’il convient, les mesures appropriées pour faire en sorte que l’accès aux connaissances traditionnelles associées aux ressources génétiques détenues par les communautés autochtones et locales soit soumis au consentement préalable donné en connaissance de cause ou à l’accord et à la participation de ces communautés autochtones et locales, et que des conditions convenues d’un commun accord soient établies.

Et le texte parle bien de la possibilité de passer par la mise en place de « clauses contractuelles type » pour régler le partage des avantages :

Chaque Partie encourage, selon qu’il convient, l’élaboration, la mise à jour et l’utilisation de clauses contractuelles types sectorielles et intersectorielles pour les conditions convenues d’un commun accord.

Quid de la commercialisation des semences libérées ?

Tous les problèmes ne seront pourtant pas réglés, même si on admet que les licences libres sur les semences puissent trouver un fondement valable dans le Protocole de Nagoya. Une autre difficulté susceptible d’affecter les semences libres concerne en effet les conditions de leur commercialisation. Au sein de l’Union européenne, les semences doivent faire l’objet d’un enregistrement dans un Catalogue Officiel qui conditionne la possibilité de les vendre. Or du fait des critères qu’il met en oeuvre, ce catalogue favorise mécaniquement les semences « propriétaires » protégées par des Certificats d’Obtention Végétale. Les variétés anciennes (dites aussi traditionnelles ou paysannes) sont difficiles à faire figurer au catalogue, ce qui restreint leur accès au marché et limite leur diffusion.

Les semences placées sous licence libre risquent de se heurter à ce même problème d’exclusion forcée du marché qui affecte les semences du domaine public. Les rédacteurs de la Licence Semence Libre en conviennent d’ailleurs et ils font référence à ces questions d’enregistrement au Catalogue dans la documentation :

Indépendamment de ces conditions, tout sélectionneur de semences utilisant la Licence Semence Libre pour de nouvelles variétés peut faire enregistrer ces dernières pour fins de commercialisation conformément à la régulation en vigueur. Une fois inscrite au Catalogue Officiel avec une dénomination de variété la nouvelle semence, même si elle ne bénéficie pas de protection, peut être commercialisée sous cette dénomination – par quiconque du fait de son caractère open-source (libre).

Il faudra voir à l’usage si des semences Open Source arrivent à obtenir leur inscription au Catalogue Officiel, car comme j’ai eu l’occasion de le montrer dans un billet récent, la commercialisation constitue un enjeu important, pour lequel se bat notamment une association comme Kokopelli, car elle est un vecteur à part entière de la diffusion des semences alternatives.

***

Au final, même si tous les problèmes ne seront pas immédiatement levés, cette nouvelle licence est néanmoins porteuse d’espoir, car elle va peut-être enfin permettre à la logique de l’Open Source de libérer des semences pour en faire à nouveau des Communs, en s’appuyant sur une base juridique valide. Ce serait d’ailleurs la première fois qu’une licence libre n’est pas assise sur la propriété intellectuelle et qu’elle parvient à s’autonomiser par rapport à ce fondement juridique. Pour l’instant, une variété de tomates et une autre de blé ont été déjà placées sous cette licence et la structure Agrecol se fixe comme objectif d’atteindre 20 variétés libérées en 2017. Si vous voulez soutenir cette initiative, parlez-en autour de vous et n’hésitez pas à verser un don.

 

Ressources pédagogiques, Learning Analytics et données personnelles

J’ai eu la chance récemment d’être invité pour intervenir lors des rencontres 2017 de la communauté Scenari (un logiciel libre permettant de créer des chaînes éditoriales pour produire  – entre autres – des ressources pédagogiques). On m’avait demandé à cette occasion de traiter le sujet des Learning Analytics (analyse des données d’apprentissage, en français) dans leurs liens avec la protection des données personnelles et je vous propose la présentation ci-dessous, qui essaie de balayer les divers aspects de la question.

Les Learning Analytics constituent un enjeu important du numérique appliqué aux activités pédagogiques, que ce soit à l’école, à l’université ou dans le secteur privé. C’est typiquement le genre de technologies présentant une nature « pharmacologique » – pour reprendre la notion de Pharmakon développée par Bernard Stiegler.  A la fois remède et poison, l’analyse des traces laissées par les utilisateurs des ressources pédagogiques offre des perspectives révolutionnaires d’accompagnement et de personnalisation des enseignements, de manière à ce que chacun puisse bénéficier au mieux des contenus numériques en fonction de son profil et de ses besoins.

Mais évidemment, ces outils technologiques peuvent aussi se révéler passablement intrusifs et porter atteinte à la vie privée des utilisateurs, en favorisant le fichage ou le profilage des individus, ainsi que la marchandisation des données qu’ils produisent en contexte d’apprentissage. La CNIL a d’ailleurs publié le mois dernier un article intéressant sur la question des Learning Analytics qui souligne bien cette nature ambivalente :

Si elles sont utiles à l’amélioration globale de la plateforme, la production et la réutilisation de ces données interrogent : elles pourraient tout aussi bien être utilisées pour prédire des situations d’échec, détecter des élèves à risque, enfermer les élèves dans des parcours scolaires « adaptés à leur profil »,  prédire les abandons dans les Moocs, voire même fournir des profils adaptés à des employeurs potentiels… Des finalités qui pour certaines, si elles ne sont pas encadrées, pourraient aboutir à des formes de discrimination.

[…] Au-delà de l’aspect juridique, des questions seront certainement à soulever du côté de l’éthique, dès lors que l’on cherchera à classer les élèves dès leur plus jeune âge pour repérer des cas de déviance, avec le risque de les enfermer dans des bulles d’échec. Pour que les données de leur enfance ne les poursuivent pas tout au long de leur vie.

Le (controversé) rapport « Enseignement supérieur et numérique », publié il y a quelques semaines par l’Institut Montaigne, accorde lui aussi une large place aux Learning Analytics, en lien avec l’enjeu du pilotage des établissements académiques :

L’analyse des données d’apprentissage (learning analytics) a également une importance capitale, puisqu’elle permet à la fois aux professeurs de connaître les attentes de leurs étudiants et leurs difficultés, et aux étudiants d’individualiser leurs parcours, d’identifier leurs faiblesses et de bénéficier d’une pédagogie sur mesure. La généralisation de cette analyse quantitative pourrait notamment être un moyen de lutter efficacement contre le décrochage en licence. Rappelons en effet que près de 60 % des inscrits en première année de licence ne passent pas en deuxième année. Plus globalement, elle constitue un réel levier pour améliorer la performance générale du système éducatif.

Il y a donc beaucoup de gains à attendre des Learning Analytics, mais elles risquent aussi de générer de redoutables externalités négatives, notamment si les communautés d’apprentissage ne maîtrisent pas les outils et l’environnement numérique où ces pratiques se dérouleront. On pense bien sûr ici aux effets de bord du partenariat signé entre l’Éducation nationale et Microsoft. À ce sujet, je vous recommande de lire la transcription de l’émission Rue des écoles- France Culture  « Élèves, tous fichés ? Quel encadrement pour le numérique dans l’éducation ? » , publiée par l’April, dans laquelle Daniel Agacinski pointe les risques de dépossession des institutions liés à l’utilisation d’outils propriétaires externes :

Mais il y a cette question, que vous avez évoquée aussi tout à l’heure, des traces d’apprentissage. Quand vous faites faire des exercices ou des leçons à des élèves, ou des interactions entre enseignants, par un certain nombre d’outils numériques qui sont à la disposition du grand public, avec ou sans conditions spécifiques à l’Éducation, vous laissez des traces d’apprentissage qui n’appartiennent, au fond, ni aux enseignants, ni aux élèves eux-mêmes, ni à l’Éducation nationale en tant qu’institution, mais à l’entreprise, au fabricant de cet outil-là.

Au fond, après, qu’il soit français, étranger, et que les données soient hébergées ici ou là, qu’est-ce qui se passe ? Il se passe que quand vous fabriquez un outil pédagogique et que vous l’ouvrez à un grand nombre d’utilisateurs, vous récupérez précisément ces traces d’apprentissage qui vont vous permettre de le développer et de l’améliorer considérablement. Or si, à moyen terme, les élèves français, les enseignants français, à force d’utiliser des outils que l’institution ne connaît pas complètement, ne maîtrise pas complètement, eh bien le travail que font les enseignants et les élèves au quotidien va, non pas servir à améliorer directement les pratiques des enseignants et la connaissance que l’Éducation nationale a de ses élèves, parce que vous disiez tout à l’heure l’Éducation nationale en sait beaucoup sur ses élèves, eh bien peut-être pas tant que ça, finalement ! L’Éducation nationale n’a pas les traces d’apprentissage .

Dans la présentation ci-dessus, j’essaie de passer en revue quelles sont les règles de protection des données personnelles applicables à ce type de traitements, dans le cadre de la réglementation CNIL actuellement en vigueur. Mais je m’efforce aussi d’anticiper des évolutions importantes à venir, notamment celle de l’entrée en vigueur l’année prochaine du Règlement Général de Protection des Données (RGPD) d’origine européenne, qui va profondément bouleverser la matière.

Là où la législation française reposait essentiellement sur des formalités préalables de déclaration à la CNIL, le règlement européen les supprime pour mettre en place un principe de « redevabilité » (accountability) qui va imposer aux établissements de définir a priori des politiques de protection des données (études d’impact, privacy by design, sécurisation, etc.). Par ailleurs, le règlement va désormais nécessiter de recueillir le consentement éclairé des personnes intéressées par un traitement des données personnelles, là où la loi française antérieure ne réservait cette obligation qu’à des hypothèses bien déterminées (données sensibles, cookies, prospection commerciale) et se limitait en dehors de ces cas à un devoir d’information préalable des individus. Si le règlement paraît globalement renforcer la protection des données et consacrer de nouveaux droits (comme celui à la portabilité des données), il a aussi des effets plus ambigus dans la mesure où certains acquis du cadre français paraissent fragilisés (l’exigence d’anonymisation des données par exemple est remplacée par une simple pseudonymisation moins protectrice). Le règlement permet aussi de mettre en place des pratiques de profilage prédictif du comportement des individus, qui peuvent avoir leur intérêt dans le cadre des Learning Analytics, mais dont le caractère intrusif pose aussi de nombreuses questions.

Au-delà du Règlement européen, j’essaie également de voir quelles vont être les incidences de la loi numérique sur les Learning Analytics. A priori, ces données devraient être concernées par l’obligation d’Open Data par défaut que la loi Lemaire impose aux administrations (y compris les universités). Cela signifie qu’elles devront mettre en ligne et rendre librement réutilisables les données d’apprentissage, sans pouvoir fixer de redevances de réutilisation (y compris pour les éventuels usages commerciaux réalisés par des entreprises). Mais ces principes ne vaudront que pour les données anonymisées, car l’Open Data par défaut ne s’applique pas aux documents contenant des informations à caractère personnel. Et cela ne concerna pas non plus le contenu des ressources pédagogiques elles-mêmes, lorsqu’il est protégé par le droit d’auteur. Une licence libre peut bien sûr être appliqué pour entrer dans la logique des Ressources Educatives Libres (REL), mais ce n’est pas une obligation pour les établissements.

Au final, le cadre juridique n’empêche pas bien sûr pas de déployer des technologies de Learning Analytics, mais il impose de prendre des précautions pour garantir les droits des individus concernés (information, consentement, accès, effacement, portabilité) et la maîtrise de leurs données. La mise en place peut être relativement simple si l’on se contente de traiter des données anonymisées (à condition de garantir que les réidentifications indirectes soient impossibles, ce qui peut ne pas être si évident). Mais il faudra établir des politiques de protection précises et spécifiques pour être en mesure d’effectuer des traitements de données personnelles, ce qui paraît inévitable si l’on veut bénéficier à plein du potentiel des Learning Analytics.

Ce sujet est extrêmement intéressant, car il se trouve au carrefour de plusieurs évolutions juridiques importantes – et parfois contradictoires, puisque les administrations vont bientôt se retrouver à devoir gérer en même temps des exigences accrues de protection, mais aussi d’ouverture. Il faudra sans doute du temps et beaucoup d’expérimentations pour trouver où positionner le curseur de manière à tirer le meilleur parti de ces technologies, sans fragiliser les droits des individus.

 

Humain, robotique, animal : que devient l’auteur ?

Ces dernières semaines, une succession de décisions de justice ont été rendues, suscitant de nombreux débats, qui interrogent profondément la définition de ce qu’est un auteur. Ces discussions ont porté sur des objets a priori disparates : une photographie de Jimi Hendrix, des transcriptions de manuscrits médiévaux, un selfie pris par un singe et des créations produites par des algorithmes. Bien qu’une telle liste puisse ressembler à un improbable inventaire à la Prévert, ces éléments ont pour point commun la manière dont ils questionnent le concept central d’originalité et à travers lui, la définition juridique de l’auteur.

La création a ses mystères, notamment sur le plan juridique ! (Michel-Ange. Domaine Public. Source : Wikimedia Commons).

Le Code de propriété intellectuelle se contente de présenter l’auteur comme celui qui crée une « oeuvre de l’esprit », sans donner de définition précise de celle-ci. La jurisprudence a ajouté au fil du temps deux critères d’éligibilité à la protection du droit d’auteur : la mise en forme des idées et l’originalité entendue comme « l’empreinte de la personnalité de l’auteur » dans l’oeuvre. Mais ce concept s’est toujours avéré extrêmement fuyant et imprévisible dans son applicable par les juges, avec de surcroît des divergences notables selon les pays. Il arrive ainsi que les tribunaux refusent la qualité d’auteur à un créateur, selon des critères difficiles à appréhender et parfois de manière assez déroutante.

Le fameux « Monkey Selfie » qui a déjà fait couler tant d’encre… (Source : Wikimedia Commons).

Mais au-delà de ce « flou ontologique » (ou peut-être justement à cause de son existence…), d’autres débats plus surprenants surviennent. La question revient par exemple de plus en plus souvent de savoir s’il faut reconnaître un droit d’auteur aux intelligences artificielles et aux robots lorsqu’ils produisent des créations comme des textes ou des musiques (voir par exemple cet article de synthèse sur The Conversation). Et cela fait maintenant près de six ans qu’une controverse improbable a éclaté pour savoir si un singe qui s’est pris en selfie avec un appareil photo trouvé dans la jungle doit être considéré comme l’auteur du cliché. La question paraît à première vue saugrenue, mais il est fort possible que la Cour suprême des États-Unis ait un jour à se prononcer sur cette affaire, finalement pas si anodine que cela…

Ces disputes peuvent sembler baroques au premier abord, mais je crois au contraire qu’elles permettent de mettre le doigt sur des aspects fondamentaux du droit d’auteur. Notamment, elles obligent à se repencher sur l’articulation entre des notions essentielles comme la liberté, la sensibilité, l’originalité, la personnalité et in fine l’humanité.

Insaisissable originalité…

Une grande partie des difficultés dans ces débats tient au caractère insaisissable du concept d’originalité, qui est pourtant considéré comme la « pierre angulaire du droit d’auteur« . De manière assez paradoxale, l’originalité se retourne souvent contre les créateurs, car elle constitue un argument utilisé en justice par ceux qui se défendent contre des accusations de contrefaçon, pour essayer de leur dénier la qualité d’auteur.

C’est ce qui s’est produit à propos d’une célèbre photographie de Jimi Hendrix, dans une affaire qui fit grand bruit en 2015 et dont la décision en appel est tombée la semaine dernière. Un vendeur de cigarettes électroniques avait détourné un portrait de Jimi Hendrix réalisé en 1967 par un célèbre photographe anglais, en remplaçant la cigarette de la rockstar par une vapoteuse.

La photographie en question, par Gered Mankowitz, qui va nous permettre de nous plonger dans les brumes opaques du concept d’originalité.

En première instance, le photographe – sans doute un peu trop confiant – ne s’est pas défendu de manière adéquate lorsque la partie adverse a répliqué en prétendant que cette photographie n’était pas originale. Dans une telle hypothèse, les juges demandent en effet à l’auteur de produire un discours dans lequel il doit justifier des différents choix opérés pour aboutir à la création de son oeuvre. Or les juges ont estimé que dans son argumentaire, le photographe n’avait pas assez distingué ce qui relevait de la pose prise par Jimi Hendrix de ses propres apports personnels, ne mettant pas « les défendeurs en mesure de débattre de l’originalité de la photographie litigieuse et le juge d’en apprécier la pertinence ». Le défaut d’originalité a de lourdes conséquences, car la photographie n’est alors plus considérée comme une « oeuvre de l’esprit » et le photographe n’est plus un auteur au sens juridique du terme. Le cliché appartient complètement au domaine public et il devient possible de le réutiliser, de l’exploiter et de le détourner librement, sans même avoir à citer le nom de la personne qui l’a produit.

Mais le photographe (ou plutôt ses avocats…) ont tiré les enseignements de cette première déconvenue et ils ont réussi à convaincre les juges d’appel de l’originalité de la photographie en modifiant leur discours. Ils ont insisté cette fois sur le choix du noir et blanc, du décor, de l’éclairage, de l’angle de vue, du cadrage et de l’appareil photo lui-même, permettant au juge de conclure que « la photographie en cause est le résultat de choix libres et créatifs opérés par le photographe traduisant l’expression de sa personnalité« . Si la décision a été accueillie avec soulagement dans le milieu des photographes professionnels, elle laisse aussi une impression mitigée sur la consistance même de la notion d’originalité, car on voit bien avec cet exemple sa profonde subjectivité et son caractère de discours produit a posteriori pour justifier de prétendues décisions conscientes, sans doute assez éloignées de la réalité du processus créatif lui-même.

Mais les choses se compliquent encore lorsque l’on sait que la manière dont les tribunaux français appréhendent l’originalité diffère sensiblement de la définition qu’en donne la Cour de Justice de l’Union européenne. Celle-ci s’efforce en effet depuis plusieurs années de pousser une conception plus objective et moins « personnaliste » de la notion d’originalité [voir notamment les décisions Infopaq (2009) et Eva Maria Painer (2011), cette dernière portant justement sur un portrait photographique]. La CJUE a érigé l’originalité en une « notion autonome du droit de l’Union », en définissant l’oeuvre protégeable comme « une création intellectuelle propre à son auteur« . Cela semble a priori assez proche de la conception française, mais pour certains juristes,  cette définition européenne serait plus objective que la traditionnelle « empreinte de la personnalité » chère aux juges hexagonaux.

En pratique, ces divergences subtiles introduisent des incertitudes tenaces pour identifier les oeuvres protégées et, par ricochet, qui est auteur. C’est ce que montre notamment une intéressante jurisprudence relative à la transcription de manuscrits anciens, dont j’ai déjà eu l’occasion de parler dans S.I.Lex, et pour laquelle nous avons également eu un jugement en appel la semaine dernière. Dans cette affaire opposant la librairie Droz à l’éditeur Garnier, il est question d’éditions critiques de manuscrits médiévaux opérées par des spécialistes à partir de multiples fragments de textes et pour lesquels l’original a été perdu. Cette opération ne peut se résumer à un simple déchiffrage : elle comporte assurément des choix effectués pour sélectionner telle version plutôt qu’une autre ou pour rétablir parfois des portions manquantes, en essayant de se rapprocher le plus possible du texte « originel ».

L’établissement d’éditions critiques à partir de manuscrits anciens. Un travail assurément intellectuel, mais pas « créatif » au sens du droit d’auteur. (Image Domaine public. Source : Wikimedia Commons).

En 2014, les juges de première instance avaient rendu un jugement qui a fait couler beaucoup d’encre, considérant que ce travail d’édition critique ne donnait pas lieu à l’attribution d’un droit d’auteur sur le texte reconstitué. La décision avait notamment été motivée par ce raisonnement :

Il convient de rappeler que le droit de la propriété intellectuelle n’a pas vocation à appréhender tout travail intellectuel ou scientifique mais uniquement celui qui repose sur un apport créatif qui est le reflet de la personnalité de son auteur.

Or en l’espèce, le savant qui va transcrire un texte ancien dont le manuscrit original a disparu, à partir de copies plus ou moins nombreuses, ne cherche pas à faire œuvre de création, mais de restauration et de reconstitution et il tend à établir une transcription la plus fidèle possible du texte médiéval, en mobilisant ses connaissances dans des domaines divers.

Cette position se comprend par rapport à une conception « subjectiviste » de l’originalité, mais elle pose question si on adopte une vision plus « objectiviste » destinée à protéger une « création intellectuelle propre » et pas uniquement « l’expression d’une personnalité ». La librarie Droz a d’ailleurs essayé de jouer sur ce point en appel, en présentant des tableaux montrant les différences entre les versions établies par ses spécialistes et celles existants déjà pour les mêmes textes (ce qui est typiquement une manière « objectivante » d’essayer de prouver l’originalité d’une production). Mais les juges d’appel ont maintenu la décision de première instance en considérant qu’aucune preuve d’un « travail créatif sur les textes » n’avait été apportée. Selon la Cour, « ces comparaisons portent sur des éditions réalisées à des époques différentes, avec des connaissances et des moyens qui avaient évolué, expliquant ainsi les divergences sans démontrer qu’elles sont le fruit de la créativité de leur auteur« . Les arguments liés à la ponctuation sont aussi inopérants, car celle-ci « obéit à des règles de grammaire et a pour but de rendre le texte intelligible, de même que l’utilisation de majuscules ou d’espaces qui en sont la conséquence et ne relèvent pas d’une création originale portant l’empreinte de son auteur.« 

On peut donc en déduire que, contrairement à ce que soutient toute une partie de la doctrine française, les juges hexagonaux semblent encore attachés à une conception « personnaliste » de l’originalité, ce qui a pour effet de border le champ d’application du droit d’auteur en laissant ici les transcriptions de manuscrits anciens dans le domaine public, mais avec pour conséquence que les spécialistes de ces travaux sont dénués du statut d’auteur. Tel est l’effet de cette originalité « à géométrie variable », mais ce n’est pas la seule surprise que nous réserve le concept…

L’animal sera-t-il un auteur comme les autres ?

Complexe déjà à saisir en ce qui concerne les humains, l’originalité peut provoquer des effets de bord plus étranges encore et rien ne le montre mieux que la célèbre affaire du Selfie de Singe (Monkey Selfie) ! En 2011, un macaque noir trouve dans la jungle indonésienne un appareil déposé à son campement par le photographe animalier David Slater. En jouant avec les boutons, il déclenche le mécanisme et prend une série d’auto-portraits assez extraordinaires. Après une série de péripéties rocambolesques (dont je ne vais pas reparler ici, ayant déjà écrit à ce sujet sur ce blog), le photographe – qui estime être l’auteur légitime de ces images parce qu’il aurait procédé aux réglages préalables de l’appareil… – est accusé de contrefaçon par l’association de défense des animaux PETA qui lui intente un procès aux États-Unis pour défendre les droits du singe ! Une première décision de justice a été rendue en 2015, qui a rejeté les prétentions de l’association au motif que le législateur américain n’a manifestement pas envisagé que le copyright puisse bénéficier aux animaux. La semaine dernière, les juges d’appel se sont réunis pour délibérer à nouveau et on attend (avec impatience !) le rendu de leur décision sous peu.

David Slater et le fameux macaque facétieux. Il y a un auteur sur cette image et un seul. Sauras-tu deviner où il est ? ;-)

Cette affaire provoque depuis plusieurs années des échanges nourris entre trois partis : ceux qui défendent les droits du photographe, ceux qui admettraient volontiers un copyright pour le singe et ceux qui estiment que cette image doit appartenir au domaine public. Je me situe pour ma part plutôt du côté de cette troisième solution, mais je trouve néanmoins que la plupart des commentateurs positionnent mal leurs arguments et qu’ils manquent l’essentiel de ce qui est en jeu dans cette affaire. Beaucoup cherchent en effet à tout prix à faire en sorte que quelqu’un soit propriétaire des droits sur cette photographe, et à ce compte, on peut tout à fait renvoyer le photographe et PETA dos à dos. Cela tient à mon sens au fait que nous vivons immergés dans un paradigme « propriétariste » et qu’il nous est difficile d’imaginer qu’une chose puisse n’appartenir à personne. De mon point de vue, cette photographie constitue pourtant (tout comme le singe,  d’ailleurs…) une res nullius, c’est-à-dire une chose sans maître n’appartenant à personne et le domaine public est le statut qui lui convient le mieux.

Ceci étant dit, je trouve également que les arguments de ceux qui s’opposent à la reconnaissance d’un droit d’auteur au bénéfice du singe sont généralement assez faibles, car on ne peut balayer cette hypothèse d’un simple revers de la main comme si c’était en soi une solution « inconstructible » en droit. J’avais d’ailleurs déjà écrit sur cette question de « l’Animal Copyright » (bien avant que n’éclate l’affaire du Monkey Selfie…) et le problème gagne à être réexaminé aujourd’hui. Les avocats de PETA se montrent en effet excellents et ils soulèvent des arguments assez redoutables. Leur angle d’attaque principal consiste à faire valoir que si la loi parle bien de « l’auteur », elle ne précise à aucun moment que celui-ci doit nécessairement être humain (ce qui est vrai aussi bien aux États-Unis qu’en France) et ils ajoutent :

La protection prévue par la loi sur le droit d’auteur ne dépend pas de l’humanité de l’auteur, mais de l’originalité du travail lui-même.

Nous voilà donc à nouveau ramenés sur le terrain de l’originalité, dont on peut a priori se dire qu’elle sous-entend nécessairement la présence d’un être humain. Mais les choses sont en réalité beaucoup plus complexes. PETA a notamment fait comparaître lors du procès un primatologue qui a expliqué que les singes ont une sensibilité et que les individus au sein de la même espèce présentent des « personnalités » distinctes, au sens de caractères propres. Il me semble néanmoins que, même sur cette base,  la position de l’association est indéfendable pour ce « selfie » en particulier, car cette photo a été prise par inadvertance et à vrai dire, même si c’était un humain qui avait appuyé ainsi sur le déclencheur d’un appareil, le cliché qui en aurait résulté n’aurait pas constitué une oeuvre protégeable. Mais cela n’implique pas à mon sens que l’on écarte sine die l’idée que, dans d’autres circonstances, les grands singes puissent bénéficier d’un droit d’auteur au titre de l’expression d’une sensibilité ou d’une « personnalité ».

Il existe par exemple des singes qui aiment peindre, comme ce fut le cas pour un chimpanzé dénommé Congo, qui vécut dans les années 50 et produisit plus de 400 toiles au cours de sa vie. Il s’était épris de cette activité après y avoir été initié par un zoologiste et Picasso en personne a acquis l’un de ses tableaux pour l’accrocher dans son atelier. Au-delà de cet exemple particulier, rappelons que depuis une réforme de 2015, les animaux ne sont plus considérés en France comme des choses (des « biens meubles » disait l’ancien Code Civil), mais comme des « êtres doués de sensibilité » et en Argentine, un orang-outang a même été reconnu en 2015 comme une « personne non-humaine ».

La qualité de la sensibilité, et même celle de la personnalité, peuvent donc très bien être attribuées aux animaux. Ce qui fait obstacle à la reconnaissance d’un droit d’auteur à leur profit, c’est plutôt le fait que les juges définissent « l’oeuvre de l’esprit » comme une « création intellectuelle » dont le créateur doit être capable de justifier l’originalité par la production d’un récit attestant des « choix libres » mis en oeuvre pour produire l’oeuvre. Difficile en effet d’imaginer que Naruto – nom donné au fameux macaque qui s’est pris en selfie – nous explique un jour ses choix créatifs (cela dit, méfions-nous quand même, parce que certains singes sont visiblement capables d’acquérir la capacité de manier des formes élaborées de langage…).

Mais à vrai dire, cette manière de raisonner est encore bien trop « anthropomorphique » et le droit lui-même ne fonctionne pas toujours ainsi. Car si certains sont « choqués » que l’on puisse envisager de reconnaître la personnalité juridique à des animaux, personne ne s’émeut plus qu’on l’attribue à des sociétés ou des collectivités publiques sous la forme de la personnalité morale. Or des personnes morales peuvent très bien aussi se voir reconnaître des droits de propriété intellectuelle. C’est chose courante aux États-Unis où le copyright sur les œuvres produites par des salariés appartient dès l’origine à leur employeur et donc aux entreprises pour qui ils travaillent (cas fameux par exemple des scénaristes d’Hollywood ou des créateurs de comics). Mais même en France, contrairement à la vulgate « beaumarchéenne » que l’on entend souvent, cette hypothèse est de plus en plus fréquente. Depuis plusieurs années, les tribunaux semblent en effet avoir une conception extensive de la notion « d’oeuvre collective » pour laquelle les droits appartiennent bien dès l’origine à l’employeur, même si en dehors d’une telle hypothèse, la Cour de Cassation répugne encore à aller trop loin en la matière.

Or si des personnes morales peuvent se voir reconnaître des droits d’auteur, pourquoi des animaux ne le pourraient-ils pas ? Pour ma part, je ne trouve pas la première hypothèse plus « naturelle » que la seconde, une société étant par définition un être de fiction. Tout est affaire d’opportunité et de choix de société, et c’est bien ce que les avocats de PETA essaient de défendre à travers ce procès. Car reconnaître un droit d’auteur aux singes ne leur fera sans aucun doute ni chaud, ni froid, mais c’est avant tout un levier juridique pour que des tiers, telle l’association PETA, puissent les représenter en justice et faire payer des droits sur l’exploitation de leurs « productions. » En ce sens, la notion d’auteur devient une sorte de simple « point d’imputation » au sens juridique, nécessaire pour qu’un intermédiaire puisse agir pour récupérer des sommes au nom de « l’auteur ». Cela ne vous rappelle-t-il rien ? Remplacez par exemple l’acronyme PETA par SACEM et vous verrez que le montage présente alors comme des airs de familiarité… Nous y reviendrons d’ailleurs plus loin, car historiquement, le droit d’auteur s’est toujours construit comme un instrument destiné à ce que des intermédiaires puissent bénéficier de droits cédés par les auteurs. Et si on arrive à quitter un instant les œillères de l’idéologie, on se rend compte que cela reste même sa fonction principale et la raison pour laquelle il a été construit comme un droit de propriété.

En ce sens « fonctionnel », l’idée d’un droit d’auteur pour les animaux n’est donc finalement pas plus absurde que le droit d’auteur lui-même et on va voir qu’il en va de même en ce qui concerne les machines.

Qui veut un droit d’auteur pour les machines ?

Depuis le début de l’année, la question de l’opportunité de créer un droit d’auteur pour les robots ou les intelligences artificielles revient sans cesse. Elle s’est même frayée un chemin jusqu’au Parlement européen, qui a officiellement demandé en février dernier à la Commission de faire des propositions de cadre légal en matière de robotique, incluant la création d’une « personnalité électronique » et des solutions concernant les droits de propriété intellectuelle sur leurs créations. Il est vrai que les progrès en matière de créations produites par des machines autonomes sont spectaculaires. Cela fait déjà un certain temps que des algorithmes sont capables d’écrire des chroniques météo, sportives ou boursières à partir de données. Mais l’an dernier, c’est un roman co-écrit par une intelligence artificielle qui a réussi à passer l’épreuve de sélection d’un concours de littérature au Japon. Et on apprenait la semaine dernière que Spotify a recruté un spécialiste français du machine learning pour qu’il développe des « outils d’assistance à la création musicale« , dont beaucoup soupçonnent qu’ils finiront par composer automatiquement des morceaux pour enrichir les playlists de la plateforme sans qu’elle ait à verser de droits à des humains.

A vrai dire, la question de la création assistée par ordinateur existe depuis longtemps, mais ce qui change aujourd’hui, c’est l’apparition de machines autonomes, capables de prendre des décisions indépendantes et donc de procéder à des choix. De manière intéressante, deux questions ressortaient dans le rapport du Parlement européen sur l’encadrement légal des robots : celle des éventuels droits de propriété intellectuelle à reconnaître aux machines et celle de leur responsabilité lorsqu’ils provoquent des dommages. Or le langage courant considère que l’on est « l’auteur d’une oeuvre » comme on est « l’auteur d’une faute ou d’une infraction ». L’accession à l’auctorialité constitue donc un élément déclencheur qui pourrait faire que les machines quittent le monde des objets pour basculer du côté des sujets de droits.

« Je crée donc je suis (un auteur) », pense cette machine…

Les termes de la question se posent à vrai dire dans des termes assez similaires à ceux de l’affaire du selfie de singe. Si les machines n’ont pas de droit d’auteur propre, il existe de fortes chances pour que leurs productions appartiennent directement au domaine public. Or notre système propriétariste a horreur du vide et il cherche donc à reconstituer un « point d’imputation » auquel il pourra raccrocher des droits exclusifs, de manière à pouvoir inclure à nouveau ces « actifs » sur des marchés. Et pour cela, on sent bien que beaucoup d’acteurs seraient prêts à couper le cordon ombilical entre le droit d’auteur et l’humanité (avec d’ailleurs sans doute beaucoup moins de remords théoriques que pour les singes !).

Là encore, le noeud gordien tourne autour de l’attribution de la personnalité juridique, raison pour laquelle certains avancent l’idée de créer une « personnalité électronique » que l’on pourrait reconnaître aux robots. Le sens commun répugne à cette idée, car il tend à voir dans la personnalité un attribut caractéristique des humains. Mais cette vision des choses est profondément fausse. Comme l’indique l’étymologie du terme (persona en latin, qui désigne le masque que portaient les acteurs de théâtre), la personnalité est une pure fiction juridique. Il a existé des époques où des humains étaient des choses et n’avaient pas la qualité de personnes (les esclaves, par exemple) et aujourd’hui encore, c’est la loi qui détermine arbitrairement que le foetus est dépourvu de personnalité juridique jusqu’à un certain stade de développement, variable selon les pays. Par ailleurs, nous avons vu que la personnalité pouvait être reconnue à des entités comme les entreprises ou les collectivités, suprême preuve de l’artificialité de la notion. Rappelons aussi qu’en mars dernier, un fleuve de Nouvelle Zélande s’est officiellement vu reconnaître par le biais d’une loi la personnalité juridique, ouvrant droit à une tribu Maori de représenter ses intérêts en justice.

Dès lors que l’on regarde en face cette artificialité foncière de la notion de personne juridique, il n’existe plus aucun obstacle théorique à ce qu’elle soit étendue aux robots et aux intelligences artificielles. Mais à vrai dire, raisonner ainsi est encore trop anthropomorphique, puisque dans l’absolu, même un vulgaire fer à repasser sans aucune intelligence, ni autonomie pourrait recevoir la personnalité juridique à condition qu’un législateur le décrète ! La question ne se pose pas en termes d’artificialité ou de naturalité, mais uniquement par rapport aux effets engendrés par l’attribution de cet attribut aux machines. Or ici, l’enjeu réel du débat porte sur l’antagonisme entre le domaine public et le droit de propriété. Soit les machines acquièrent une personnalité et il sera possible d’attacher des droits de propriété intellectuelle à leurs productions. Soit elles n’en auront pas et les créations qu’elles produiront n’appartiendront à personne. Or quelque chose me dit que notre époque a une aversion beaucoup plus forte envers le domaine public et l’absence de propriété qu’elle n’aura de scrupules à commettre l’apparent sacrilège de lèse-humanité qui consisterait à reconnaître un droit d’auteur aux machines !

Je mets donc ma main à couper que les arguments « humanistes » que l’on oppose à cette idée seront assez rapidement balayés et que de puissants intérêts économiques et industriels inscriront bientôt à l’agenda législatif la reconnaissance de droits de propriété intellectuelle pour les robots. Sans doute d’ailleurs avec d’autant plus de facilité que s’il paraît délicat d’étendre la notion « d’oeuvre de l’esprit » aux productions des animaux, cela le sera beaucoup moins pour les intelligences artificielles à qui l’on reconnaîtra plus volontiers une activité d’ordre « intellectuelle » et la capacité de faire des « choix autonomes » qui sont la marque même de l’originalité et le signe de « l’empreinte de la personnalité » (et ce alors même que « l’intelligence artificielle » n’a en réalité rien à voir avec l’intelligence des humains…).

Mais poussons ce raisonnement sur l’artificialité un cran encore plus loin, en nous replongeant dans les origines historiques véritables du droit d’auteur.

Se souvenir de l’artificialité originelle du droit d’auteur…

Dans ces discussions sur le droit d’auteur pour les machines ou pour les animaux, il y a quelque chose qui m’agace toujours prodigieusement, car ces débats sont environnés d’un épais voile idéologique qui obscurcit le raisonnement. Beaucoup considèrent en effet qu’il ne serait « pas naturel » de reconnaître un droit d’auteur aux animaux ou aux machines, mais ils oublient ce faisant que la consécration d’un droit d’auteur aux humains est en elle-même purement artificielle.

Rappelons en effet que le droit d’auteur est une invention historiquement récente qui date de 1709 en Angleterre et de la Révolution de 1789 pour la France. Auparavant durant des siècles – et alors que l’Humanité a toujours eu des activités créatives-, l’idée même du droit d’auteur est restée ignorée. C’est donc une pure construction légale qui l’a fait naître à un moment historique donné et rien ne garantit d’ailleurs que cette fiction existera toujours.

Mieux encore, il est important de se rappeler comment le droit d’auteur est né exactement et, surtout, par qui l’idée de le créer sous la forme d’un droit de propriété a été avancée. Pour cela (contrairement à ce qui est enseigné dans la plupart des facultés de droit), il faut remonter non pas à la Révolution française et aux combats de Beaumarchais face à la Comédie française, mais un peu avant sous l’Ancien Régime à la « Querelle des Libraires ».  Au début du XVIIIème siècle, les libraires (équivalent de nos éditeurs actuels) obtenaient des monopoles d’exploitation des ouvrages sous la forme de privilèges octroyés par le Roi. Mais ceux-ci étaient limités dans le temps, ce qui fait qu’après quelques années les livres pouvaient être publiés par n’importe quel libraire du pays. Or les libraires parisiens, qui avaient un accès plus facile aux auteurs, souhaitaient que ces privilèges deviennent perpétuels, de manière à ne pas souffrir de la concurrence des libraires de Province. L’affaire dégénéra en justice et c’est là que les libraires parisiens eurent l’idée d’inventer la propriété des auteurs.

Voyez ce qu’en dit l’historien du droit Laurent Pfister dans cet article :

C’est à partir de 1725 que les éditeurs parisiens s’efforcent de rendre leur monopole définitivement opposable à l’État royal qui menace de le leur retirer. Par la voix de leurs avocats, ils prétendent qu’ils détiennent sur les œuvres de l’esprit non pas des privilèges royaux mais une propriété privée perpétuelle et de droit naturel, qui leur a été cédée par ceux qui l’avaient acquise originairement en vertu de leur travail intellectuel : les auteurs.

On constate donc que dès l’origine, l’idée d’un « droit de l’auteur » n’est qu’un artifice, inventé par des intermédiaires pour assurer leur propre pouvoir en instrumentalisant les créateurs à leur avantage. Remplacez maintenant les libraires d’Ancien Régime par l’association PETA ou par les constructeurs de robots et vous verrez que nous nous retrouvons exactement dans la même situation. Tous ces débats révèlent au fond la vérité mise à nu du droit d’auteur : pour que des droits puissent être cédés ou transférés à des tiers, il faut d’abord construire juridiquement un « point d’imputation » que l’on appellera par convention « auteur ». Une fois des droits disposés sur ce point, il devient possible d’en organiser la transition vers d’autres acteurs économiques. Historiquement, ce sont des humains qui ont occupé les premiers ces points d’imputation, mais déjà aujourd’hui, on les voit de plus en plus remplacés par des personnes morales et demain, ils pourraient bien glisser vers des machines ou des animaux, au gré des évolutions de la législation. La même histoire se répètera fatalement si des intérêts suffisamment puissants arrivent à trouver l’oreille du législateur.

Droit de propriété VS droits sociaux

Ce que je trouve assez fantastique dans ces débats, c’est que notre époque arrive à envisager sérieusement d’attribuer des droits d’auteur aux machines ou aux animaux, mais elle n’a toujours pas trouvé de solution efficace pour que les auteurs humains puissent vivre dignement de leurs créations. Car si la fonction latente du droit d’auteur fonctionne parfaitement (organiser des transferts de droits de propriété de l’auteur vers des tiers économiques), sa fonction manifeste (donner aux auteurs les moyens de vivre) est plus que jamais défaillante. Les chiffres sont accablants : seule une infime minorité des créateurs est à même de vivre de ses droits d’auteur, tandis que la grande majorité reste condamnée soit à une grande précarité, soit à exercer d’autres activités professionnelles pour subvenir à ses besoins.

Or, quitte à réinventer le droit d’auteur, peut-être y a-t-il plus urgent que de penser à gâter les machines ou les animaux ? Quand s’attaquera-t-on réellement à faire du droit d’auteur autre chose qu’un droit de propriété pour le transformer en un véritable droit social, par lequel nous arriverons collectivement à une juste organisation permettant à un plus grand nombre de s’adonner à des activités créatrices ? La vérité, c’est qu’en rattachant le droit d’auteur à la notion d’originalité, on en a fait un concept désincarné – certes flatteur pour l’ego des artistes, car les érigeant au rang de démiurge – mais déconnecté du travail même de création, jamais pris en compte par le système. Et c’était aussi précisément tout l’enjeu de concevoir le droit d’auteur comme un droit de propriété que de le couper du travail du créateur, car si les industries culturelles payaient les auteurs comme des salariés – c’est-à-dire à raison de leur travail réel -, il est clair qu’elles s’effondreraient instantanément !

Des pistes intéressantes existent pourtant pour ramener le droit d’auteur du côté du droit social, comme celle par exemple l’idée de créer un nouveau régime d’intermittence pour les artistes-auteurs, qui a émergé dans certains partis lors de la campagne présidentielle. Un jour peut-être, on s’attaquera à  la vraie question de savoir comment « faire société » autour de la construction d’un modèle soutenable pour la création et peut-être arrêterons-nous alors de disserter sur le sexe des anges, l’originalité des oeuvres, le droit d’auteur des robots ou des animaux…

Pour regarder enfin en face l’humain derrière le masque de l’auteur.

Street Art et liberté de panorama : et si on arrêtait la désinformation ?

En marge des élections législatives, il s’est produit la semaine dernière un incident qui mérite que l’on s’y attarde, surtout quand on voit la manière dont il a été traité dans la presse. Le graffeur C215 a dénoncé l’utilisation qui était faite d’une de ses fresques par le comité électoral du parti « En Marche » du 13ème arrondissement. Une photographie de l’oeuvre a en effet été reprise comme bannière sur les profils Twitter et Facebook du comité, avec l’ajout du slogan « En marche ! » en travers (voir ci-dessous).

Le post Facebook de C215 a été relayé plusieurs centaines de fois et il a soulevé une vague de commentaires de la part des internautes en soutien à l’artiste. Devant le bad buzz qui commençait à se lever, le comité électoral d’En Marche a d’abord cherché à faire valoir qu’il voulait « rendre hommage » au travail de C215, dont beaucoup d’oeuvres ornent les murs du 13ème arrondissement. Mais il a fini sous la pression par retirer les images, non sans avoir eu visiblement des échanges assez âpres avec l’artiste, qui dit même avoir été insulté et menacé

Lire la suite

Quel modèle économique pour une numérisation patrimoniale respectueuse du domaine public ?

Le mois dernier est paru au Cercle de la Librairie le livre « Communs du savoir et bibliothèques« , pour lequel Lionel Dujol, qui coordonnait l’ouvrage, m’a demandé d’écrire une contribution. La publication de ce livre est un signe de plus de l’importance croissante de la thématique des Communs dans la sphère professionnelle des bibliothèques. On peut également noter que l’éditeur a accepté que les auteurs puissent publier sans délai leurs contributions en Libre Accès, ce qui me permet de poster le chapitre dont j’avais la charge sur ce blog. C’était important pour beaucoup des contributeurs à ce livre, afin qu’il n’y ait pas de contradiction entre le fond et la forme. Et cela montre par ailleurs qu’il y a toujours intérêt à négocier avec un éditeur pour obtenir des conditions de diffusion compatibles avec les principes de l’Open Access, même dans le cas de monographies.

Lionel Dujol m’a demandé de traiter la question (épineuse) de la numérisation du domaine public en bibliothèque, et plus précisément des modèles économiques qui peuvent sous-tendre ce type d’activités. J’examine quatre types de modèles (la numérisation à la demande, le financement participatif, les partenariats public-privé de numérisation et le Freemium) en essayant de voir lesquels sont les mieux à même de garantir la soutenabilité de la numérisation patrimoniale, sans générer de nouvelles enclosures sur la diffusion de la Connaissance.

Retrouvez ci-dessous l’introduction de cet article (et la version intégrale sur la plateforme HAL). Lire la suite

L’exclusion forcée du marché comme enclosure des biens communs

La semaine dernière est paru sur le site Reporterre un intéressant article consacré à Jean-Luc Danneyrolles, le fondateur du « Potager d’un curieux » : un lieu situé dans le Vaucluse dédié à la préservation et à la promotion des semences libres. Le papier explique notamment le parcours du combattant que ce paysan a dû traverser pour faire accepter son activité par les autorités administratives. Il a heureusement pu régulariser pour l’essentiel sa situation, mais un point continue à générer des frictions : celui de la commercialisation des semences qu’il produit.

Quand on pose à Jean-Luc la question simple du droit à vendre toutes ses graines, il renverse l’interrogation. « De quel droit n’aurait-on pas le droit de produire de bonnes graines et de les commercialiser ? C’est la réappropriation de ce patrimoine que je défends. On n’a pas le droit, on prend le droit. Prendre un droit, ce n’est pas voler quelque chose, explique t-il. Je ne m’imagine jamais que la police viendra m’arrêter parce que je vends mes graines. On est soutenu par la société civile, c’est-à-dire qu’il y a plein de gens qui m’encouragent à continuer et ça me suffit. »

Image par Petr Kratochvil. CC0 – Domaine public.

Lire la suite

La cuisine va-t-elle cesser d’être Open Source ?

Par MorningBirdPhoto. Domaine public.

Du point de vue du droit d’auteur, et de la propriété intellectuelle en général, la cuisine possédait jusqu’à présent un statut très particulier.

Alors qu’il s’agit incontestablement d’un des champs de la création, les juges considérent que les recettes de cuisine ne sont pas protégeables par le droit d’auteur. Il en résulte que les cuisiniers sont libres de se copier les uns les autres, sans pouvoir être accusés de contrefaçon. C’est ce qui fait que la cuisine peut être dite « Open Source« , au même titre que les logiciels. Tels des programmes informatiques, les recettes constituent en effet des instructions à suivre pour produire un résultat donné. Un cuisinier qui publie sa recette est dans une situation similaire à un informaticien donnant accès au code source de son programme afin que d’autres puissent le reproduire et l’améliorer.

La grande différence, c’est que les logiciels naissent automatiquement protégés par le droit d’auteur et les développeurs doivent opter pour des licences libres afin de rendre leurs logiciels réutilisables. De leur côté, les cuisiniers n’avaient jusqu’à présent pas le choix : les recettes n’étant en tant que telles pas protégeables, la cuisine était Open Source « par défaut ». Or les choses risquent peut-être de changer à l’avenir, en raison d‘une affaire survenue en Hollande à propos d’un fromage (le Heks’nkass – un fromage blanc aux herbes, qui a l’air de ressembler à une sorte de Boursin).

Une question de goût

Se plaignant que son produit ait été « copié » par un concurrent, l’entreprise qui commercialise ce fromage a saisi les tribunaux, mais en soulevant un argument assez original. Elle ne revendiquait en effet pas de droits sur la recette (ce qui aurait été voué à l’échec), mais directement sur le goût du Heks’nkass, en considérant que celui-ci pouvait constituer une oeuvre protégée par le droit d’auteur. En 2015, un premier tribunal a rejeté cette prétention, estimant que les saveurs ne pouvaient pas rentrer dans le champ des « oeuvres de l’esprit ». Mais l’affaire rebondit à présent, car la Cour de Justice de l’Union Européenne va être saisie de ce cas, pour trancher deux questions :

  • Est-ce que la législation européenne admet qu’un goût puisse recevoir une protection au titre du droit d’auteur ?
  • Si c’est le cas, quels critères doit-on employer pour déterminer quand s’applique cette protection ?

Or cet angle d’attaque est assez redoutable, car il existe déjà une jurisprudence de la CJUE sur la notion d’oeuvre protégeable, dont elle a une conception relativement extensive. Si la Cour a déjà été amené à considérer par exemple que les matchs de football ne sont pas des oeuvres, elle considère qu’une catégorie de créations n’a pas à être exclue en tant que telle du bénéfice de la protection du droit d’auteur, du moment que l’on est en présence d’une forme d’originalité, au sens de « création intellectuelle de l’auteur ».

Une création culinaire peut-elle être considérée comme une oeuvre ? Vaste question… (Image par Tkw3. Domaine public).

Pour les rencontres sportives, la qualification d’oeuvre a été écartée, car un match est la résultante des interactions entre les différents joueurs et non la création délibérée d’un esprit manifestant sa personnalité. Mais pour une création culinaire, les juges de la Cour risquent d’être confrontés à un problème beaucoup plus épineux, car il est indéniable que la cuisine est un champ où l’expressivité joue un rôle. Les grands chefs étoilés le prouvent, mais même quand je mange la blanquette de ma mère, j’y trouve un goût à nul autre pareil et je peux avoir l’impression de percevoir l’empreinte de sa personnalité à travers ce plat !

La cuisine saisie par la propriété intellectuelle ? 

Concrètement, beaucoup de choses changeraient pour la cuisine si la Cour de Justice de l’Union Européenne admettait que les goûts peuvent être copyrightés. Cela fait longtemps que la cuisine et la propriété intellectuelle jouent au chat et à la souris, mais jusqu’à présent seuls des modes indirects de protection étaient admis. Par exemple, si une recette en elle-même ne peut pas être protégée par le droit d’auteur, les juges reconnaissaient que la manière dont une recette est écrite sur le plan littéraire peut mériter protection, au cas où elle manifeste une originalité. Cela permet par exemple de protéger un livre de cuisine, dans la mesure où il a fait l’objet d’un travail d’écriture élaboré, mais cela n’empêchait pas quiconque de refaire, et même de vendre, les plats décrits dans le livre.

La recette de la mayonnaise en vers. Source : Gallica BnF

Certains chefs ont aussi pu chercher à protéger l’apparence ou la forme de leurs plats, soit par le droit d’auteur, soit  par le biais des dessins et modèles (mais avec beaucoup d’aléas, comme le montrent par exemple les déconvenues subies par le cuisinier Yves Thuriès dans la protection du « chocolat macaron ») . On a pu également voir des dépôts de brevets, souvent assez contestables, portant par exemple sur des méthodes de découpe de viandes employées pour réaliser certains plats (les pilons de poulets frits de KFC, par exemple). Le droit des marques peut également être mobilisé pour se protéger dans une certaine mesure de la concurrence. Ainsi, le pâtissier français Dominique Ansel a connu un énorme succès en 2013 à New York en inventant le « cronut » (un croisement entre un croissant et un donut). Il s’est empressé alors de déposer une marque sur ce nom, ce qui lui a permis d’être le seul à pouvoir désigner de la sorte ce produit. Mais il n’a pas pu empêcher les autres pâtisseries de la ville de proposer des gâteaux similaires, du moment qu’elles n’employaient pas son nom…

Malgré cette difficulté pour la propriété intellectuelle à se saisir de la création culinaire, on observe néanmoins une certaine forme de susceptibilité chez les cuisiniers, et pas uniquement les professionnels. La question du « plagiat culinaire » est en effet assez vive chez les blogueurs spécialisés dans la cuisine. Ils s’accusent souvent de se « voler » de recettes, sans percevoir que cette affirmation n’a en réalité pas de sens puisqu’on ne peut par définition voler ce qui ne peut être approprié. Néanmoins ce que critiquent ces blogueurs, ce n’est pas tellement que l’on reprenne une de leurs recettes, mais plutôt de ne pas être crédités ou qu’on ne fasse pas de lien en retour vers leur site. Cela nous amène dès lors davantage du côté de l’éthique ou des bonnes pratiques que du droit pur et dur.

La question du plagiat culinaire fait l’objet d’une Charte à laquelle ont adhéré plusieurs dizaines de blogs cuisine. Cliquez sur l’image pour la consulter.

Code d’honneur des cuisiniers et esprit du Remix

Or ce lien à l’éthique est intéressant à observer. En effet, c’est aussi une sorte de « code d’honneur » que suivent les grands chefs. Il est en effet admis parmi les cuisiniers étoilés que l’on puisse s’inspirer des créations d’un confrère, mais uniquement pour essayer de les améliorer et pas pour reproduire à l’identique. C’est ce qui ressortait d’un article passionnant (On The Legal Consequences of Sauce) publié en 2006 par le juriste américain Christopher Buccafusco, dont je vous recommande vivement la lecture. Comme la cuisine est « Open Source », les chefs ne peuvent de toutes façons empêcher d’autres cuisiniers de reprendre leurs créations. Mais afin de réguler les pratiques, la corporation a développé ses propres règles, qui n’ont pas de valeur juridique à proprement parler, mais déterminent tout de même ce qu’il est acceptable de faire ou non dans le champ de la grande cuisine. Et ce que je trouve remarquable, c’est que ces normes privilégient l’innovation au détriment du monopole et de la rente de situation. Se sachant toujours susceptibles d’être repris et copiés, les grands chefs sont incités à constamment innover. Mais pour que la copie ne soit pas stérile et « déloyale », ils mettent un point d’honneur à ne pas reproduire à l’identique, mais à toujours chercher à améliorer les créations précédentes.

C’est ni plus, ni moins l’esprit de ce que l’on appelle le Remix dans la création numérique, à la différence que les pratiques transformatives sont en grande majorité illégales quand elles s’exercent à partir d’oeuvres littéraires (fanfictions), musicales ou audiovisuelles (mashup, détournements) en raison des rigidités du droit d’auteur. Or c’est cet équilibre subtil que la décision de la CJUE pourrait remettre en cause, si elle admettait que les goûts eux-mêmes deviennent éligibles à la protection du droit d’auteur. Certes, les recettes pourraient toujours servir de source pour reproduire un plat, mais les cuisiniers seraient en mesure de s’accuser les uns les autres de violation de leur droit d’auteur. On verra donc sans doute reculer les formes d’innovation incrémentale qui constituent le propre de la manière dont la cuisine avance et évolue. Les plats ne naissent en général pas de nulle part : ils s’inscrivent dans des traditions, qu’elles soient familiales, régionales ou nationales. C’est en copiant des « classiques » de la cuisine que l’on devient soit même cuisinier et les grands chefs trouvent leur propre style en croisant de multiples influences. La cuisine est avant tout un patrimoine et un bien commun, dont chaque cuisinier est à la fois le transmetteur et le prolongateur, mais jamais « l’auteur », parce que la gastronomie est par essence une création collective.

***

Il faudra donc garder un oeil attentif sur cette décision à venir de la Cour de Justice de l’Union Européenne, car elle pourrait remettre en question la dynamique propre au secteur de la cuisine, qui avait pourtant fait la preuve que l’on peut être innovant sans avoir besoin d’une protection au titre de la propriété intellectuelle. On imagine à quel point il pourrait devenir dangereux de produire de nouvelles créations culinaires si l’on risque constamment un procès pour plagiat pour s’être trop rapproché du goût d’un autre plat ! Le critère de l’originalité est déjà parfois extrêmement aléatoire dans ses effets pour certains types de créations, comme les photographies par exemple. Mais il le serait sans doute davantage en ce qui concerne le goût, domaine où la subjectivité est encore plus forte. Par ricochet, le secteur du parfum pourrait aussi être atteint, car les mêmes principes de non-protection par le droit d’auteur s’appliquent aujourd’hui à ce domaine. Les parfums se protègent en gardant secrètes leurs formules et en déposant une marque sur leur nom, mais on ne peut empêcher un concurrent de produire et de vendre une imitation s’il est capable de la réaliser.

Il y a une ironie dans cette histoire. L’auteur grec Athénée de Naucratis, qui a vécu au troisième siècle après Jésus Christ, rapporte dans son ouvrage « Le banquet des hommes sages » que les cuisiniers de l’île de Sybaris pouvaient revendiquer pendant un an une exclusivité sur les recettes de cuisines qu’ils créaient. L’île était d’ailleurs réputée pour l’excellence de sa gastronomie (au point que son nom nous a donné l’adjectif « sybarite »). Certains voient dans cette « loi de Sybaris » la plus ancienne manifestation de propriété intellectuelle de l’histoire et il est assez étrange qu’elle ait porté sur un des rares secteurs qui échappent encore aujourd’hui à l’emprise du droit d’auteur et n’a en réalité jamais été soumis à ses principes. C’est en restant « Open Source » et en se développant nativement dans le domaine public que la cuisine a pu évoluer et constituer cette forme de créativité si particulière.

Espérons que la Cour de Justice de l’Union Européenne aura le bon goût de s’en souvenir avant de rendre sa décision !

[Mise à jour : suite à la publication de ce billet, quelqu’un m’a signalé le restaurant Leka à Barcelone où tout est Open Source : non seulement les plats, dont on peut obtenir la recette et les chefs de l’établissement peuvent vous expliquer comment les reproduire, mais aussi les meubles et les vêtements des serveurs dont on peut télécharger les plans et les modèles !]

 

Ridley Scott et la saga Alien : quand l’auteur devient son propre monstre…

Cette semaine est sorti sur les écrans le film Alien : Covenant qui ajoute un nouvel épisode de la saga initiée par Ridley Scott en 1979. Après le déjà très controversé Prometheus en 2012, Ridley Scott revient aux commandes d’un film qui est en train de déclencher parmi les fans un véritable torrent de critiques négatives, accusant le réalisateur d’avoir trahi les fondements de sa propre mythologie. On assiste à un phénomène intéressant d’inversion, à propos duquel j’ai déjà eu l’occasion d’écrire, qui se répète régulièrement et paraît même s’intensifier ces dernières années : c’est le public qui se fait le gardien de l’esprit d’une oeuvre, contre les industries culturelles lorsqu’elles abusent d’une licence, et parfois même contre son propre créateur comme c’est le cas ici avec Scott.

Le créateur et la créature. Une des nouvelles thématiques introduites dans Alien : Covenant par Ridley Scott, mais à quel prix ?

Seul maître à bord…

Lire la suite

Lawrence Lessig, les dérives du web et la « mort des éditeurs »

S’il y a une personne qui a compté dans mon cheminement intellectuel, c’est bien le juriste américain Lawrence Lessig. Je me souviens encore de l’avoir découvert à travers ses incroyables conférences TED, puis la lecture d’ouvrages marquants comme L’Avenir des Idées, Remix ou Code Is Law. Initiateur du projet Creative Commons, défenseur infatigable du domaine public et de la Culture libre, plus récemment engagé dans la réforme du système politique aux Etats-Unis et même candidat malheureux à l’investiture démocrate pour l’élection présidentielle, Lessig figure incontestablement parmi les grands penseurs de notre temps. Du coup, je ne croyais pas un jour me retrouver en opposition radicale avec lui, mais c’est pourtant ce qui m’arrive, après avoir lu cette interview donnée, il y a quelques jours, au magazine Télérama.

Image par Innotech Summit. CC-BY. Source : Flickr.

Il faut savoir que Lawrence Lessig est récemment passé par Paris, à l’occasion de la sortie du livre « Celui qui pourrait changer le monde« , traduction en français publiée par les éditions B42 d’une compilation de textes écrits par l’activiste Aaron Swartz, tirés notamment de son blog.

Ils étaient tous les deux très proches et il y a quelque chose qui a irrémédiablement changé chez Lessig depuis le suicide d’Aaron, survenu il y a quatre ans. On sent chez lui une inquiétude croissante à propos du sort de la démocratie, renforcée encore depuis que Donald Trump a été élu aux Etats-Unis. Dans l’interview donnée à Télérama, il se montre notamment soucieux de l’impact des fake news sur le débat public, ce qui l’amène à faire la déclaration suivante :

Je pense que notre communauté dans son ensemble a fait l’erreur de considérer comme acquises des approches qui ont pourtant été brutalement remises en cause. Un exemple majeur : nous pensions tous que le rôle d’éditeur de contenus était un acquis ; derrière chaque publication, il y avait un éditeur, un titre de presse, une institution reconnue se portant caution. Je ne parle pas là de « censeur », mais bien d’éditeur : quelqu’un qui amène de la vérification, de la véracité. Eh bien nous nous sommes trompés ! Le monde entier peut publier sans éditeur. Donald Trump publie en direct, en permanence. Alors que, dans ce monde avec éditeurs qui nous semblait une évidence et un acquis, cela n’aurait pas été possible : Trump n’aurait pas été possible ! D’une certaine façon, Internet – l’outil en lui-même – a tué les éditeurs. Et nous allons tous devoir résoudre cet immense problème qui a un impact très lourd sur la démocratie.

J’avoue avoir bondi en lisant ces lignes : Lawrence Lessig accusant Internet d’avoir « tué les éditeurs », regrettant qu’il donne à tout un chacun la possibilité de publier directement en ligne et présentant cette faculté comme un problème pour la démocratie ? Ce sont des propos qui détonnent fortement par rapport au message que Lessig délivrait jusqu’à présent, lui qui fut au contraire un des premiers à décrire et à théoriser la révolution culturelle que représente la mise en réseau des individus. Et plus triste encore, il me semble que ce qu’il exprime ici contredit tout le parcours d’Aaron Swartz – l’enfant d’internet (Internet Own’s Boy) – qui s’est précisément construit en tant que personne grâce à cette faculté de publication directe offerte par Internet.

Je voudrais dans la suite de ce billet essayer de démêler le malaise que je ressens à voir quelqu’un comme Lessig tenir ce genre de propos et critiquer cet appel à un « retour des éditeurs » comme moyen de conjurer les dérives qui frappent Internet aujourd’hui.

Lire la suite

« Information will be mine ! » : vers un droit de propriété sur les données en Europe ?

Le Conseil National du Numérique a rendu, il y a quelques jours, un avis à propos d’une consultation lancée en janvier dernier par la Commission européenne sur la question de la « libre de circulation des données en Europe ». Cela fait un moment que la Commission veut lancer une initiative en faveur du « Free Flow of Data » – la « fluidification des données » – dans l’optique de créer de nouvelles opportunités économiques au sein du Marché unique.

Image Pixabay. CC0.

L’avis du CNNum est particulièrement intéressant et en voici un résumé :

Pour encourager la libre circulation des données, la Commission européenne a annoncé étudier un certain nombre de pistes, législatives ou non. Parmi celles-ci figure la création d’un droit de propriété sur les données non personnelles. Or la création de valeur se fait lorsque les données sont mises en contexte et croisées afin d’en tirer des informations nouvelles. Il ne s’agit donc pas de consacrer une propriété des données, mais bien au contraire, de penser des régimes d’accès et d’échanges de données pour encourager cette création de valeur. En effet contrairement à l’idée répandue, la propriété ne facilite pas nécessairement les échanges mais peut au contraire les limiter. De manière générale, la libre circulation des données doit s’envisager entre les plateformes et pas uniquement entre les territoires. Ce sont ces nouvelles formes de partage qui sont la condition essentielle au développement d’une économie européenne de la donnée.

On lit donc que la Commission envisage l’instauration d’un nouveau « droit de propriété sur les données non-personnelles ». Ce n’est absolument pas anodin et on peut même dire qu’il est assez inquiétant de voir la Commission avancer ce genre de propositions. Car une telle réforme pourrait constituer un véritable renversement de paradigme dans la manière dont le droit appréhende les données et les informations. 

Lire la suite