La végétalisation des villes et la tragi-comédie des Communs

Au début du mois d’août, une nouvelle plateforme « Végétalisons Paris » a été lancée par la municipalité de la capitale. Le site rassemble les informations concernant les différentes initiatives de la mairie de Paris visant à inciter les habitants à investir les espaces publics pour y planter des végétaux. Chacun peut y effectuer les démarches nécessaires pour son projet de végétalisation et signaler ses réalisations sur une carte.

Déjà plus d’un millier de réalisations épinglées sur la carte de la plateforme « Végétalisons Paris ».

Parmi les différents aspects de la politique de Paris, le permis de végétaliser est sans doute celui qui a le plus attiré l’attention, avec plusieurs milliers d’autorisations accordées à des habitants depuis sa création en 2015 pour implanter des végétaux dans des espaces comme des pieds d’arbres, des potelets, des trottoirs ou des murs. De nombreuses autres villes françaises – comme Lille, Marseille, Strasbourg, Grenoble ou Bordeaux – ont mis en place des dispositifs similaires (même si les règles peuvent varier d’une ville à l’autre).

Je croise de plus en plus souvent à Paris des espaces végétalisés dans le cadre de ce dispositif et en observant ces réalisations, je me suis souvent demandé dans quelle mesure ce système peut favoriser l’émergence de Communs urbains (ou pas). On pourrait penser que le permis de végétaliser va naturellement dans le sens des Communs, dans la mesure où il permet aux habitants de se réapproprier l’espace public. Mais il me semble que les choses sont plus complexes et que, tant du point de vue du montage juridique que de ses résultats pratiques, le permis de végétaliser n’aboutit pas toujours à la constitution de Communs dans la ville, loin s’en faut. Il peut même déboucher sur leur exact contraire, à savoir une forme de Tragédie des Communs, bien que ce ne soit heureusement pas une fatalité.

Lire la suite

L’ouverture des brevets de la recherche, un tabou pour l’Open Science ?

Le concept d’Open Science tend à prendre aujourd’hui de plus en plus d’importance, en devenant progressivement le nouveau paradigme de référence de diffusion des résultats de la recherche. Il est notamment poussé par l’Union européenne dans le cadre du programme « Horizon 2020 » et en avril 2016, un appel solennel à été lancé depuis Amsterdam pour inciter les Etats-membres à initier des actions en faveur de la Science Ouverte. Si la définition du concept d’Open Science est parfois assez fluctuante, sinon fuyante, on s’accorde à y voir un « au-delà » de l’Open Access, s’inspirant de la même philosophie générale, mais s’appliquant à d’autres objets que les publications scientifiques. L’Open Science concerne aussi les logiciels utilisés par les chercheurs pour conduire leurs recherches (Open Source), ainsi que les données sur lesquelles ils s’appuient (Open Data). D’autres dimensions du processus de recherche sont parfois incorporées à la notion, comme on peut le voir sur le schéma ci-dessous, proposé par le programme européen FOSTER.

L’article de Wikipédia consacré à l’Open Science suit à peu près la même logique, en déclinant le concept des six principes : Open Data, Open Source, Open Methodology, Open Peer Review, Open Access, Open Educational Resources.

Mais quelque chose me frappe toujours dans ces modélisations de l’Open Science : elles laissent de côté une dimension pourtant essentielle du processus de recherche (au moins dans certaines disciplines), à savoir la question de la gestion des droits sur les inventions et le dépôt de brevets. C’est comme si la Science Ouverte s’arrêtait toujours aux portes de la propriété industrielle et que la question de l’ouverture et de la libre réutilisation des inventions restait une sorte de tabou.

En 2016, le CNRS a publié un livre blanc intitulé « Une Science ouverte dans une République numérique« , remarquable dans l’ensemble, mais qui porte la marque de ces contradictions. Si le texte se prononce très clairement en faveur de l’Open Access, de l’Open Source et de l’Open Data, il se montre par contre beaucoup moins hardi lorsqu’il est question des brevets :

Les frontières de la valorisation et de la science ouverte

Lopen science ne doit pas faire obstacle aux enjeux économiques de la recherche.

La mise à disposition des données scientifiques sur des plateformes open science ne doit pas aller à l’encontre :

  • de la valorisation des données notamment par brevet ;
  • du respect des secrets et des dispositions spécifiques telles que les Zones à Régime Restrictif ;
  • du respect des règles contractuelles de confidentialité.

Pourtant, une autre façon de voir les choses existe et ce sont les universités du Danemark qui montrent qu’il est parfaitement possible d’inclure les brevets dans le processus de l’Open Science. Traditionnellement, les laboratoires de recherche nouent des partenariats avec des entreprises privées afin que celles-ci participent au financement de travaux avec, en contrepartie, un partage des résultats et des dépôts de brevets venant sécuriser les droits de propriété intellectuelle sur les inventions découvertes. Mais l’université d’Aarhus a mis en place une initiative, justement intitulée « Open Science », pour inverser ces rapports avec les partenaires privés et faire évoluer le sens de ces partenariats de recherche :

L’initiative de l’université d’Aarhus, intitulée Open Science, prévoit que ni l’université ou ni les entreprises impliquées dans les projets ne pourront breveter les découvertes effectuées au cours du processus de recherche et, à la fin, les résultats sont mis à la disposition de tous – même à d’autres entreprises – sur une plateforme sans restriction liée à la propriété industrielle.

[…]

Kim Daasbjerg, un professeur de chimie qui a lancé et dirigé l’initiative, a déclaré qu’au cours des 10 à 15 dernières années, les universités avaient pratiqué une politique de dépôt de brevets sur leurs découvertes et qu’elles étaient même encouragées à «obtenir autant de brevets que possible».

« Je ne pense pas que ce soit le rôle de l’université de faire cela », a-t-il déclaré. «Notre compétence, notre apport à la société, c’est la recherche fondamentale».

Jusqu’à présent, six grandes entreprises, dont Lego, ont mis de l’argent sur la table pour financer la recherche sur des matériaux intelligents, tandis que d’autres petites entreprises ont promis du temps et de l’expertise, a-t-il déclaré. Une vingtaine de chercheurs travaillent maintenant dans le cadre de la nouvelle plate-forme, dont six de l’Université d’Aalborg et trois de l’Université de Copenhague.

On peut se demander pourquoi des entreprises iraient collaborer à des projets de recherche et y consacrer des moyens si elles ne peuvent s’assurer en bout de course d’une exclusivité, au moins temporaire, sur les résultats obtenus. Mais ce changement d’approche fait écho à des évolutions dont j’ai déjà eu l’occasion de parler dans ce blog, aux termes desquelles on commence à voir des entreprises de premier plan, comme Tesla ou Toyota, choisir de renoncer aux brevets qu’elles avaient obtenus sur certaines technologies afin de les promouvoir et de les faire évoluer vers des standards. La « guerre des brevets« , qui a frappé des secteurs comme celui des smartphones et des tablettes, aura visiblement laissé des traces, et si des secteurs comme celui des voitures autonomes pourraient à présent connaître des embrasements similaires, d’autres industriels semblent commencer à percevoir les vertus d’une approche « Open ». C’est typiquement sur ce genre de stratégies que les universités pourraient s’appuyer pour développer des partenariats d’un nouveau genre avec les entreprises.

Il faut savoir que cette tendance des universités à déposer des brevets est en réalité relativement récente. Elle date des années 80 et ce sont les Etats-Unis qui ont initié le mouvement dans le cadre de la mise en place d’une « économie de la connaissance », avec de fortes conséquences sur l’activité même de recherche comme l’explique ci-dessous Hervé le Crosnier :

Ce changement de l’état d’esprit de la recherche découle d’une loi de 1980, le Bayh-Dole Act qui a permis aux universités des États-Unis de déposer des brevets. Cela conduit ces dernières à créer des « services de valorisation » et à s’engager dans des stratégies de recherche à finalité directe. Étant donné le poids de la recherche en provenance des États-Unis, ce phénomène s’est étendu sur toute la planète. Et les chercheurs critiques, ou dont les travaux pouvaient mettre à mal certaines sources de revenus des universités, ont été marginalisés, à l’image d’Ignacio Chiapela, renvoyé de l’université de Berkeley en 2001 parce que ses travaux montraient l’existence de contamination OGM au Mexique, alors que l’université qui l’employait avait des contrats avec Syngenta, grande multinationale de l’agro-alimentaire technologique. La discussion scientifique elle-même pâtit de cet alignement des universités sur la recherche de revenus. La façon dont a été traité le chercheur Gilles-Éric Séralini, dont un article opposé aux OGM a été retiré d’une revue suite à la pression de Monsanto, et dont les travaux ont été dénigrés avec des arguments provenant des public-relations et non dans le cadre normal des controverses scientifiques, est un exemple récent de ce phénomène.

Les dépôts de brevets par les universités font partie intégrante de que l’on appelle la deuxième vague d’enclosure des Communs, celle qui a frappé la Connaissance selon les mots du juriste américain James Boyle, après que les terres aient été concernées à partir de la fin du XVIIIème siècle. La propriété intellectuelle, concept qui n’apparaît vraiment qu’après la Seconde guerre mondiale, s’est saisie peu à peu de la plupart des ressources produites par l’esprit humain et cette forme de « privatisation » n’a pas épargné les universités, qui sont même devenues un des rouages essentiels de ce système.

Le parallèle est d’ailleurs assez intéressant entre ce qui s’est passé pour les articles scientifiques et les dépôts de brevets par les instituts de recherche et les universités. On sait que pour les articles, un système d’accaparement s’est mis en place autour des revues scientifiques, propriétés de quelques grands éditeurs mondiaux, qui se font céder les droits d’auteur des chercheurs pour revendre ensuite aux universités l’accès aux résultats de la recherche. On est typiquement devant un processus de constitution d’une « fausse marchandise » au sens où l’entend l’économiste Karl Polanyi. C’est cette forme d’enclosure sur la connaissance que le mouvement de l’Open Access a entrepris de combattre en promouvant, selon diverses formules, la libre diffusion des écrits scientifiques sur Internet.

Pour les brevets, on est face à une logique similaire, dans la mesure où ce que l’on nomme de manière très ambiguë « valorisation des résultats de la recherche » aboutit en réalité à un transfert de propriété du public vers le privé. Mais l’analogie avec les articles scientifiques n’est pas parfaite. En effet, l’équilibre entre le privé et le public paraît à première vue plus équitable en ce qui concerne les inventions. Les brevets, par définition, sont en « Open Access », car on ne peut obtenir un tel titre de propriété intellectuelle auprès de l’INPI ou d’une autre institution habilitée qu’à la condition de révéler son invention pour permettre à tous d’en connaître la teneur. Le système des brevets a été mis en place pour lutter contre la pratique du secret en « récompensant » ceux qui acceptent de révéler leurs inventions par un monopole d’exploitation limité dans le temps (20 ans). Avec les inventions, on n’est donc pas confronté à ces paywalls derrière lesquels les éditeurs scientifiques mettent sous séquestre la connaissance, pour des durées beaucoup plus longues qui plus est (70 ans après la mort de l’auteur…). Par ailleurs si, dans l’immense majorité des cas, les chercheurs ne sont pas payés par les éditeurs pour la publication de leurs articles (c’est même l’inverse qui est en train peu à peu de se généraliser…), ce n’est pas le cas pour la réutilisation des brevets des universités par les entreprises qui font généralement l’objet d’accords de licence impliquant le versement de redevances.

La situation est donc différente du scandale aberrant qui frappent les articles scientifiques, pour lesquels le public paye deux fois : une première fois à l’origine avec le salaire des chercheurs publics pour la production des articles et une seconde fois pour acheter le droit d’y accéder auprès des éditeurs privés. Avec les brevets, il y a bien un flux d’argent en provenance du privé vers le secteur public. Mais en réalité, le problème est ailleurs et l’effet d’enclosure provient essentiellement de la sous-utilisation des ressources qui survient à cause de l’application systématique de droits exclusifs. C’est ce qu’expliquent bien les promoteurs du projet danois cité plus haut, qui critiquent la rationalité économique du dépôt de brevets par les universités :

Une analyse des bureaux de transfert de technologie dans les universités américaines réalisée par le cabinet Brookings en 2013 a conclu que, malgré une augmentation spectaculaire du nombre de ces bureaux depuis la fin des années 1980, les 10 pour cent les plus élevés ont pris environ les trois quarts du revenu. Sur 155 bureaux, 130 fonctionnaient à perte. Le professeur Daasbjerg estiment que les brevets constituent souvent de «mauvaises affaires».

Adam Stoten, directeur général d’Oxford University Innovation, qui aide les universitaires possédant des brevets à gérer les questions de propriété intellectuelle, reconnaît que «de nombreux bureaux de transfert de technologie ne sont pas rentables».

Les droits exclusifs liés aux brevets sont donc rarement profitables pour les universités et ceux qui verraient là un moyen de réaliser le fantasme des fameuses « ressources propres » des universités risquent une cruelle déception. Néanmoins, les brevets, même improductifs sur le plan économique, jouent comme une barrière à la réutilisation des inventions qu’ils « protègent », en raison des coûts de transaction à régler pour avoir accès aux ressources. Du coup, une proportion élevée des brevets déposés par les universités ne sont tout simplement jamais réutilisés et l’on aboutit à ce que Michael Heller a appelé une « tragédie des anti-Communs », c’est-à-dire une situation sous-efficace du point de vue économique où une ressource ne peut trouver son utilité du fait de l’accumulation de droits dont elle fait l’objet.

L’initiative de l’université d’Aarhus montre néanmoins qu’il n’y a pas de fatalité et qu’il est possible de concevoir des dispositifs, finalement très proches des archives ouvertes, pour renverser le sens des relations entre la recherche et le monde de l’entreprise. On notera que cela passe par la mise en place de nouveaux systèmes de conventions, qui au lieu de mettre systématiquement en avant « la propriété des résultats de recherche » prévoient au contraire qu’aucun partenaire ne cherchera à se les approprier pour qu’ils puissent faire l’objet d’une libre diffusion et réutilisation. C’est la condition pour que les traditionnels partenariats Public-Privé deviennent ce que l’on appelle des partenariats Public-Privé-Communs.

Là où le projet danois est également intéressant, c’est qu’il pointe un autre des travers du système actuel : si les chercheurs déposent des brevets, bien que cela soit coûteux et alors même qu’ils savent très bien que dans la majorité des cas aucune licence ne sera ensuite signée, c’est parce que les brevets ont été détournés de leur fonction initiale pour devenir des systèmes de publication des résultats de la recherche, ainsi qu’un moyen d’évaluer les projets. Les chercheurs mettent dans leur CV les brevets déposés, au même titre que leurs publications d’articles, comme autant de « marqueurs » qui serviront ensuite aux agences d’évaluation.

Toute la difficulté pour l’Open Science est d’arriver à découpler le processus de publication de celui de l’attribution de droits exclusifs. Il faut que la publication d’écrits en Open Access, de logiciels en Open Source, de jeux de données en Open Data, et donc aussi d’inventions sans dépôt de brevet, puissent « compter » dans l’évaluation des chercheurs, sans quoi la Science ouverte a peu de chances de dépasser un petit cercle de convaincus.

Et si on libérait (vraiment) les licences libres de la propriété intellectuelle ?

Avertissement : Ce qui va suivre est hautement expérimental, et en partie spéculatif, mais l’idée me paraissait valoir la peine d’être développée.

Image par Christopher Dombres. CC0/Domaine public. Source : Flickr.

Cette semaine, on a appris qu’une cour de justice américaine avait reconnu la valeur contractuelle de la licence GNU-GPL, alors que celle-ci a déjà presque 30 années d’existence, et n’a pas attendu cette consécration jurisprudentielle pour produire des effets réels. Le site TechoLlama se réjouit de cette décision, dans la mesure où elle apporte de solides arguments au débat juridique sur la validité des licences libres :

Nous continuons, décision après décision, à avoir l’assurance que les licences Open Source sont bien valides ; non seulement cela, mais nous avons maintenant l’assurance qu’elles constituent bien des contrats au sens propre du terme. Il n’y a pas si longtemps, je devais encore me défendre lors d’une conférence contre les allégations d’avocats qui affirmaient que les licences de logiciels libres n’ont pas de valeur juridique.

C’est assurément une bonne nouvelle de voir le système juridique reconnaître le principe même des licences libres et l’admettre en son sein, car cela autorise notamment à aller en revendiquer l’application en justice lorsqu’elles ne sont pas respectées. C’est particulièrement important pour la clause de copyleft (Share Alike – Partage à l’Identique) que l’on retrouve dans la licence GNU-GPL, qui protège les logiciels libres des tentatives de réappropriation exclusive et garantit leur caractère de biens communs.

Il faut à cette occasion rappeler que les licences libres ne constituent pas des « alternatives » au droit d’auteur, contrairement à ce que l’on peut parfois entendre. Elles sont au contraire pour les titulaires d’un droit d’auteur une manière légitime d’exercer leurs prérogatives, étant entendu que le droit d’auteur constitue tout autant une faculté d’autoriser que d’interdire. Depuis 2006, le Code de Propriété Intellectuelle français, même s’il ne contient aucune allusion explicite aux licences libres, reconnaît de son côté la possibilité pour les auteurs de mettre gratuitement leurs oeuvres à la disposition du public :

L’auteur est libre de mettre ses oeuvres gratuitement à la disposition du public, sous réserve des droits des éventuels coauteurs et de ceux des tiers ainsi que dans le respect des conventions qu’il a conclues.

Tout ceci est fort bien et vaut tout autant pour la licence GNU-GPL que pour toutes les licences libres ou de libre diffusion, comme les Creative Commons, qui se sont appuyées sur le droit d’auteur pour trouver un fondement dans le système juridique général. C’est en cela que l’on compare souvent le geste initial de Richard Stallman à un « hack juridique » par lequel il est parvenu à renverser le copyright en copyleft, sans avoir pour cela à passer par une réforme législative. De la même manière, les Creative Commons ont été imaginés par le juriste Lawrence Lessig pour donner aux auteurs eux-mêmes la possibilité de faire fonctionner autrement le droit d’auteur, dans un contexte où il tendait à se verrouiller de plus en plus au niveau législatif (vote en 1998 du Mickey Mouse Act, notamment).

Les licences libres sont donc nées sous la forme d’une véritable « inception » du copyleft au sein même du droit d’auteur, en vertu d’une tactique qui s’apparente à celle du Cheval de Troie ou de la prise de judo (s’appuyer sur la force de l’adversaire pour le maîtriser). C’est finalement ce qui leur donne leur force, mais aussi paradoxalement, une certaine forme de fragilité, car ces instruments restent en réalité dépendants du système juridique auquel elles empruntent leur validité. La juriste Séverine Dusollier avait déjà pointé en 2006 cette contradiction dans un intéressant article intitulé « Les licences Creative Commons : les outils du maître à l’assaut de la maison du maître« . Le titre s’inspire d’une phrase prononcée lors d’un discours en 1979 par l’écrivaine féministe Audre Lordre :

Les outils du maître ne détruiront jamais la maison du maître.

La question se pose en effet à propos des licences libres, dans la mesure où elles ne représentent pas un instrument de contestation, en lui-même, du droit d’auteur. Cela ne constituerait en soi pas un problème, si le droit d’auteur n’avait pas fini par être subsumé par le système sous le concept juridique de « propriété intellectuelle« , autrement plus nocif et vilipendé d’ailleurs par Richard Stallman. C’est en effet une question philosophique majeure de savoir si l’on peut appliquer le concept même de propriété aux créations de l’esprit (oeuvres, inventions, marques, etc.) qui constituent des objets immatériels, par définition non-rivaux. Stallman considère que le concept de propriété intellectuelle n’est qu’un « séduisant mirage », rapprochant artificiellement les champs pourtant très différents de la propriété littéraire et artistique et de la propriété industrielle. A ce titre, il condamne radicalement le terme de « propriété intellectuelle », pure construction idéologique à ses yeux, au point de recommander de ne jamais l’employer :

toute opinion à propos de « la question de la propriété intellectuelle », et toute généralisation faite à propos de cette soi-disant catégorie, est presque sûrement absurde. Si vous pensez que toutes ces lois ne sont qu’un même sujet, vous aurez tendance à choisir vos opinions à partir d’une sélection de généralisations abusives, dont aucune n’a la moindre valeur.

[…] Si vous voulez réfléchir clairement aux problèmes soulevés par les brevets, les copyrights, les marques déposées ou diverses autres lois, la première étape est d’oublier l’idée de les mettre toutes dans le même sac, de les traiter comme des sujets séparés. La deuxième étape est de rejeter les perspectives étriquées et l’image simpliste véhiculées par l’expression « propriété intellectuelle ».

Le problème, c’est que si ce débat philosophique à propos de la propriété intellectuelle reste ouvert, il est déjà tranché depuis un bon moment par la jurisprudence qui, aussi bien au niveau français qu’européen, a explicitement raccroché le droit d’auteur, le droit des brevets et le droit des marques au fondement du droit de propriété. On vient d’ailleurs encore d’en avoir une nouvelle confirmation cette semaine avec une décision du Conseil Constitutionnel rendue à propos du statut des webradios dans laquelle il affirme que les droits des producteurs et des interprètes (droits voisins) constituent bien une forme de propriété. Donc même si l’on critique la pertinence du concept de « propriété intellectuelle » (ce qui est mon cas), on est aujourd’hui contraint de reconnaître que le droit positif lui a accordé une réalité. Ce qui fait par ricochet que les licences libres elle-mêmes ne sont désormais plus qu’une émanation indirecte de cette même propriété intellectuelle. Comme je le dis parfois, le droit se moque éperdument de ce que nous pensons de lui : il possède sa propre objectivité qui s’impose à nous et cela vaut (hélas) à présent pour l’existence du concept de propriété intellectuelle. Dura Lex, Sed Lex…

A titre personnel, c’est ce genre de considérations qui m’avaient fait adopter la licence CC0 (Creative Commons Zero) pour les écrits que je publie sur ce blog. Alors que j’avais commencé par utiliser la licence CC-BY, j’ai voulu en changer en 2013 parce que je me suis rendu compte que je ne voulais pas simplement « renverser » le droit d’auteur, mais en sortir complètement. J’avais alors appelé ce geste « Copy-Out » par opposition au « Copyleft » et le choix de la licence CC0 m’avait alors paru cohérent pour manifester mon intention de verser directement mes oeuvres dans le domaine public, sans laisser aucune trace de droit d’auteur :

Pour moi, l’intérêt principal, c’est de sortir en dehors du cadre du droit d’auteur. Avec les licences libres, on passe de la logique du copyright à celle du copyleft, mais on reste encore dans le système du droit d’auteur. Les licences libres ne sont pas une négation du droit d’auteur, mais une autre manière de le faire fonctionner. Avec la licence CC0, on n’est plus dans le copyright, ni même dans le copyleft, mais littéralement dans le copy-out. On décide sciemment que son œuvre n’est plus saisie par le droit d’auteur et ne doit plus être comprise à travers ce filtre. Je ne prétends pas que cette voie doive être suivie par tous les auteurs. Mais au stade où j’en suis, c’est cohérent avec ma démarche.

Sauf qu’en réalité, la licence CC0 ne permet pas réellement d’accomplir cette volonté, car le système juridique (français) ne reconnaît, sans doute, pas aux auteurs la possibilité de renoncer valablement à leur droit moral. Mais plus profondément, la CC0, en dépit de son caractère radical, reste encore une licence de droit d’auteur, qui ne permet à l’auteur d’en sortir qu’en y renonçant (ce qui suppose donc d’abord d’y être entré…). On reste finalement dans la même logique « d’utiliser les outils du maître pour détruire la maison du maître« , d’où d’ailleurs les limites rencontrées à propos du renoncement au droit moral.

Or il arrivera peut-être un moment où « rester dans la maison du maître » risque de devenir dangereux, voir intenable, pour les licences libres. On voit en effet de plus en plus d’évolutions législatives aberrantes qui tendent à « écraser » les licences libres, en « forçant » les auteurs à maintenir leurs oeuvres dans le système classique contre leur volonté. C’est ce qui se passe par exemple en matière de sonorisation des lieux ouverts au public, qui sont soumis à une redevance perçue par la SPRE, même en ce qui concerne les oeuvres sous licence libre pour lesquelles les auteurs ont pourtant autorisé l’usage gratuit. Le risque existe aussi à présent en matière de photographies, suite au vote l’an dernier de la « taxe Google Images » qui pourrait forcer l’entrée en gestion collective des photos sous licence libre pour contraindre les moteurs de recherche à payer pour leur usage. Et des menaces plus redoutables encore se profilent à l’horizon, avec la discussion qui a lieu en ce moment au niveau du Parlement européen autour un « droit inaliénable à la rémunération » susceptible de provoquer un véritable désastre pour la Culture libre.

La question n’est donc pas simplement philosophique, car elle touche en réalité aux limites de la stratégie du « Cheval de Troie » qui a été employée jusqu’à présent par les fondateurs des licences libres. Si le système réagit en secrétant des « anticorps juridiques » neutralisant la portée effective des licences libres en prenant le pas sur la volonté des auteurs, alors la « maison du maître » finira par l’emporter et le hack juridique initial de Stallman sera devenu inutile. C’est pourquoi il importe à mon sens aujourd’hui de réfléchir à la façon d’aller plus loin, en coupant une bonne fois pour toutes le cordon ombilical qui raccroche les licences libres à la propriété intellectuelle.

Jusqu’à une date récente, je pensais qu’une telle entreprise était vouée à l’échec, car je ne voyais pas comment trouver un autre fondement juridique auquel raccrocher les licences libres. Mais une proposition récente de licence Open Source applicable aux semences a montré qu’en réalité, on pouvait raisonner outside the box (voir le billet que j’ai écrit à ce sujet sur S.I.Lex). Le domaine des semences soulève des questions particulières, dans la mesure où le droit d’auteur n’est pas applicable à ce type d’objets, qui ne sont pas considérées comme des « oeuvres de l’esprit ». Les droits que l’on peut revendiquer sur des semences relèvent de la propriété industrielle (Certificats d’Obtention Végétale, brevets) et le dispositif est conçu de telle sorte qu’il est devenu très difficile pour les personnes qui voudraient mettre en partage des semences d’obtenir de tels titres de propriété. Le système s’est donc « protégé » en amont du hack que pourrait constituer le Copyleft appliqué aux semences, en le rendant quasiment « inconstructible » tant qu’on reste sur le terrain des droits de propriété intellectuelle. Mais les initiateurs du projet Open Source Seeds ont essayé de trouver une parade en se raccrochant à une convention internationale – le Protocole de Nagoya – qui reconnaît des droits sur les ressources génétiques au bénéfice de populations sans les relier au concept de propriété intellectuelle :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

Si, en pratique, il n’est pas certain que cette nouvelle licence règle à elle seule tous les problèmes auxquels se heurtent les promoteurs des semences libres, elle repose néanmoins sur une intuition géniale et c’est la première fois, en tous cas, qu’une licence libre ne cherche plus à trouver appui sur la propriété intellectuelle.

On peut à présent se poser la question de savoir si la démarche est susceptible d’être élargie à d’autres objets que les semences, et notamment aux oeuvres de l’esprit relevant du champ du droit d’auteur. Si l’on adopte la même tactique, il faut se demander s’il existe des textes internationaux auxquels se raccrocher, susceptibles de conférer des droits sur des créations culturelles, indépendants de la propriété intellectuelle ? Or la réponse est oui : plusieurs traités internationaux, et notamment la Convention de l’UNESCO de 2005 sur la protection et la promotion de la diversité des expressions culturelles, ont en effet consacré la notion de « droits culturels », qui pourrait être ici utilement mobilisée.

On trouve en effet dans le texte de l’UNESCO, vierge de toute allusion à la propriété intellectuelle, plusieurs passages intéressants :

[…] la diversité des expressions culturelles, y compris des expressions culturelles traditionnelles, est un facteur important qui permet aux individus et aux peuples d’exprimer et de partager avec d’autres leurs idées et leurs valeurs.

[…] Dans le cadre de ses politiques et mesures culturelles […], chaque Partie peut adopter des mesures destinées à protéger et promouvoir la diversité des expressions culturelles sur son territoire.

Ces mesures peuvent inclure :

[…] les mesures qui visent à encourager les organismes à but non lucratif, ainsi que les institutions publiques et privées, les artistes et les autres professionnels de la culture, à développer et promouvoir le libre échange et la libre circulation des idées et des expressions culturelles ainsi que des activités, biens et services culturels, et à stimuler la création et l’esprit d’entreprise dans leurs activités.

Le dernier paragraphe me paraît très pertinent, car on pourrait l’utiliser pour créer une licence libre assise sur les droits culturels, et non sur la propriété intellectuelle, destinée à promouvoir « le libre échange et la libre circulation des idées et des expressions culturelles« . D’après la convention, un État a manifestement la faculté de mettre en place un tel instrument dans le but de favoriser la diversité culturelle. D’autres textes peuvent également être cités, qui sont venus préciser le contenu des droits culturels, comme la déclaration de Fribourg adoptée en 2007. Elle compte parmi les droits culturels celui d’accès et de participation à la vie culturelle impliquant :

la liberté de développer et de partager des connaissances, des expressions culturelles, de conduire des recherches et de participer aux différentes formes de création ainsi qu’à leurs bienfaits.

Rappelons aussi que les droits culturels ont aussi connu une première reconnaissance en France avec l’article 28 de la loi NOTRe et l’article 3 de la loi sur la liberté de création :

L’État, à travers ses services centraux et déconcentrés, les collectivités territoriales et leurs groupements ainsi que leurs établissements publics définissent et mettent en œuvre, dans le respect des droits culturels énoncés par la convention de l’Organisation des Nations unies pour l’éducation, la science et la culture sur la protection et la promotion de la diversité des expressions culturelles du 20 octobre 2005, une politique de service public construite en concertation avec les acteurs de la création artistique.

Les débats restent vifs et complexes pour savoir quelle est la portée exacte de cette insertion des droits culturels dans la loi française, mais pourquoi ne pas considérer que l’État serait tenu à ce titre de reconnaître la validité d’une licence libre assise sur les droits culturels et non sur la propriété intellectuelle ? L’entreprise me paraît dans tous les cas valoir la peine d’être tentée.

Cela nous permettrait de disposer, non plus seulement de licences libres, mais de licences vraiment « libérées » pour reconstruire autour des droits culturels sa propre maison à la Culture libre.

Valérian et le cycle des 1000 réincarnations

La semaine dernière est sorti en salle Valérian et la cité des 1000 planètes, film réalisé par Luc Besson. Le long-métrage est une adaptation de la bande dessinée Valérian et Laureline, par Pierre Christin et Jean-Claude Mézières, qui compte parmi les classiques ayant posé les jalons de la science-fiction dès les années 60. Avec 200 millions d’euros,  le film a rassemblé le plus gros budget français de tous les temps et les attentes qu’il suscitait étaient à la hauteur de cette démesure. Les critiques sont pour l’instant très mitigées, pour ne pas dire assassines (voir par exemple ci-dessous celle de l’excellent YouTubeur INTHEPANDA, précédée par une introduction qui résume bien le contexte de production du film).

Ce n’est pas tellement le film de Besson qui m’intéresse, mais plutôt les circulations complexes d’influences qui existent entre l’univers de la BD originale, Valérian et Laureline, et le cinéma de Science Fiction. Avec la sortie du film, de nombreux articles ont refait surface qui insistent sur les nombreux emprunts que George Lucas, par exemple, a effectué à l’univers de Valérian pour élaborer celui de Star Wars. Les choses sont même allées plus loin, vu que Jean-Claude Mézières a écrit deux fois à Lucas pour l’interpeller sur des similitudes qu’il trouvait un peu trop marquées à son goût. George Lucas ne répondit jamais, mais on trouve facilement sur Internet des comparatifs qui pointent des ressemblances flagrantes. La forme du Faucon Millenium, la cryogénisation dans un bloc de carbonite de Han Solo, le bikini métallique de la princesse Leia dans Le Retour du Jedi : tous ces éléments iconiques (et un certain nombre d’autres…) figuraient déjà avec près d’une décennie d’avance dans les albums de Valérian et Laureline. Certains témoignages attestent par ailleurs que George avait eu accès aux Etats-Unis à ces bandes dessinées, ainsi qu’à celles d’auteurs français comme Moebius ou Druillet, à qui il emprunta aussi des éléments pour Star Wars.

De son côté, Luc Besson entretient également une longue histoire avec Valérian, titre qu’il a lu dans son enfance et qu’il souhaitait adapter au cinéma depuis des années. Il avait d’ailleurs déjà collaboré avec Jean-Claude Mézières sur le Cinquième élément qui s’inspire assez indirectement de Valérian dans son esthétique. Besson aurait sollicité le dessinateur en lui disant que les américains l’avaient assez pillé et qu’il était temps qu’un film français lui rende hommage.

Jean Giraud/Moebius a aussi travaillé sur le Cinquième élément, mais il a rompu sa collaboration avec Besson après s’être brouillé avec lui. Il finit même par lui intenter un procès pour plagiat, en l’accusant d’avoir repris des éléments essentiels de l’Incal, une autre série culte de bande dessinée qu’il élabora avec Alejandro Jodorowsky. Malgré des similitudes assez flagrantes, la justice n’a pas reconnu de contrefaçon dans ces emprunts, mais la carrière de Luc Besson est émaillée de plus d’une dizaine de procès pour plagiat et, à vrai dire, quasiment tous ses films ont attiré ce genre de critiques : du Grand Bleu à Taxi, en passant par Léon et Jeanne d’Arc. C’est comme si, à chaque fois, Besson écrivait ses films en flirtant constamment sur le fil qui sépare le plagiat répréhensible des emprunts légitimes au « fond commun » du cinéma de genre. L’an dernier, la société de production de Besson a cependant fini par être lourdement condamnée pour contrefaçon, à propos du film Lock Out, dont les similitudes avec le classique New York 1997 de John Carpenter étaient trop fortes (voir l’analyse de cette affaire par le juriste Lex Tutor sur YouTube, qui explique avec brio la différence juridique entre le plagiat et la contrefaçon).

Comme je l’ai dit en introduction, les critiques sont pour l’instant sévères à propos de Valérian et la cité des 1000 planètes. Si la dimension visuelle et les prouesses techniques du film sont saluées, on reproche à Besson la fadeur du scénario, l’inconsistance des personnages et, encore une fois… des emprunts très appuyés à des oeuvres antérieures. Certaines critiques américaines sont à ce titre intéressantes à lire, car elles relèvent que le Valérian de Besson comporte de nombreuses similitudes avec les films… de la prélogie Star Wars, notamment le premier épisode (La menace fantôme). L’intrigue politique, les passages sous-marins sur la planète Naboo, l’environnement urbain de Coruscant : tout ceci aurait été décalqué dans Valérian avec trop de servilité. Mais on arrive à un étrange paradoxe, car comment savoir à présent si c’est Besson qui s’est un peu trop inspiré de Lucas, ou si ces ressemblances avaient été auparavant importées par Lucas dans la prélogie à partir de la bande dessinée originale ? Les emprunts entre les deux univers se superposent au point de former un conglomérat inextricable où il devient difficile de discerner les inspirations des innovations…

Sur Numerama, Corentin Durand va plus loin et parle de Valérian, comme d’un « film-palimpseste », mais pas dans un sens élogieux, comme on a pu parfois le dire par exemple des productions de Quentin Tarentino. A force de chipper à droite à gauche à toutes les sources de la SF, Besson aurait transformé son film en un patchwork indigeste sans substance propre :

Avec Besson, les clins d’œil et citations ne sont jamais loin du réchauffé raté. Ainsi, en deux heures, le bestiaire, les tentatives de personnages, les vaisseaux, les mondes, les courses-poursuites, vous rappelleront trente ans de SF compilés ici, sous le sceau baroque d’un quinqua régressif et qui picore visiblement dans un corpus populaire.

[…] si vous avez plus de quinze ans et un peu de respect pour le genre ici insulté, vous pouvez regarder le dernier Star Trek, la prélogie Star Wars — pour retrouver le Coruscant décalqué dans Valérian Avatar et les Gardiens de la Galaxie : les meilleures idées chipées par Luc Besson s’y trouvent dans leur forme originelle.

L’accusation larvée de plagiat va donc encore une fois coller à la peau de Luc Besson, ce qui est a priori surprenant vu qu’il s’attaquait cette fois à l’adaptation d’une oeuvre originale. Mais il suffit à vrai dire de regarder l’affiche du film pour se rendre compte que le clin d’oeil à Star Wars est tout sauf subtil...

On mesure ainsi le gouffre qui sépare Luc Besson et George Lucas dans leur capacité à digérer leurs influences pour produire une synthèse créative. Pour élaborer Star Wars, George Lucas s’est en effet comporté comme une véritable « éponge » en absorbant de très nombreuses inspirations, qui sont souvent explicitement « citées » dans les films de la première trilogie. Lucas a avoué certaines de ses sources comme Flash Gordon ou les films de samouraïs du japonais Akira Kurosawa (La forteresse cachée notamment, d’où il aurait tiré l’idée du couple R2D2 et C3PO). Mais les inspirations « inavouées », à l’image de la BD Valérian et Laureline, sont encore plus nombreuses dans Star Wars. C’est ce qui explique que George Lucas figure en bonne place dans le documentaire Everything Is A Remix de Kirby Ferguson sorti en 2010. Le propos de cette série est de montrer que la création est rarement « originale » et qu’elle procède le plus souvent par réutilisation de contenus préexistants. Pour Star Wars, analysé dans le premier volet (voir ci-dessous à partir de 9.20 mn), Kirby Fergusson identifie de nombreuses scènes qui constituent des décalques presque à l’identique de plusieurs films antérieurs, qu’il s’agisse de westerns, de films de guerre ou de science-fiction.

Le génie de George Lucas donc n’a pas consisté à faire sortir Star Wars tout armé de son esprit, mais à sublimer ces différents emprunts et références pour les fondre en un tout qui dépasse de très loin la somme de ses parties. Et c’est au contraire exactement ce que Besson n’a pas réussi à faire avec son Valérian, qui s’effondre littéralement sous le poids de ses inspirations.

Il faut d’ailleurs noter que ce phénomène de « panne créative » n’affecte pas uniquement Luc Besson, mais concerne aujourd’hui beaucoup plus largement l’industrie du cinéma. Les blockbusters, notamment dans le domaine de la science-fiction, semblent avoir de plus en plus de mal à se dégager des productions antérieures pour proposer quelque chose nouveau aux spectateurs. C’est la conclusion à laquelle arrive Kirby Fergusson dans le dernier volet de sa série Everything Is A Remix, consacré à l’épisode VII de Star Wars (Le Réveil de la Force). Par peur de prendre trop de risques et de décevoir les fans de la saga, Disney a fait de ce film une sorte de remix de l’épisode IV de 1976 (Un nouvel espoir), aussi bien dans sa structure générale que dans certaines de ses scènes, reproduites presque à l’identique (voir ci-dessous).

Il en résulte une sensation dérangeante de ressassement et Kirby Fergusson conclut en faisant remarquer que s’il existe des remix créatifs, il en est d’autres qui restent stériles et dérapent dans la « cannibalisation » d’oeuvres préexistantes. On pourrait presque faire à ce sujet une analogie avec les préceptes du bouddhisme. Cette religion professe que pour atteindre la félicité du Nirvana, l’âme doit parvenir à se libérer du Saṃsāra, le cycle perpétuel des réincarnations. De la même manière, l’âme de la création a aussi besoin d’arriver à se libérer du cycle des remix pour apporter quelque chose de nouveau, sans quoi l’exercice reste vain.

Samsara, le cycle des réincarnations dans la religion bouddhique. (Domaine public. Source : Wikimedia Commons).

J’ai très souvent défendu sur ce blog le Remix, le Mashup et les autres formes d’usages transformatifs, qui sont essentielles à mes yeux pour la dynamique même de la création. La légitimité de ces pratiques nécessite selon moi une réforme en profondeur des règles du droit d’auteur, pour faire cesser la prohibition qui pèse actuellement sur elles. Mais il importe également de rester vigilants, car les industries culturelles ont bien compris que le Remix, à mesure où il sort de sa niche pour devenir plus populaire, pouvait aussi constituer un filon juteux. En un sens, cet « hommage » rendu par les industries culturelles pourrait constituer une bonne nouvelle, dans la mesure où les pratiques transformatives s’en trouveraient reconnues. Mais une boursouflure à 200 millions d’euros comme Valérian montre surtout à quel point cette logique industrielle peut dévitaliser le Remix et lui enlever son potentiel créatif.

Ce n’est d’ailleurs pas un hasard si les pratiques amateurs constituent encore aujourd’hui le terreau le plus fécond pour la pratique du Remix. Ne disposant pas des millions de dollars et des moyens techniques délirants des industries culturelles, ceux qui écrivent des fanfictions ou tournent des fanfilms sont obligés de mettre dans leurs histoires ce qui fait tant défaut au film de Luc Besson : un vrai scénario, de vrais personnages et un vrai respect pour les univers auxquels ils empruntent. J’ai noté à ce sujet dans un article du Hollywood Reporter ce passage ironique où un journaliste espère que les fans s’empareront du Valérian de Besson pour l’améliorer

Il y aura certainement un jour une édition fan-cutée de Valerian qui circulera sur Internet et sera projetée sur les campus des universités comme l’un des meilleurs et des plus colorés films de science-fiction jamais réalisés, mais en attendant, le film n’a pas ce qui faisait que Star Wars arrivait à surmonter ses lacunes.

Avis aux amateurs ? ;-)

Les Archives nationales montrent la voie de l’Open Data culturel !

Lentement (mais sûrement), les choses sont en train de bouger dans le monde culturel en faveur de l’ouverture des données. J’ai déjà eu l’occasion d’écrire à ce sujet en avril dernier à propos de l’évolution graduelle des politiques des bibliothèques, mais c’est du côté des archives publiques qu’une excellente nouvelle est tombée cette semaine : les Archives nationales ont adopté un nouveau règlement appliquant un principe de gratuité par défaut pour la réutilisation des informations publiques qu’elles détiennent (voir l’article écrit par Marc Rees sur NextINpact à ce sujet).

Cette décision est loin d’être anodine, à plus d’un titre. Rappelons tout d’abord que si les administrations françaises sont soumises depuis le vote de la loi République numérique l’an dernier à un principe « d’Open Data par défaut », ce n’est pas le cas des institutions culturelles qui relèvent encore d’un régime d’exception. La loi Valter, adoptée quelques mois avant la loi Lemaire, a certes fixé un principe de gratuité, mais en ménageant la possibilité pour les bibliothèques, archives et musées de continuer à percevoir des redevances de réutilisation pour les « informations issues des opérations de numérisation des fonds et des collections […] et, le cas échéant, sur des informations qui y sont associées lorsque ces dernières sont commercialisées conjointement« . Cela signifie que la réutilisation des reproductions numériques produites par ces établissements, ainsi que les métadonnées associées, peut continuer à être monnayée.

Mais les Archives nationales ont précisément fait le choix de ne pas appliquer ce régime dérogatoire et d’abroger leur précédente grille de tarifs datant de 2010. Cela signifie que la libre réutilisation devient la règle pour « les documents librement communicables à tous et sur lesquels des tiers ne détiennent pas des droits de propriété intellectuelle. » Il persistera bien des exceptions à ce principe, mais elles découlent logiquement de la législation en vigueur. Elles concernent : «  les documents qui ne sont pas encore librement communicables au regard du code du patrimoine ou d’autres dispositions législatives, les documents d’origine privée conservés aux Archives nationales mais dont l’accès ou l’exploitation sont soumis à restrictions ainsi que les œuvres de l’esprit qui ne sont pas encore tombées dans le domaine public. » Ce dernier passage est d’ailleurs important, car on en déduit a contrario que la gratuité concernera bien les oeuvres du domaine public. Il ne s’agit donc pas uniquement d’une politique d’Open Data, limitée à des informations, mais aussi d’un Open Content. Les Archives nationales avaient déjà commencé à s’engager dans cette voie grâce à un partenariat conclu avec Wikimedia France pour la libre diffusion de plus de 500 documents numérisés remarquables issus de leurs collections. On devrait logiquement assister à présent à une amplification de cette politique, qui est déjà la norme aux Etats-Unis ou en Allemagne.

Les Archives nationales sont déjà présentes sur Wikimedia Commons.

Les Archives nationales tirent aussi les conséquences du mécanisme d’Open Data « à la demande » mis en place dans la Loi Lemaire. Elles précisent en effet qu’elles seront « tenues de satisfaire les demandes faites au titre du droit d’accès, donc de remettre, le cas échéant, des copies des documents dès lors qu’ils sont librement communicables« . Cela signifie que si des copies numériques de documents existent, les AN seront obligées de les fournir aux demandeurs qui bénéficieront alors « d’un droit non exclusif et gratuit de libre réutilisation à des fins commerciales ou non, dans le monde entier et pour une durée illimitée« . On notera que les AN ont par contre fait le choix de ne pas appliquer de licence particulière à leurs données (comme la Licence Ouverte d’Etalab ou l’ODbL, par exemple). C’est tout à fait possible, les licences de réutilisation étant facultatives lorsque la réutilisation est gratuite. Ce sont les règles de base du Code des Relations entre le Public et l’Administration qui s’appliqueront par défaut, ce qui revient dans les faits à peu près aux mêmes conditions que la Licence Ouverte (libre réutilisation à charge de citer la source des données).

La décision des Archives nationales de passer à un Open Data par défaut a une portée symbolique importante, car le domaine des archives publiques est certainement l’un de ceux pour lesquels la réutilisation a soulevé jusqu’à présent le plus de crispations. Au niveau des archives départementales, un conflit a même éclaté avec la société de généalogie NotreFamille.com (rebaptisée depuis l’an dernier Filae) à propos de la réutilisation des données d’état civil. Cette querelle a même fini par dégénérer en contentieux et elle a encore connu des rebondissements après le vote de la loi Valter. Résultat : rares sont les archives municipales et départementales à s’engager dans des politiques d’Open Data aujourd’hui. En matière d’archives, l’essentiel de l’effort de numérisation au plan national a pourtant été porté par les départements et les Archives nationales, paradoxalement, ne sont pas aussi avancées en la matière que peut l’être la Bibliothèque nationale de France. Mais l’application de la gratuité par défaut aux AN reste un message important envoyé à l’ensemble de la sphère des archives, et même au-delà.

Plusieurs signes ces derniers mois montrent que les mentalités sont lentement en train d’évoluer dans le champ culturel. En mars dernier, le lancement du portail France Archives mis en place par le SIAF avait déjà été l’occasion de faire passer en Open Data les données d’inventaire des Archives nationales et départementales. Les choses avancent aussi en matière d’Open Content, comme le montrent par exemple les Archives des Hauts-de-Seine, qui ont publié ce mois-ci sous Licence Ouverte près de 2000 cartes postales numérisées sur le portail Open Data du département. Mais la nouvelle la plus spectaculaire en matière d’Open Data culturel est venue ces derniers jours de Toulouse. Les Archives municipales de la ville rose s’étaient déjà montrées pionnières en libérant dès 2013 leurs données et leurs contenus numérisés. A la fin du mois de juin, le Conseil municipal a décidé d’étendre cette politique à l’ensemble des établissements culturels de la ville : archives, musées et bibliothèques. Les données produites par ces institutions sont placées sous licence ODbL (avec une clause de partage à l’identique), tandis que les reproductions d’oeuvres du domaine public sont complètement ouvertes. C’est la première fois en France, à ma connaissance, qu’une politique globale d’Open Data culturel est appliquée à l’échelle d’une ville.

Des reproductions 3D d’objets conservés au Musée Saint-Raymond de Toulouse, librement réutilisables sur la plateforme Sketchfab.

Ce que ces exemples montrent, c’est qu’un nombre croissant d’établissements culturels font à présent le choix de ne pas appliquer le régime dérogatoire en matière de réutilisation que la loi Valter avait pourtant aménagé pour eux. J’avais déjà écrit en avril dernier un billet à propos de l’évolution sensible en faveur de l’ouverture que l’on constate du côté des bibliothèques. Près de la moitié d’entre elles pratiquent à présent la libre réutilisation des contenus qu’elles numérisent, notamment les bibliothèques universitaires et de recherche. Le secteur culturel le plus en retard en France en matière d’ouverture reste celui des musées. Cela s’explique en partie à cause de l’influence d’un établissement comme la RMN (Réunion des Musées Nationaux) dont l’agence photographique continue à commercialiser les reproductions des oeuvres du domaine public des musées pour lesquels elles numérisent les collections.

Mais on commence à voir que ce modèle de commercialisation des données arrive à bout de souffle. La ville de Paris a par exemple fait un choix similaire en confiant la gestion de ses fonds numérisés à une institution privée : la Parisienne de photographie. Or cette dernière connaît visiblement des problèmes de rentabilité suffisamment sérieux pour que sa suppression soit envisagée par la ville. Ces difficultés financières n’ont à vrai dire rien de surprenant, car on sait que la RMN est elle aussi lourdement déficitaire et qu’un trou inquiétant se creuse chaque année un peu plus dans son budget…

Le « trou de la RMN » tel que révélé par une question parlementaire en 2015.

Si les établissements culturels renoncent de plus en plus par eux-mêmes à lever des redevances de réutilisation sur leurs données, c’est qu’ils se rendent compte qu’il ne s’agit pas d’une manière pérenne de financer leurs activités de numérisation. La rentabilité n’est tout simplement pas au rendez-vous, tandis que les « dégâts collatéraux » provoqués par ce type de politiques sont importants. On pense notamment à la réutilisation des images par les chercheurs dans les articles publiés dans des revues scientifiques, qui se trouve fortement entravée lorsque le paiement de redevances est imposé.

De ce point de vue, les institutions culturelles doivent se rendre compte qu’elles sont dans une situation absolument identique à toutes les autres administrations : en dehors de quelques exceptions limitées, les données publiques n’ont qu’une faible valeur d’échange, alors qu’elles ont une forte valeur d’usage. Appliquer des redevances revient à neutraliser l’essentiel de cette valeur d’usage, sans être en mesure de dégager des ressources propres suffisantes pour auto-financer les activités des établissements. Et cela peut même s’avérer un piège redoutable, comme le montre ce qui est train d’arriver à la Parisienne de photographie, qui joue à présent sa survie pour avoir défendu ce modèle de marchandisation du patrimoine…

C’est ce constat lucide sur la valeur des données, fait notamment par le rapport Trojette en 2013, qui a conduit à la consécration du principe d’Open Data par défaut dans la loi Lemaire. Le Conseil National du Numérique avait d’ailleurs explicitement recommandé de ne pas faire d’exception pour les données culturelles et de les réintégrer dans le droit commun. La loi Valter en a décidé autrement, mais elle risque à présent de subir une forme d’abrogation par l’usage. C’est à mon sens une fatalité à long terme, car les redevances de réutilisation ne constituent pas en réalité un modèle économique, mais un modèle idéologique, lié à une tradition solidement ancrée dans notre pays de contrôle de la culture en complet décalage avec les réalités de l’économie de l’abondance.

Comme l’atteste la décision des Archives nationales, les établissements culturels peuvent faire le choix de dépasser cette vision passéiste de leur rôle. C’est la première fois qu’une institution de cette envergure adopte une politique générale d’Open Data et cela marque sans doute un jalon. Au niveau national, la Bibliothèque nationale de France (BnF) pratique déjà l’Open Data pour ses données bibliographiques placées sous Licence Ouverte depuis 2014. Mais les reproductions d’oeuvres du domaine public diffusées par la bibliothèque numérique Gallica font toujours l’objet de redevances de réutilisation. Et du côté des musées, force est de constater qu’aucun établissement national ne s’est pour l’instant engagé dans une politique d’ouverture, alors même que les exemples étrangers commencent à devenir significatifs (le Metropolitan Museum en a apporté la preuve en février dernier en libérant 375 000 images). On attend également à présent de voir quelles seront les orientations du nouveau Ministère de la Culture en la matière, car l’Open Data culturel constitue à l’évidence un enjeu national.

***

Les Archives nationales ont été créées à la Révolution française par la loi du 7 messidor de l’An II qui affirmait un principe de libre consultation des documents d’archives reconnu à tous les citoyens. Plus de deux siècles plus tard, une nouvelle page de cette histoire se tourne avec le passage à un principe de libre réutilisation des données, qui constitue le prolongement moderne de cette philosophie républicaine.

Vers la possibilité d’un Copyleft pour libérer les semences ?

Le mois dernier, la nouvelle s’est diffusée qu’une initiative avait été lancée depuis l’Allemagne pour proposer une licence libre applicable aux semences. Ce projet, porté par l’organisation à but non-lucratif Agrecol, s’intitule Open Source Seeds et il a pour objet d’appliquer à la culture des végétaux les principes du Copyleft appliqués depuis les années 90 dans la sphère du logiciel libre, par le biais d’instruments comme la licence GNU-GPL. Le journal d’Arte a consacré un court reportage à ce sujet, qui permet de bien cerner l’intérêt et les enjeux de la démarche.

A vrai dire, ce n’est pas la première fois que des licences libres applicables aux semences sont proposées et j’ai déjà eu l’occasion d’en parler deux fois sur ce blog : la première en 2013 et la seconde l’an dernier, à propos de deux licences en provenance des Etats-Unis. Les deux fois, j’avais souligné l’importance de tels projets, mais aussi les questions juridiques épineuses qui se posent au sujet de la validité de tels instruments. En effet, les semences ne relèvent pas des mêmes types de droits que les logiciels, qui sont automatiquement protégés par le droit d’auteur. En Europe, les variétés végétales sont couvertes par des COV (Certificats d’Obtention Végétale) et aux Etats-Unis, les caractéristiques des plantes peuvent aussi être protégées par le biais de brevets. Or l’acquisition de ces droits s’opèrent par le biais de procédures de dépôt, ce qui complique sensiblement l’articulation avec une licence libre

Mais ce nouveau projet Open Source Seeds ne se positionne pas de la même façon et il semble avoir trouvé une manière d’appuyer sa licence sur un fondement juridique original, qui permettra peut-être enfin de contourner les difficultés auxquelles se sont heurtées les tentatives précédentes. Cette prouesse mérite d’être saluée et je voulais prendre le temps d’expliquer la manière dont cette licence fonctionne.

De l’importance du Copyleft pour les semences

La première question que l’on est en droit de se poser, c’est de savoir quelle analogie il existe entre les semences et les logiciels et pourquoi il peut être intéressant de leur appliquer une licence libre. Ces raisons sont expliquées dans la documentation du projet, et notamment l’article « Liberating Seeds With An Open Source Seed Licence« , écrit par Johannes Kotschi et Klaus Rapf, qui a été traduite en français par Adrien Labaeye (cliquez ici pour télécharger cette traduction). Ce dernier propose d’ailleurs de traduire « Open Source Seed Licence » par « Licence Semence Libre » et je vais le suivre dans cette voie pour la suite de ce billet.

Il faut en effet savoir que les semences agricoles, qui historiquement ont été développées comme des Communs par un lent processus de sélection opéré sur des siècles par des générations de paysans, ont fait l’objet au cours du 20ème siècle d’un phénomène de privatisation et d’enclosure, à mesure qu’elles ont été saisies par des droits de propriété intellectuelle. Ce système, qui était censé à l’origine encourager l’innovation, a conduit à la concentration de ces droits entre les mains d’un petit nombre de firmes de l’industrie semencière (Monsanto, Bayer, Syngenta, etc.), qui se retrouvent de fait dans une situation d’oligopole extrêmement défavorable aux agriculteurs du monde entier (voir l’excellent documentaire ci-dessous pour en savoir plus).

La situation est donc en réalité très proche de ce qui s’est produit avec l’avènement des logiciels propriétaires dans les années 80, lesquels ont entraîné une riposte de la part du mouvement du logiciel libre. Le Copyleft, inventé par Richard Stallman pour le projet GNU-Linux, est venu répondre au Copyright pour garantir les libertés des utilisateurs et s’assurer que celles-ci ne pourraient plus être retirées une fois accordées. C’est exactement la même philosophie que les porteurs du projet Licence Semence Libre veulent appliquer aux végétaux :

Avec cette licence, Agrecol a trouvé un moyen de préserver les semences comme communs. « Libre » , dans la tradition de l’open-source, signifie que la semence reste libre d’accès et de droits de propriété intellectuelle tels que les certificats d’obtention végétales ou les brevets. Dans le même temps libre, dans le sens d’open-source, n’est pas équivalent d’un accès libre de tous droits et régulation. Il s’agit plutôt de protéger un bien en tant que commun, autrement dit, de le protéger de toute tentative de privatisation. Les règles de l’open-source ont d’abord été établies par des informaticiens à travers le projet GNU qui a défini et conduit à la création de la General Public License (GPL) et, plus récemment, aux licences Creative Commons qui s’appliquent aux créations généralement soumises au droit d’auteur.

La Licence Semence Libre autorise le bénéficiaire à utiliser la semence à des fins personnelles, à la multiplier, la donner, l’améliorer ainsi qu’à distribuer tout matériel génétique résultat d’une sélection ou amélioration. Simultanément, le bénéficiaire de la licence s’engage à céder ces mêmes droits à tout détenteur de la semence et des améliorations éventuelles et à s’abstenir de toute restriction
(brevet, certificat d’obtention végétale). Cette obligation est dite « virale » et généralement appelée « copyleft ». Avec le premier dépôt de licence, une chaîne de contrat est initiée et ce, en principe, sans limitation dans le temps. Les bénéficiaires de la licence en deviennent les titulaires. Ce faisant, la licence protège un commun qui ne peut plus être transféré dans le domaine privé.

On comprend l’intérêt d’appliquer ces principes de réciprocité qui ont prévalu pour le logiciel libre aux semences : l’obtenteur d’une nouvelle variété de végétaux obtenue par sélection peut grâce à cet instrument la mettre en partage et permettre à d’autres sélectionneurs de l’améliorer pour produire des variétés dérivées, par exemple mieux adaptées à des conditions de culture différentes ou présentant de nouvelles caractéristiques intéressantes. Mais le copyleft figurant dans la licence impose une règle de partage à l’identique (Share Alike), qui oblige tout utilisateur ayant produit une variété dérivée de la placer à son tour sous la même licence. De cette manière, on arrive à ce qu’une première variété libérée crée toute une « lignée » de végétaux libres, qui ne pourront plus refaire l’objet d’exclusivités et sur lesquels les droits d’usage demeureront perpétuellement ouverts.

Problèmes récurrents de validité…

Le problème, c’est que si cette démarche est relativement simple à mettre en oeuvre pour les logiciels, ce n’est pas le cas pour les végétaux. Les programmes informatiques, tout comme l’ensemble des oeuvres de l’esprit relevant de la propriété littéraire et artistique (textes, musiques, vidéos, peintures, dessins, etc.), sont automatiquement protégés par le droit d’auteur dès leur création, sans formalité à accomplir. Le droit d’auteur étant aussi bien un droit d’autoriser que d’interdire, il permet aux créateurs d’utiliser des licences libres pour accorder par voie contractuelle des autorisations générales de réutilisation, tout en continuant à fixer certaines obligations. C’est donc bien dans le droit d’auteur que le Copyleft des logiciels libres trouve son fondement et son caractère opposable à des tiers, qui peut être sanctionné en justice en cas de manquement.

La logique juridique à laquelle les semences sont soumises est différente. Un sélectionneur qui obtient une nouvelle variété n’entre pas automatiquement en possession d’un titre de propriété intellectuelle. Il doit pour cela accomplir une démarche particulière d’enregistrement dans le but d’obtenir un Certificat d’Obtention Végétale (C.O.V), voire un brevet aux Etats-Unis. Or cette procédure n’est pas gratuite et elle nécessite que la variété réponde à un certain nombre de critères fixés par la réglementation (dits DHS pour Distinction, Homogénéité, Stabilité).  A défaut de pouvoir s’arrimer à un tel titre de propriété préexistant, appliquer une licence à des semences pose des problèmes de validité juridique, car cela revient à bâtir une maison sans l’appuyer sur des fondations.

Des étiquettes indiquant que des variétés végétales font l’objet de COV, avec pour conséquence une « multiplication interdire sans autorisation ».

Les porteurs de la première licence Open Source pour les semences que j’avais repérée en 2013 et analysée sur ce blog avaient conscience de ces difficultés et ils exprimaient même des doutes quant à la validité des contrats qu’ils proposaient :

Il n’est pas certain que les conditions imposées par la licence puissent avoir une valeur juridique les rendant opposables. Il est possible qu’elles doivent être plutôt regardées comme un code de bonnes pratiques à respecter sur une base volontaire.

L’an dernier, un autre projet dont j’avais parlé sur le blog avait essayé de trouver une voie différente, en s’appuyant sur une forme « d’auto-obligation » de l’utilisateur. Leur licence était inscrite sur les paquets de graines à libérer et elle se « déclenchait » au moment où l’utilisateur le déchirait pour l’ouvrir. Celui-ci était alors réputé avoir accepté les conditions d’utilisation fixées par la licence, aux termes desquels il s’engageait à ne pas restreindre l’utilisation de ces graines ou de tout dérivé produit  à partir d’elles. C’était donc l’équivalent d’un Copyleft, mais s’appuyant uniquement sur une base contractuelle là où les licences de logiciel libre peuvent profiter par ricochet de la force de dispositions légales. Or si le procédé était astucieux, il n’était pas certain qu’il passe l’épreuve de la validité juridique devant un juge.

Les licences libres appliquées aux semences se heurtaient donc jusqu’à présent à une forme d’impasse, d’ailleurs assez similaire aux difficultés rencontrées par le mouvement de l’Open Hardware pour appliquer les principes du logiciel libre au matériel. Comme pour les Certificats d’Obtention Végétale, les objets physiques peuvent relever du droit des brevets ou de celui des dessins et modèles, qui ne s’obtiennent pas automatiquement, mais par des procédures de dépôt. Des tentatives ont bien été faites d’écrire des licences Open Hardware (TAPR Licence, CERN Licence), mais aucune n’a pour l’instant réellement réussi à convaincre quant à sa validité (voir ici pour une synthèse sur la question).

Trouver un nouveau fondement dans le protocole de Nagoya ?

Pour essayer de sortir de cette impasse, les porteurs du projet Open Source Seeds se sont tournés vers le Protocole de Nagoya « sur l’accès aux ressources génétiques et le partage juste et équitable des avantages découlant de leur utilisation« .  Ce traité international conclu en 2010 a pour but de défendre la biodiversité et de combattre ce que l’on appelle la « biopiraterie« , c’est-à-dire l’appropriation illégitime des ressources génétiques et des connaissances traditionnelles autochtones. De nombreux abus ont en effet eu lieu, lorsque des firmes pharmaceutiques, issus généralement des pays du Nord, ont déposé des brevets sur les propriétés de certaines plantes, avec pour effet de « déposséder » des populations autochtones qui en faisaient usage, parfois depuis des siècles.

Pour remédier à cette situation, le protocole de Nagoya essaie de trouver un compromis, en permettant d’une part l’accès pour les entreprises aux ressources génétiques, mais en conférant d’autre part aux populations autochtones le droit de consentir à l’usage de leurs connaissances traditionnelles et de fixer en retour des conditions, notamment pour percevoir un retour sur les bénéfices réalisés par les firmes. Le protocole de Nagoya est entré en vigueur depuis 2014 et il a été ratifié par un grand nombre de pays dans le monde (dont la France, mais pas les Etats-Unis).

D’après les promoteurs du projet Open Source Seeds, le Protocole de Nagoya constituerait un fondement juridique sur lequel une licence peut s’appuyer pour s’appliquer à des semences :

Le Protocole permet au détenteur souverain des droits sur une ressource génétique de définir les conditions de son utilisation à travers un accord préalable et sur la base de clauses définies par contrat. La perpétuation de ces règles est garantie par la documentation obligatoire accompagnant l’usage de ces ressources. En Europe de l’Ouest, le détenteur souverain des droits est généralement le détenteur de la ressource elle-même. Celui-ci est tout d’abord le sélectionneur à l’issue du processus de sélection végétale. A travers la possibilité ouverte par le Protocole de Nagoya qui permet au détenteur des droits sur la ressource génétique de définir ses conditions d’usage, la Licence Semence Libre peut être mise en œuvre. En cela, le protocole de Nagoya est un puissant levier dans la mise en place de la licence.

De la même manière que les licences applicables aux logiciels libres ne tirent pas leur force uniquement de leurs clauses contractuelles, mais s’appuient sur un fondement supérieur (les législations sur le droit d’auteur, elles-mêmes fondées sur des traités internationaux comme la convention de Berne), la licence Semence Libre pourrait donc s’appuyer sur une norme de droit objectif, en l’occurrence le Protocole de Nagoya.

En bleu les Etats parties au Protocole de Nagoya ; en vert les pays où le texte est signé, mais pas ratifié. Source / Wikipedia.

Le texte du Protocole accorde en réalité une place importante aux Etats dans la détermination des conditions du partage équitable des avantages liés aux ressources génétiques, et c’est d’ailleurs un aspect qui a fait l’objet de critiques, dans la mesure où certains lui reprochent d’avoir en quelque sorte « étatisé » les connaissances traditionnelles, en cantonnant les communautés dépositaires à un rôle assez marginal. Le mécanisme de partage des avantages est parfois aussi accusé de risquer de dériver paradoxalement vers une nouvelle forme de marchandisation de ces connaissances, lorsqu’il prend une forme financière.

Néanmoins, il paraît possible d’en faire une autre lecture selon laquelle des licences libres pourraient constituer une manière pour les détenteurs de droits sur une ressource génétique d’exprimer et d’imposer les conditions d’accès et de réutilisation à des tiers. La différence, c’est qu’au lieu d’un partage des avantages sous forme de retour monétaire, l’approche par les licences libres imposerait un « partage à l’identique » (Copyleft), selon une logique de réciprocité et de constitution d’un bien commun.

Cette logique « contractuelle » se lit en filigrane dans ce type de passages que l’on retrouve dans le texte du Protocole :

Conformément à son droit interne, chaque Partie prend, selon qu’il convient, les mesures appropriées pour faire en sorte que l’accès aux connaissances traditionnelles associées aux ressources génétiques détenues par les communautés autochtones et locales soit soumis au consentement préalable donné en connaissance de cause ou à l’accord et à la participation de ces communautés autochtones et locales, et que des conditions convenues d’un commun accord soient établies.

Et le texte parle bien de la possibilité de passer par la mise en place de « clauses contractuelles type » pour régler le partage des avantages :

Chaque Partie encourage, selon qu’il convient, l’élaboration, la mise à jour et l’utilisation de clauses contractuelles types sectorielles et intersectorielles pour les conditions convenues d’un commun accord.

Quid de la commercialisation des semences libérées ?

Tous les problèmes ne seront pourtant pas réglés, même si on admet que les licences libres sur les semences puissent trouver un fondement valable dans le Protocole de Nagoya. Une autre difficulté susceptible d’affecter les semences libres concerne en effet les conditions de leur commercialisation. Au sein de l’Union européenne, les semences doivent faire l’objet d’un enregistrement dans un Catalogue Officiel qui conditionne la possibilité de les vendre. Or du fait des critères qu’il met en oeuvre, ce catalogue favorise mécaniquement les semences « propriétaires » protégées par des Certificats d’Obtention Végétale. Les variétés anciennes (dites aussi traditionnelles ou paysannes) sont difficiles à faire figurer au catalogue, ce qui restreint leur accès au marché et limite leur diffusion.

Les semences placées sous licence libre risquent de se heurter à ce même problème d’exclusion forcée du marché qui affecte les semences du domaine public. Les rédacteurs de la Licence Semence Libre en conviennent d’ailleurs et ils font référence à ces questions d’enregistrement au Catalogue dans la documentation :

Indépendamment de ces conditions, tout sélectionneur de semences utilisant la Licence Semence Libre pour de nouvelles variétés peut faire enregistrer ces dernières pour fins de commercialisation conformément à la régulation en vigueur. Une fois inscrite au Catalogue Officiel avec une dénomination de variété la nouvelle semence, même si elle ne bénéficie pas de protection, peut être commercialisée sous cette dénomination – par quiconque du fait de son caractère open-source (libre).

Il faudra voir à l’usage si des semences Open Source arrivent à obtenir leur inscription au Catalogue Officiel, car comme j’ai eu l’occasion de le montrer dans un billet récent, la commercialisation constitue un enjeu important, pour lequel se bat notamment une association comme Kokopelli, car elle est un vecteur à part entière de la diffusion des semences alternatives.

***

Au final, même si tous les problèmes ne seront pas immédiatement levés, cette nouvelle licence est néanmoins porteuse d’espoir, car elle va peut-être enfin permettre à la logique de l’Open Source de libérer des semences pour en faire à nouveau des Communs, en s’appuyant sur une base juridique valide. Ce serait d’ailleurs la première fois qu’une licence libre n’est pas assise sur la propriété intellectuelle et qu’elle parvient à s’autonomiser par rapport à ce fondement juridique. Pour l’instant, une variété de tomates et une autre de blé ont été déjà placées sous cette licence et la structure Agrecol se fixe comme objectif d’atteindre 20 variétés libérées en 2017. Si vous voulez soutenir cette initiative, parlez-en autour de vous et n’hésitez pas à verser un don.

 

Ressources pédagogiques, Learning Analytics et données personnelles

J’ai eu la chance récemment d’être invité pour intervenir lors des rencontres 2017 de la communauté Scenari (un logiciel libre permettant de créer des chaînes éditoriales pour produire  – entre autres – des ressources pédagogiques). On m’avait demandé à cette occasion de traiter le sujet des Learning Analytics (analyse des données d’apprentissage, en français) dans leurs liens avec la protection des données personnelles et je vous propose la présentation ci-dessous, qui essaie de balayer les divers aspects de la question.

Les Learning Analytics constituent un enjeu important du numérique appliqué aux activités pédagogiques, que ce soit à l’école, à l’université ou dans le secteur privé. C’est typiquement le genre de technologies présentant une nature « pharmacologique » – pour reprendre la notion de Pharmakon développée par Bernard Stiegler.  A la fois remède et poison, l’analyse des traces laissées par les utilisateurs des ressources pédagogiques offre des perspectives révolutionnaires d’accompagnement et de personnalisation des enseignements, de manière à ce que chacun puisse bénéficier au mieux des contenus numériques en fonction de son profil et de ses besoins.

Mais évidemment, ces outils technologiques peuvent aussi se révéler passablement intrusifs et porter atteinte à la vie privée des utilisateurs, en favorisant le fichage ou le profilage des individus, ainsi que la marchandisation des données qu’ils produisent en contexte d’apprentissage. La CNIL a d’ailleurs publié le mois dernier un article intéressant sur la question des Learning Analytics qui souligne bien cette nature ambivalente :

Si elles sont utiles à l’amélioration globale de la plateforme, la production et la réutilisation de ces données interrogent : elles pourraient tout aussi bien être utilisées pour prédire des situations d’échec, détecter des élèves à risque, enfermer les élèves dans des parcours scolaires « adaptés à leur profil »,  prédire les abandons dans les Moocs, voire même fournir des profils adaptés à des employeurs potentiels… Des finalités qui pour certaines, si elles ne sont pas encadrées, pourraient aboutir à des formes de discrimination.

[…] Au-delà de l’aspect juridique, des questions seront certainement à soulever du côté de l’éthique, dès lors que l’on cherchera à classer les élèves dès leur plus jeune âge pour repérer des cas de déviance, avec le risque de les enfermer dans des bulles d’échec. Pour que les données de leur enfance ne les poursuivent pas tout au long de leur vie.

Le (controversé) rapport « Enseignement supérieur et numérique », publié il y a quelques semaines par l’Institut Montaigne, accorde lui aussi une large place aux Learning Analytics, en lien avec l’enjeu du pilotage des établissements académiques :

L’analyse des données d’apprentissage (learning analytics) a également une importance capitale, puisqu’elle permet à la fois aux professeurs de connaître les attentes de leurs étudiants et leurs difficultés, et aux étudiants d’individualiser leurs parcours, d’identifier leurs faiblesses et de bénéficier d’une pédagogie sur mesure. La généralisation de cette analyse quantitative pourrait notamment être un moyen de lutter efficacement contre le décrochage en licence. Rappelons en effet que près de 60 % des inscrits en première année de licence ne passent pas en deuxième année. Plus globalement, elle constitue un réel levier pour améliorer la performance générale du système éducatif.

Il y a donc beaucoup de gains à attendre des Learning Analytics, mais elles risquent aussi de générer de redoutables externalités négatives, notamment si les communautés d’apprentissage ne maîtrisent pas les outils et l’environnement numérique où ces pratiques se dérouleront. On pense bien sûr ici aux effets de bord du partenariat signé entre l’Éducation nationale et Microsoft. À ce sujet, je vous recommande de lire la transcription de l’émission Rue des écoles- France Culture  « Élèves, tous fichés ? Quel encadrement pour le numérique dans l’éducation ? » , publiée par l’April, dans laquelle Daniel Agacinski pointe les risques de dépossession des institutions liés à l’utilisation d’outils propriétaires externes :

Mais il y a cette question, que vous avez évoquée aussi tout à l’heure, des traces d’apprentissage. Quand vous faites faire des exercices ou des leçons à des élèves, ou des interactions entre enseignants, par un certain nombre d’outils numériques qui sont à la disposition du grand public, avec ou sans conditions spécifiques à l’Éducation, vous laissez des traces d’apprentissage qui n’appartiennent, au fond, ni aux enseignants, ni aux élèves eux-mêmes, ni à l’Éducation nationale en tant qu’institution, mais à l’entreprise, au fabricant de cet outil-là.

Au fond, après, qu’il soit français, étranger, et que les données soient hébergées ici ou là, qu’est-ce qui se passe ? Il se passe que quand vous fabriquez un outil pédagogique et que vous l’ouvrez à un grand nombre d’utilisateurs, vous récupérez précisément ces traces d’apprentissage qui vont vous permettre de le développer et de l’améliorer considérablement. Or si, à moyen terme, les élèves français, les enseignants français, à force d’utiliser des outils que l’institution ne connaît pas complètement, ne maîtrise pas complètement, eh bien le travail que font les enseignants et les élèves au quotidien va, non pas servir à améliorer directement les pratiques des enseignants et la connaissance que l’Éducation nationale a de ses élèves, parce que vous disiez tout à l’heure l’Éducation nationale en sait beaucoup sur ses élèves, eh bien peut-être pas tant que ça, finalement ! L’Éducation nationale n’a pas les traces d’apprentissage .

Dans la présentation ci-dessus, j’essaie de passer en revue quelles sont les règles de protection des données personnelles applicables à ce type de traitements, dans le cadre de la réglementation CNIL actuellement en vigueur. Mais je m’efforce aussi d’anticiper des évolutions importantes à venir, notamment celle de l’entrée en vigueur l’année prochaine du Règlement Général de Protection des Données (RGPD) d’origine européenne, qui va profondément bouleverser la matière.

Là où la législation française reposait essentiellement sur des formalités préalables de déclaration à la CNIL, le règlement européen les supprime pour mettre en place un principe de « redevabilité » (accountability) qui va imposer aux établissements de définir a priori des politiques de protection des données (études d’impact, privacy by design, sécurisation, etc.). Par ailleurs, le règlement va désormais nécessiter de recueillir le consentement éclairé des personnes intéressées par un traitement des données personnelles, là où la loi française antérieure ne réservait cette obligation qu’à des hypothèses bien déterminées (données sensibles, cookies, prospection commerciale) et se limitait en dehors de ces cas à un devoir d’information préalable des individus. Si le règlement paraît globalement renforcer la protection des données et consacrer de nouveaux droits (comme celui à la portabilité des données), il a aussi des effets plus ambigus dans la mesure où certains acquis du cadre français paraissent fragilisés (l’exigence d’anonymisation des données par exemple est remplacée par une simple pseudonymisation moins protectrice). Le règlement permet aussi de mettre en place des pratiques de profilage prédictif du comportement des individus, qui peuvent avoir leur intérêt dans le cadre des Learning Analytics, mais dont le caractère intrusif pose aussi de nombreuses questions.

Au-delà du Règlement européen, j’essaie également de voir quelles vont être les incidences de la loi numérique sur les Learning Analytics. A priori, ces données devraient être concernées par l’obligation d’Open Data par défaut que la loi Lemaire impose aux administrations (y compris les universités). Cela signifie qu’elles devront mettre en ligne et rendre librement réutilisables les données d’apprentissage, sans pouvoir fixer de redevances de réutilisation (y compris pour les éventuels usages commerciaux réalisés par des entreprises). Mais ces principes ne vaudront que pour les données anonymisées, car l’Open Data par défaut ne s’applique pas aux documents contenant des informations à caractère personnel. Et cela ne concerna pas non plus le contenu des ressources pédagogiques elles-mêmes, lorsqu’il est protégé par le droit d’auteur. Une licence libre peut bien sûr être appliqué pour entrer dans la logique des Ressources Educatives Libres (REL), mais ce n’est pas une obligation pour les établissements.

Au final, le cadre juridique n’empêche pas bien sûr pas de déployer des technologies de Learning Analytics, mais il impose de prendre des précautions pour garantir les droits des individus concernés (information, consentement, accès, effacement, portabilité) et la maîtrise de leurs données. La mise en place peut être relativement simple si l’on se contente de traiter des données anonymisées (à condition de garantir que les réidentifications indirectes soient impossibles, ce qui peut ne pas être si évident). Mais il faudra établir des politiques de protection précises et spécifiques pour être en mesure d’effectuer des traitements de données personnelles, ce qui paraît inévitable si l’on veut bénéficier à plein du potentiel des Learning Analytics.

Ce sujet est extrêmement intéressant, car il se trouve au carrefour de plusieurs évolutions juridiques importantes – et parfois contradictoires, puisque les administrations vont bientôt se retrouver à devoir gérer en même temps des exigences accrues de protection, mais aussi d’ouverture. Il faudra sans doute du temps et beaucoup d’expérimentations pour trouver où positionner le curseur de manière à tirer le meilleur parti de ces technologies, sans fragiliser les droits des individus.