Retour et métamorphoses du droit de glanage, racine historique des Communs

En décembre dernier, Libération a publié un intéressant dossier consacré aux multiples pratiques alternatives qui se développent dans la sphère non-marchande. Un chiffre en particulier avait alors retenu mon attention : celui selon lequel 20% des français se livreraient aujourd’hui à des pratiques de « glanage ».

Le «glanage» se répand ainsi de plus en plus, une pratique qui consiste à récupérer de la nourriture non ramassée dans les champs, à la fin des marchés, dans les poubelles des commerçants ou dans les conteneurs des supermarchés. Elle concernerait plus de 20 % des Français, selon une récente étude de l’Observatoire des pratiques de consommation émergentes (Obsoco), qui montre aussi que plus d’un Français sur deux est passé à l’achat de produits bio ou issus du commerce équitable, ainsi qu’à l’achat direct auprès des producteurs.

Lorsque l’on pense au glanage, ce sont généralement des images de scènes rurales qui nous viennent à l’esprit, comme celle que l’on voit dans le tableau « Les glaneuses » de Millet.

Les glaneuses, par Jean-François Millet. Domaine public. Source : Wikimedia Commons.

Pour autant au-delà de cette image d’Épinal, il faut nous souvenir que le glanage fut longtemps un véritable droit qui revêtait une importance fondamentale pour l’équilibre social. Il constitue même l’une des racines historiques des Communs et en tant que tel, on le trouve consacré dans la Charte de la forêt de 1217. Par ce texte complémentaire à la Magna Carta, le Roi reconnaissait au peuple anglais un ensemble de prérogatives destinées à lui permettre d’assurer sa subsistance et de conserver son indépendance. On considère aujourd’hui que la Charte de la forêt constitue l’une des premières formes de consécration juridique des biens communs et elle inspire de nombreuses réflexions sur sa transposition moderne.

Si comme le montre l’article de Libération, la pratique du glanage semble toujours vivante aujourd’hui, voire même en expansion, c’est en raison de plusieurs facteurs : d’une part, une crise économique tragique et un affaiblissement des protections sociales qui font que les individus les plus fragilisés se tournent à nouveau vers des pratiques ancestrales de subsistance ; et d’autre part (mais non sans lien direct) une crise de l’idéologie propriétaire poussant à la réinvention de nos pratiques de consommation et à l’exploration d’autres modes de gestion des ressources.

C’est avec ces éléments en tête que suite à la lecture de l’article de Libération, je me suis attelé ces dernières semaines à pousser des recherches sur le droit de glanage. Et j’ai pu ainsi découvrir un fantastique reportage d’Agnès Varda, que je ne connaissais pas jusqu’alors : « Les glaneurs et la glaneuse », sorti en 2000.

Partant des représentations anciennes du glanage dans la société rurale, Agnès Varda se lance sur les routes et part à la découverte des formes de subsistance de cette pratique. Elle collecte les témoignages et montre que si le glanage a beaucoup régressé dans nos campagnes, il s’est métamorphosé pour prendre d’autres visages, qu’il s’agisse de ramassage de restes alimentaires, de collecte des invendus à la fin des marchés ou de recyclage des encombrants dans les villes.

Le glanage a un lien avec les Communs, parce qu’il se développe partout où la propriété se trouve momentanément « suspendue » et souvent même, contre elle. La tolérance envers ces pratiques, et parfois même leur reconnaissance par le droit, met en lumière le fait que la propriété est rarement un droit absolu, mais se décompose souvent en un « faisceau de droits » répartis entre plusieurs acteurs.

Lire la suite

Publié dans Penser le droit d'auteur autrement ... | Tagué , , , , , , , | 8 commentaires

Et si la justice française s’apprêtait à reconnaître un droit au remix ?

Open Data, Open Access, Text and Data Mining, Domaine public : plusieurs avancées significatives ont pu être obtenues la semaine dernière à l’occasion du vote de la loi numérique à l’Assemblée nationale (voir la synthèse réalisée par le CNNum). Mais il est un sujet important qui est malheureusement resté au point mort : celui du droit au mashup, au remix et plus largement à la création transformative, dont j’ai souvent parlé dans S.I.Lex ces dernières années.

En 2013, le rapport Lescure s’était pourtant prononcé en faveur de l’introduction d’une nouvelle exception au droit d’auteur visant à sécuriser les usages transformatifs. Mais l’idée s’est perdue ensuite dans les méandres d’un rapport du CSPLA et elle a eu bien des difficultés à se frayer un chemin jusqu’au débat parlementaire. Lors de la consultation qui a précédé la loi numérique, le collectif SavoirsCom1 a avancé une proposition d’exception de citation audiovisuelle, qui a été reprise et défendue à l’Assemblée nationale par la députée Isabelle Attard, hélas sans succès.

Au niveau européen, les perspectives ne sont guère plus réjouissantes. L’eurodéputée Julia Reda a proposé l’an dernier d’élargir les exceptions de citation et de parodie pour qu’elles puissent accueillir plus largement les usages transformatifs. Mais cet aspect de son rapport n’a pas été retenu par le Parlement européen et il ne fait pas partie des pistes de réforme du droit d’auteur annoncées par la Commission européenne en décembre dernier.

On pourrait donc penser que la question du droit au remix risque à présent de rester sous la glace pendant de nombreuses années, étant donné que toutes les fenêtres législatives au niveau national et européen se sont refermées. Sauf que les choses ne sont pas aussi simples et que la surprise pourrait bien malgré tout venir de France…

Lire la suite

Publié dans Penser le droit d'auteur autrement ... | Tagué , , , , , | 6 commentaires

Open Law : un modèle exemplaire de partenariat Public-Privé-Communs

L’introduction des « Communs informationnels » en tant que nouvelle catégorie juridique dans la loi française n’a pas été retenue par les députés la semaine dernière, à l’occasion de l’examen de la loi Lemaire. Néanmoins cette loi aura tout de même un effet puissant de promotion des Communs, notamment grâce à ses dispositions instaurant un principe d’Open Data « par défaut ». Aussi bien au niveau national que local, un nombre important de nouveaux jeux de données devraient être libérés en ligne dans les mois qui suivront l’entrée en vigueur du texte. En soi, l’ouverture des informations publiques constitue pour les personnes publiques un manière de « contribuer aux Communs », dans la mesure où cette démarche élargit les droits d’usage sur les données mises en partage.

Cependant, l’existence de jeux de données réutilisables n’est pas en elle-même suffisante pour constituer des Communs, au sens propre du terme. Il n’en sera ainsi que si des communautés réelles apparaissent et se structurent autour des données ouvertes pour les réutiliser effectivement, assurer leur enrichissement et participer à leur gouvernance. Jusqu’à présent, si le mouvement d’ouverture des données publiques a bien progressé en France, on peut dire que ce sont à propos de ces derniers points que la dynamique d’Open Data pêche encore assez largement.

« Open Law – Le droit ouvert » constitue une initiative qui montre une voie pour associer acteurs publics, entreprises privées et  société civile autour de données ouvertes dans le but explicite de produire de nouveaux communs. Elle constitue un modèle de ce que l’on pourrait appeler un « Partenariat Public-Privé-Communs », dont la vidéo ci-dessous vous présente les grandes lignes :

Le secteur de l’information juridique en voie de recomposition

Le champ d’intervention du projet Open Law est celui de l’information juridique. Ce domaine a connu de profonds bouleversements ces dernières années avec l’ouverture en Open Data des grandes bases de données de législation et de jurisprudence. Jusqu’alors ces éléments clés n’étaient réutilisables qu’à la condition de s’acquitter d’une redevance versée à la DILA (Direction de l’Information Légale et Administrative), administration centrale rattachée aux services du Premier Ministre. Cette situation faisait que ces données étaient en pratique réservées à un groupe d’éditeurs juridiques (Lexis Nexis, Dalloz, Lextenso, etc.), qui s’en servaient pour proposer des bases de données sous forme de produits commerciaux.

Avec le passage en Open Data des mêmes jeux de données, les différents acteurs de ce champ doivent se repositionner. Le « coût d’entrée » sur ce secteur de l’information juridique a été fortement abaissé, ce qui permettra à davantage de petits acteurs innovants de l’investir. L’acteur public conserve une position centrale en matière de production des jeux de données essentiels de l’information juridique, mais la possibilité pour des entreprises, des associations ou de simples citoyens de contribuer est dorénavant largement plus ouverte.

Open Law, une démarche de coopération pour la création des « Communs du droit »

Dans ce nouveau contexte, l’initiative Open Law a été lancée sous la forme d’une association pour fédérer ces partenaires publics et privés autour d’une dynamique de coopération. L’originalité principale de la démarche consiste à favoriser la production de « Communs du droit », visant à faciliter la réutilisation des informations juridiques et à exprimer leur plein potentiel :

Rendus possibles par l’ouverture des données juridiques, les communs sont construits, enrichis, gouvernés et maintenus au bénéfice de tous par des communautés d’acteurs.

Ils nourrissent l’innovation et servent de socles au développement de services innovants, par les entreprises et par la société civile.

Open Law Europa a permis l’émergence et la conception de 5 nouveaux communs pour le droit ouvert, dont la construction se poursuivra au fil des prochains mois.

Ces 5 Communs du droit sont les suivants :

  1. HUB : un catalogue des ressources juridiques librement accessibles en France et à l’étranger, placé en Open Access et construits de manière collaborative ;
  2. PARIS : une norme permettant l’identification des sources du droit à l’échelle européenne par le biais d’un standard unique, ouvert et pérenne d’URI ;
  3. CORE : une ontologie visant à permettre le traitement automatisé des données juridiques et leur inscription dans le web de données ;
  4. CROWD : des interfaces web pour l’annotation collaborative des textes juridiques, au moyen de mots-clés et de vocabulaires contrôlés ;
  5. SOCLE : une suite logicielle Open Source pour le droit ouvert.

Comme on le voit, ces Communs constituent en réalité des standards, des normes, des inventaires, des logiciels qui forment les « briques de base » indispensables à la construction d’un « Réseau de données liées ouvertes et exploitables par tous », que ce soit dans un but commercial ou non.

Financer le développement d’une infrastructure commune

Il est clair que l’utilité de cette couche d’enrichissement construite au-dessus des jeux de données en Open Data ne peut être optimale que si elle est elle-même ouverte. Même les acteurs commerciaux ont intérêt par exemple à ce qu’un standard émerge pour pouvoir désigner les ressources juridiques par le biais d’identifiants contrôlés ou à ce qu’une ontologie du droit soit mise en place pour pouvoir investir le web de données.

Mais pour que ces ressources communes existent, il est nécessaire de consentir des investissements financiers, techniques et humains, qui peuvent s’avérer conséquents. L’acteur public n’en a pas forcément les moyens, en plus de la production des données de base qui lui incombe. Les acteurs privés n’ont de leur côté pas naturellement intérêt à le faire, s’ils restent dans leur logique traditionnelle de compétition, car cela reviendrait à produire des ressources utilisables par leurs concurrents. Du coup, il fallait monter une infrastructure permettant à chacun de ces acteurs de dépasser leur approche traditionnelle pour leur faire voir l’intérêt de mutualiser les moyens en vue de la production de ces « briques essentielles » pour tout l’écosystème.

L’association Open Law joue ce rôle. Elle sert d’abord de cadre de rencontre et de discussion entre acteurs publics et privés pour identifier les Communs à faire émerger dans le domaine de l’information juridique. Elle sert ensuite de « pot commun » rassemblant des financements publics et privés pour lancer des appels à contributions visant à la construction de ces Communs. Un peu à la manière de ce qu’est le W3C à l’échelle du web, Open Law joue aussi le rôle d’instance de gouvernance pour cette nouvelle infrastructure.

Ces Communs une fois mis en place, développés et maintenus par Open Law, chacun est libre de les réutiliser pour développer des projets concrets de services construits sur les données juridiques ouvertes. Open Law en signale déjà un certain nombre sur son site comme RIPSA (un répertoire permettant de connaître simplement les procédures administratives pour lesquelles le silence de l’administration vaut accord) ou DroitDirect.fr (une plateforme pour faciliter l’accès des personnes au droit, notamment celles en position précaire comme les étrangers et demandeurs d’asile).

On notera également qu’Open Law innove dans la manière dont le projet souhaite favoriser et récompenser les contributions apportées par les individus à ces Communs identifiés comme essentiels pour l’écosystème du droit ouvert. En effet, Open Law a mis en place un statut de « contributeur rémunéré aux communs ». Les sommes mutualisées par les partenaires servent en partie à verser une rémunération aux contributeurs individuels donnant de leur temps et de leurs compétences pour réaliser les objectifs déterminés par la structure. Open Law implémente ainsi l’idée d’une « réciprocité pour les Communs » ou d’un revenu contributif, sans avoir pour cela à inventer de nouvelles licences.

Pour une généralisation des partenariats Public-Privé-Communs

En 2014, l’italien Tommaso Fattori avait proposé le concept de « Partenariats Public-Communs » (Public-Commons Partnerships) comme une alternative aux partenariats Public-privé classiques, trop souvent à l’origine de formes de privatisation ou d’accaparement de ressources communes. L’initiative Open Law constitue à mon sens à la fois une réalisation et un enrichissement de cette idée, en montrant comment des Partenariats Public-Privé-Communs peuvent être mis en place autour des données ouvertes.

Comme je le disais au début de ce billet, avec la loi numérique de nombreux jeux de données publiques devraient être ouverts dans les mois qui suivront l’entrée en vigueur du texte. On peut dès lors se demander si ce qu’a réalisé Open Law dans le secteur de l’information juridique ne pourrait pas être répliqué dans d’autres domaines. Il existe en effet de nombreux champs où l’on retrouve des écosystèmes similaires, avec un rôle central joué par l’acteur public en matière de production de jeux de données essentiels, un tissu d’entreprises réutilisant ces données pour offrir des produits et une communauté d’utilisateurs capables de contribuer à leur enrichissement. Le secteur de la santé par exemple, celui de l’énergie ou des transports, mais aussi ceux de l’éducation, de l’enseignement supérieur ou de la culture présentent des caractéristiques assez similaires.

Or dans ces domaines, le besoin existe aussi de créer des répertoires des ressources libres, de produire des référentiels et des ontologies partagées, d’élaborer des standards et des normes d’identification ou de produire des solutions logicielles en Open Source. De nombreux « communs informationnelles » essentiels font encore défaut pour que l’Open Data donne la pleine mesure de son potentiel. Cette voie des partenariats Public-Privé-Communs ouverte par Open Law mérite donc sans doute d’être généralisée et approfondie.

Publié dans A propos des biens communs, Données publiques et Open Data | Tagué , , , | 9 commentaires

Archives ouvertes et licences Creative Commons : des synergies à conforter

En décembre dernier, une journée d’étude a eu lieu au CNRS à Paris pour célébrer les 10 ans de l’archive ouverte HAL-SHS. On m’avait demandé d’intervenir à la table-ronde juridique de la matinée pour faire une présentation sur l’utilisation des licences Creative Commons dans le cadre des archives ouvertes. J’avais déjà eu l’occasion d’écrire sur ce blog à propos des liens entre licences libres et Open Access, mais cette invitation au CNRS m’a permis de refaire un point sur la question. A la demande des organisateurs de la journée, je publie ci-dessous une synthèse de mon allocution, remise en forme et détaillée à partir de mes notes.

halshs

Une des nouveautés importantes de la v3 du portail HAL mise en production l’année dernière a justement consisté à permettre aux chercheurs d’associer clairement aux contenus qu’ils déposent sur la plateforme une licence Creative Commons pour en favoriser la réutilisation. Cette fonctionnalité faisait défaut auparavant et les chercheurs qui souhaitaient utiliser les Creative Commons étaient obligés de « bricoler » pour faire figurer cette mention dans les fichiers déposés, sans que ce choix soit clairement répercuté dans les métadonnées associées au contenu. La situation a heureusement évolué et on peut maintenant s’attendre à ce que les chercheurs puissent plus facilement se poser la question du statut juridique sous lequel ils souhaitent diffuser leurs travaux.
Lire la suite

Publié dans Alternatives : Copyleft et Culture Libre | Tagué , , , , , , | 2 commentaires

Ériger le réseau des données personnelles en bien commun ?

Parmi les plus de 500 amendements déposés par des députés à propos de la loi numérique, il en est un qui n’a guère retenu l’attention, mais qui présentait pourtant un intérêt certain, au moins pour l’originalité de son approche de la notion de données personnelles. Il s’agit d’un amendement porté par les députés PS Delphine Batho et Laurent Grandguillaume, finalement rejeté, qui était formulé ainsi :

ARTICLE 26

L’alinéa 2 est complété par la phrase suivante :

« Les données à caractère personnel, lorsqu’elles forment un réseau indivisible de données liées qui concernent plusieurs personnes physiques, constituent un bien commun qui n’appartient à personne et dont l’usage est commun à tous, dont la protection et l’utilisation sont régies par la présente loi. »

EXPOSÉ SOMMAIRE

La loi informatique et libertés de 1978, dans sa rédaction actuelle, ne considère que les données personnelles solitaires, qui renseignent directement ou indirectement sur une personne.

Dans les faits, les données sont aujourd’hui totalement interconnectées, formant un réseau de données indivisible. Il convient d’adapter le cadre juridique à cette réalité en s’inspirant de l’article 714 du code civil afin d’assurer une protection collective des données en les considérant comme un bien commun.

Certes, cette manière d’appréhender les données personnelles à travers la notion de biens communs a de quoi surprendre au premier abord. Guillaume Champeau, rédacteur de Numérama, a d’ailleurs réagi ainsi sur Twitter en découvrant cet amendement :

Les données personnelles renvoient naturellement à la sphère de la vie privée, voire de l’intime des individus. Comment pourraient-elles être considérées comme des biens communs, « n’appartenant à personne » (passe encore), mais surtout « dont l’usage est commun à tous » ? Cela semble complètement contre-intuitif et à rebours de la manière dont le droit protège les données personnelles habituellement.

En réalité, cette contradiction n’est qu’apparente, car le but de cet amendement n’était pas de faire des données personnelles un bien commun en tant que telles, mais d’attribuer cette qualification au « réseau de données indivisible » qui se forment lorsque des données personnelles sont interconnectées entre elles. On peut penser par exemple pour visualiser ce réseau de données liées au graphe social que des plateformes sociales comme Facebook matérialisent et exploitent. Marc Zuckerberg en personne le définissait en 2007 comme : « le réseau de connexions et de relations entre les gens sur Facebook, qui permet la diffusion et le filtrage efficaces de l’information ».

J’ai déjà consacré, il y a deux ans, plusieurs billets à cette idée qu’un pont devrait être établi entre les données personnelles et la notion de biens communs, pour contrecarrer certaines thèses qui voulaient établir à l’époque un droit de propriété privée sur les données personnelles. Je n’étais pas le seul à l’époque à avoir cette intuition de ce rapport possible entre Communs et données personnelles. Silvère Mercier avait par exemple écrit ceci dans un billet sur son blog :

Ni privé, ni public comment penser des données personnelles en biens communs? Car c’est une piste peu étudiée : celle de faire de ces fameuses données personnelles des biens communs, quelque chose qui appartient à tous et à personne. Ne pas les sanctuariser par la loi, ni les commercialiser sans vergogne mais bien de repenser autour de leurs usages un faisceau de droits. Il ne s’agit pas de refuser de leur appliquer un régime de propriété mais d’en repenser la nature. Et s’il fallait inventer des creative commons des données personnelles, des privacy commons? Reste à définir une gouvernance partagée de cette ressource commune. La question est effroyablement complexe et je ne prétends bien sûr pas la résoudre ici…

On perçoit ici très bien la proximité avec l’amendement déposé cette semaine. Et Silvère insistait lui aussi sur l’importance du graphe, en tant que « réseau de données liées » :

Quelques éléments me semblent importants à prendre en compte pour tenter de clarifier ce sur quoi pourrait porter un faisceau de droits. Il nous faut comprendre la différence essentielle entre les données d’un individu et le graphe qui est exploité. Facebook et Google n’ont que faire des données prises séparément […]. Non ce qui est décisif, c’est le graphe, le croisement de ces données, les relations entre elles via des algorithmes et des vocabulaires de types de relations (ontologies).

Pour essayer de penser les données personnelles comme un commun, nous avions alors essayé d’envisager une analogie avec ce que les licences libres permettent en matière de propriété intellectuelle, en imaginant que les individus pourraient accepter de mettre en partage leurs données personnelles en fixant des conditions. Mais cette piste, même si elle paraît intéressante de prime abord, ne mène en vérité nulle part. Elle a en effet le même défaut que l’approche personnaliste qui gouverne aujourd’hui l’appréhension des données personnelles en droit français. Elle s’enracine en effet dans un paradigme individualiste qui masque la dimension collective essentielle résultant de la nécessaire interconnection des données personnelles entre elles.

Pour envisager pleinement cette dimension collective, il faut opérer un véritable renversement copernicien pour appréhender directement le réseau des données liées et l’ériger en tant que tel en un nouvel objet de droit, ce qui n’existe pas à ce jour dans la loi française (ni dans aucun autre droit à ma connaissance).

Le premier à avoir opéré ce renversement de perspective est Pierre Bellanger, fondateur de Skyrock et auteur en 2014 d’un ouvrage intitulé « La souveraineté numérique« . Après avoir été le champion de la thèse de la propriété privée sur les données personnelles, Pierre Bellanger a changé d’approche pour sortir justement du paradigme individualiste et appréhender la dimension collective des données personnelles. Et c’est de cette manière qu’il est arrivé à la notion de biens communs, dans le texte « Principes et pratiques des données personnelles en réseau » daté de septembre 2014 qui constituait sa contribution à l’étude du Conseil d’Etat sur les technologies numériques et les droits fondamentaux.

Ce texte introduit la notion de réseau de données, à partir d’une critique de l’approche personnaliste de la loi de 1978 :

Ainsi, les données personnelles ne sont plus granulaires mais réticulaires, c’est-à-dire organisées en réseau.  Les données personnelles ne sont plus séparées mais liées. Cette intrication forme le réseau des données personnelles qui se substitue, en fait, aux données personnelles isolées du passé.

Les données ne pourraient même plus être dites « personnelles » dans la mesure où les informations relatives à un individu renseignent aussi sur d’autres personnes. Une fois admis ce constat, la question est de donner une qualification juridique à ce réseau de données liées et c’est vers la notion de biens communs qu’on peut se tourner pour les faire bénéficier d’un régime qui évitera leur captation abusive :

Quelle est la nature juridique du Réseau de Données ? Il s’agit d’un objet sur lequel toutes les personnes, dont les données sont maillées, disposent de droits mais qui ne peut être matériellement divisé entre eux. Il est ni dissociable, ni individualisable par nature car chaque donnée personnelle renseigne sur les autres. C’est donc une forme d’indivision qui concerne toute la population.

Par ailleurs, les informations provenant du Réseau de Données sont d’un intérêt général majeur pour la collectivité, notamment, en matière de santé, de transports, de consommation, d’environnement ou encore de compétitivité économique.

Par son origine multi-personnelle, son impossibilité à le séparer, et son utilité collective, le Réseau de Données est donc un bien commun – res communis – : un bien qui appartient à tous mais ne peut appartenir à personne en particulier. Son statut est défini en droit français par l’article 714 du Code civil.

C’est aussi un bien où chacun dispose de droits spécifiques (retrait, opposition, oubli) sur son propre apport et ce, dès lors qu’il n’engage pas les droits d’autrui.

Le Réseau de Données répond donc de droits collectifs et de droits individuels.

Cette intrication de droits collectifs et de droits individuels correspond exactement au « faisceau de droits » – élément central de la théorie des Communs – dont parlait Silvère dans son billet.

Personnellement, je trouve assez remarquable la manière dont cette approche crée un nouvel objet de droit, d’emblée collectif, là où nous étions tous été restés prisonniers du paradigme individualiste en essayant de construire le Commun à partir de l’individuel. Ce réseau de données correspond au graphe social dont je parlais au début de ce billet. Et il est intéressant de relire cette déclaration citée par InternetActu que Marc Zuckerberg faisait à ce sujet en 2007 :

C’est l’ensemble des relations de toutes les personnes dans le monde. Le graphe social : il y en a un seul et il comprend tout le monde. Personne ne le possède. Ce que nous essayons de faire c’est de le modeler, le modéliser, de représenter exactement le monde réel en en dressant la carte.

Le graphe social est en effet mondial. Il embrasse l’ensemble de l’humanité (passée, présente et à venir). Il est le produit des relations que les hommes entretiennent entre eux en tant qu’êtres sociaux. C’est en quelque sorte le reflet informationnel de la nature sociale de l’homme (voir notamment la fameuse théorie des six degrés de séparation). Et même quelqu’un comme Marc Zuckerberg reconnaît que « personne ne le possède« , bien que tout le monde – à commencer par lui – essaie de le capturer et de se l’accaparer.

L’amendement déposé par Delphine Batho et Laurent Grandguillaume était donc bien plus profond qu’il n’y paraît de prime abord. Et je mettrai ma main à couper qu’il leur a été inspiré par Pierre Bellanger, dont on retrouve la « patte » dans l’exposé des motifs.

La question maintenant est de savoir si l’on doit soutenir une telle approche.

Personnellement, j’adhère complètement avec cette notion de « réseau de données personnelles », ainsi qu’avec l’ambition d’en faire un nouvel objet de droit en passant par la qualification de biens communs. L’amendement se réfère pour cela à l’article 714 du Code civil qui traite des « choses communes » (celles qui « n’appartiennent à personne, mais dont l’usage est commun à tous« ). Il y a ainsi une parenté très forte entre cet amendement et l’article visant à consacrer un « domaine commun informationnel«  pour lequel nous nous sommes battus au cours du débat sur la loi numérique.

Mais une fois que l’on a créé un nouvel objet de droit, il faut ensuite déterminer quel régime on souhaite lui voir appliquer, notamment pour organiser une gouvernance. Or dans le texte que j’ai cité plus haut, Pierre Bellanger insiste très fortement sur les pouvoirs que les instances étatiques devraient avoir sur la gestion du réseau de données :

La gestion et l’exercice de ces droits doit revenir à un organisme public, garant du contrôle démocratique et souverain et seul à même d’en permettre l’accès et l’usage.

Une telle institution, structurante et référente, créé les procédures, les instances ainsi que les concertations nécessaires. Elle devra donc, tout à la fois, gérer le bien commun et les droits individuels afférents. Sa capacité à ester en justice sera, de ce point de vue, essentielle.

Une agence des données pourrait ainsi être établie.

Cette « Agence des données » serait notamment dotée de larges pouvoirs, comme celui de délivrer des agréments aux opérateurs souhaitant effectuer des traitements du réseaux de données.

La qualification de biens communs ne sert en définitive qu’à organiser un transfert de la gouvernance au profit de l’Etat, ce qui paraît en définitive assez éloigné de ce que sont réellement les Communs. Si le Réseau de Données est un Commun, alors c’est avant tout sa gouvernance qui doit être commune, et non étatique.  Dans un autre amendement partageant cette même inspiration, on voit d’ailleurs apparaître la notion encore plus ambiguë de « biens communs souverains » employée à propos des données personnelles :

ARTICLE ADDITIONNEL

APRÈS L’ARTICLE 12, insérer l’article suivant:

Dans les six mois suivant la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport sur le statut juridique de « biens communs souverains » qui pourrait être appliqué à l’essentiel des données personnelles.

Quelque chose me fait penser qu’en partant de telles bases, les données deviendraient rapidement davantage « souveraines » que « communes ». Par ailleurs, le graphe social dans sa nature même est mondial. Il ne peut s’agir que d’un bien commun global, comme peuvent l’être le climat et ou l’atmosphère et je vois mal comment on pourrait mettre cette qualification au service de la souveraineté nationale. L’Etat peut et doit être le « garant des communs » (notamment à travers sa justice), mais il n’est pas censé assurer directement la gestion des Communs.

J’étais déjà assez sceptique à propos de ces conclusions en 2014, mais je le suis plus encore à présent, depuis le cortège de lois sécuritaires et attentatoires à la vie privée qui nous a été infligé par le gouvernement au nom de la lutte contre le terrorisme. Confier à ce nouvel Etat sécuritaire et de plus en plus panoptique la gouvernance sur le réseau des données personnelles paraît franchement dangereux pour la sauvegarde des libertés.

***

Au final, il y a dans cette idée de constituer le réseau des données personnelles en bien commun à la fois une intuition géniale et un péril certain.

L’amendement n’a cependant pas été approuvé par la Commission des lois et il n’y a quasiment aucune chance qu’il passe lors de l’examen en séance. Le futur règlement européen sur les données personnelles n’envisage pas non plus une telle approche.

Mais il serait à mon sens extrêmement dommage d’enterrer cette notion de « réseau de données liées » et ceux qui s’intéressent aux Communs devraient s’en emparer pour explorer ses potentialités.

 

 

Citation | Publié le par | Tagué , , , , | 5 commentaires

Le CNNum recommande d’expérimenter les licences à réciprocité

Le Conseil National du Numérique a remis au gouvernement en fin de semaine dernière un rapport intitulé « Travail, emploi, numérique : les nouvelles trajectoires« . Ce document extrêmement riche aborde de multiples questions liées à la révolution numérique comme celle de la fin du travail, l’ubérisation, l’impact de l’automatisation sur l’emploi ou encore le digital labor.

Screenshot (10)

Le rapport comporte 20 propositions adressées aux pouvoirs publics et parmi elles, on relève la recommandation d’expérimenter les licences dites « à réciprocité » dont j’ai plusieurs fois eu l’occasion de parler dans S.I.Lex. C’est la seconde fois qu’un rapport officiel attire l’attention sur ce nouveau concept à explorer, après le rapport Lemoine sur la « transformation numérique de l’économie » paru en novembre 2014.

Si vous ne connaissez pas le principe des licences à réciprocité, je vous recommande de consulter la présentation ci-dessous, tirée d’un atelier que le collectif SavoirsCom1 avait organisé en octobre dernier lors du festival « Le Temps des Communs ».

Screenshot (11)

Pour simplifier, les licences à réciprocité se posent comme des alternatives aux licences libres classiques pour placer des ressources érigées en biens communs sous un régime qui n’autorise aux acteurs économiques d’en faire usage qu’à la condition qu’ils contribuent aux communs en retour. Plusieurs propositions différentes existent à ce jour comme la Peer Production Licence, la première à avoir émergé, qui permet l’usage gratuit aux coopératives, mais imposent aux sociétés classiques de payer pour pouvoir utiliser un bien commun. D’autres versions, comme la Commons Reciprocity Licence, ont un fonctionnement plus souple et envisagent de coupler la licence avec une crypto-monnaie pour évaluer concrètement la valeur des contributions aux communs et assurer une rémunération en retour en cas d’usage commercial.

Dans le rapport du CNNum, les licences à réciprocité apparaissent à trois endroits différents comme un moyen d’atteindre certains des objectifs affichés, en lien avec le développement des Communs :

(p. 99) Accompagner les territoires menant des expérimentations ou développant des modes alternatives d’organisation et de rétribution d’activités contributives. Par exemple :

[…]

  • L’utilisation de licences à réciprocité (ex : licence FairlyShare, licences Creative Commons) permettant d’explorer des logiques de reconnaissance de la valeur produite sans passage par une monétarisation ;

(p. 119)  Soutenir le coopérativisme de plateforme, afin d’assurer une juste rétribution et représentation des travailleurs de l’économie collaborative.

Le coopérativisme de plateforme consiste à appliquer le modèle coopératif aux plateformes, notamment d’économie collaborative. Ce modèle permet à chaque utilisateur d’être en même temps détenteur de la plateforme et donc d’être partie prenante de la constitution des règles de la plateforme via la gouvernance démocratique : les conditions de tarification, les droits sociaux ouverts aux travailleurs, les réglementations concernant le déréférencement.

[…]

  • asseoir juridiquement et diffuser les licences à réciprocité, telle que la peer production licence, qui crée des droits d’utilisation différents selon que l’entité réutilisatrice soit une coopérative ou non.

(p. 142) Penser une articulation vertueuse des communs et de l’innovation ouverte.

Des coopérations fertiles peuvent se développer entre la richesse de la sphère des communs informationnels et un tissu économique industriel en transformation. Ces coopérations doivent être outillées et soutenues. Dans le même temps, il est nécessaire de se prémunir contre les risques de pratiques aboutissant à asseoir une marchandisation de l’information.

[…]

  •  Consolider juridiquement le système des licences à réciprocité et mener une lutte renforcée contre le copyfraud et le patent trolling.

On voit que le CNNum cite trois exemples de licences à réciprocité : les Creative Commons (mais il s’agitvraisemblablement d’une erreur, car aucune des licences CC ne peut être considérée comme une licence à réciprocité), la Peer Production Licence et la FarlyShare Licence.

Cette dernière licence est une initiative française que j’ai découverte récemment (à l’occasion de l’atelier de SavoirsCom1 en octobre dernier). Elle est proposée par Vincent Lorphelin de Venture Patents et vous pouvez la découvrir sur ce site ou dans cette interview. Cette licence est assez différente dans ses objectifs des autres propositions de licences à réciprocité. Elle vise d’abord à empêcher la captation abusive de la valeur générée par des contributions effectuées par des internautes en imposant leur rémunération en cas d’usage ayant généré des profits pour un tiers :

Il s’agit d’une licence de cession de droits de contributeurs collaborant à une oeuvre commune, qui souhaitent recevoir une rétribution équitable lorsque leur travail a généré un profit, même indirect, par un tiers. A cette condition, ils autorisent toute exploitation de l’oeuvre, y compris à des fins commerciales, ainsi que la création d’oeuvres dérivées ou l’intégration dans une oeuvre collaborative ou collective, dont la distribution est également autorisée sans restriction.

[…]

La motivation des contributeurs de l’économie collaborative peut souvent se résumer de la manière suivante : « je suis prêt à faire un travail gratuit pour un bien commun si je trouve que le projet a du sens. Je suis prêt à être rétribué, si le contrat est transparent, sous une autre forme que l’argent, comme la visibilité ou l’influence. Mais, dans tous les cas, si ma contribution génère un profit pour quelqu’un, même de manière indirecte, je veux en recevoir une part équitable ».

Je consacrerai peut-être plus tard un billet détaillée à la FairlyShare Licence, dont les mécanismes de fonctionnement très modulaires sont intéressants, mais qui m’intrigue par certains côtés et dont je ne suis pas certain de partager l’objectif d’assurer une rémunération financière directe pour les contributeurs aux Communs, avec toutes les difficultés que cela soulève en termes de traçage et d’évaluation des contributions. Le but recherché me semble plus proche des positions d’un Jaron Lanier sur la monétisation des contributions des internautes que de  celles d’un Michel Bauwens sur l' »économie des communs ». Néanmoins, cette nouvelle licence a le mérite d’exister et d’essayer d’incarner l’idée de réciprocité pour sortir du stade des simples discours.

On peut aussi relever que cette idée de réciprocité traverse le rapport du CNNum au-delà de la seule mention des licences. C’est d’ailleurs aussi une des conclusions à laquelle nous étions parvenus à l’issue de l’atelier d’octobre dernier organisé par SavoirsCom1. Les licences n’apparaissent en effet que comme un moyen parmi d’autres d’aboutir à une réciprocité du secteur marchand envers les Communs. On peut imaginer d’autres mécanismes complémentaires ou alternatifs, comme des labels ou des monnaies, qui pourraient aussi remplir cette fonction. Des obligations réglementaires pourraient être aussi imposées aux entreprises ou les inciter à aller progressivement vers une telle réciprocité.

Dans le rapport du CNNum, on trouve par exemple l’idée – déjà présente dans le rapport Lemoine que j’ai cité plus haut – d’instaurer un Droit individuel à la contribution, inspiré du Droit à la formation existant aujourd’hui et défini ainsi :

Ce droit autoriserait la participation d’un travailleur à des projets en dehors de son organisation principale (activités associatives, création d’entreprises, projet de recherche, projets d’intérêt général, etc.). Il pourrait s’appliquer aux salariés du secteur privé, aux contractuels de la fonction publique ainsi qu’aux fonctionnaires (toutes fonctions publiques confondues) ;

Les projets en question pourraient inclure :

  • la participation à des projets de création et de développement d’entreprises, de fab labs, de coopératives, etc. ;
  • l’engagement dans une association ;
  • la participation à des activités de recherche librement accessible ;
  • la production de biens communs ;
  • la réalisation de missions de médiation numérique, de solidarité, etc.

Avec un tel mécanisme, toute entreprise ou toute administration contribuerait « par défaut » aux Communs en octroyant du temps aux individus pour qu’ils puissent se consacrer à la production de ressources partagées. On arrive au même résultat que celui visé par les licences à réciprocité, qui comme le dit Michel Bauwens, consiste à faire émerger une « Economie des Communs », c’est-à-dire une économie éthique qui ne serait pas seulement focalisée sur l’accumulation du capital, mais viserait également à la production d’externalités positives.

***

Sans doute cet objectif pourra-t-il être atteint en combinant des mesures réglementaires avec de nouvelles licences, mais aussi des labels ou des monnaies, et d’autres encore à inventer (s’appuyant par exemple sur le protocole Blockchain, plusieurs fois cité également dans le rapport et dont les synergies avec les Communs commencent à apparaître). On peut espérer que le rapport du CNNum aura le mérite d’attirer l’attention sur ces questions et d’inciter davantage de spécialistes, à commencer par des juristes, des économistes et d’autres chercheurs, à s’y intéresser pour être en mesure de passer de la théorie à la pratique.

 

Publié dans Alternatives : Copyleft et Culture Libre, Modèles économiques/Modèles juridiques | Tagué , , , , | 3 commentaires

Yochai Benkler : « Le chemin parcouru par les Communs en vingt ans »

Nous sommes nombreux à avoir été profondément déçus du retrait de l’article 8 du projet de loi numérique, qui aurait introduit dans notre droit pour la première fois une définition positive des biens communs informationnels. On pourrait considérer cette issue comme une défaite cinglante, même si le texte de loi va entrer dans quelques jours en discussion à l’Assemblée et il reste possible que les Communs reviennent en débat à la faveur des amendements parlementaires.

Mais il faut sans doute aussi se réjouir que la notion de Communs ait pu déjà arriver ainsi aux portes de la loi française, alors que son renouveau moderne ne remonte pas à plus de deux décennies. C’est en écoutant une interview récente de l’universitaire américain Yochai Benkler, qui fut un des pionniers de cette redécouverte des Communs dans les années 90, que j’ai réalisé qu’il fallait relativiser l’échec de l’article 8 en replaçant cet épisode dans une perspective plus longue.

Image par Joy. CC-BY. Source : Wikimedia Commons.

Yochai Benkler est connu pour avoir écrit en 2006 l’ouvrage « The Wealth of Networks » (La Richesse des Réseaux), dans lequel il développe la notion de « commons based peer production » (production entre pairs orientée vers les Communs). Il utilise ce concept nouveau à l’époque pour décrire l’émergence dans l’environnement numérique de nouvelles formes de ressources partagées comme les logiciels libres, Wikipédia ou la blogosphère, produites par la collaboration décentralisée d’individus, .

Je vous propose ci-dessous une transcription et une traduction en français des propos tenus par Yochai Benkler à l’occasion de la conférence Un|Commons, qui s’est tenue à Berlin en octobre dernier. Il y explique notamment les liens entre les deux grandes « écoles » des Communs modernes, celle fondée par Elinor Ostrom qui a surtout étudié les communs naturels, et celle qui s’est intéressée aux nouveaux communs globaux qui sont apparus avec Internet et le numérique. A la fin de l’interview, Benkler évoque le chemin parcouru par les Communs depuis 20 ans, avec une note d’espérance quant à la diffusion graduelle de ces idées et leur impact sur les décideurs.

Hier dix associations françaises ont produit une déclaration commune pour inciter les députés à « promouvoir les Communs » dans la loi numérique. Là où il y a encore quelques années seulement, c’était plutôt la « Culture libre » qui rassemblait ces acteurs, c’est à présent la notion de Communs qui semble jouer le rôle de principal catalyseur du rassemblement et de l’action collective. L’histoire qu’esquisse Yochai Benkler ci-dessous n’est assurément pas terminée et le temps viendra où la loi consacrera les Communs pour les protéger et les promouvoir.

***

Pouvez-vous vous présenter et expliquer en quoi vous vous intéressez aux Communs ?

Je m’appelle Yochai Benkler. J’enseigne le droit à la Harvard Law School et je conduis des recherches sur Internet au Berkman Center for Internet & Society. Je travaille sur les Communs depuis le début des années 90, parce que je m’intéressais à la manière dont les règles élémentaires de la propriété et du marché conditionnent la liberté dans nos sociétés. L’idée principale sur laquelle je travaillais au milieu des années 90 était de savoir comment nous pouvons parvenir à construire des Communs, c’est-à-dire des ensembles de ressources qui ne sont possédées par personne et qui ne peuvent servir de fondement au pouvoir de celui qui les possèderait. Cela incluait à l’époque le commun du spectre des fréquences et également bien sûr l’information, la connaissance et la culture, qui permettent l’innovation, la créativité et l’expression des idées.

Les Communs constituent un ensemble de ressources et de pratiques qui permettent à tout le monde, ou du moins à de larges ensembles d’individus, de bénéficier de droits d’usage sans conférer à quiconque un pouvoir asymétique permettant à certains de forcer les autres à faire quelque chose en échange. Le pouvoir asymétrique autour du contrôle des ressources est au coeur de ce qu’est la propriété, et au-delà du marché. Les Communs offrent une alternative importante, car plutôt que de dépendre du pouvoir de certains, ils ouvrent une possibilité de partager, de coopérer, de collaborer avec d’autres personnes autour d’un ensemble de ressources qui sont disponibles pour tous dans des termes symétriques.

Y a-t-il eu une évolution dans la compréhension des Communs depuis cette époque ? 

Dans les années 90, il y avait deux écoles qui se développaient à propos des Communs. L’une est l’école qui est devenue la plus connue, autour d’Elinor Ostrom et de ses travaux, qui s’intéressait à des communautés délimitées coopérant autour de régimes de propriété partagée. Ils ont apporté la preuve que les individus pouvaient arriver à travailler ensemble pour résoudre leurs problèmes, mais il ne s’agissait pas de Communs ouverts à tous sans contrôle.

La seconde école rassemblait des gens comme moi qui travaillaient sur les Communs de l’Internet et s’intéressaient à des ensembles d’infrastructures ouvertes qui permettaient à chacun d’être actifs sur les réseaux de l’économie de l’information, sans être soumis à des entités comme Microsoft, les opérateurs de télécom ou le gouvernement.

Je pense que ce qui s’est produit depuis 20 ans, et en particulier dans les 5 dernières années, c’est que les idées qui constituent la base des Communs sont devenues un nouveau cadre permettant aux gens de développer des stratégies pour limiter l’emprise du capitalisme. Au lieu de n’être qu’une stratégie délimitée visant à préserver un internet libre et ouvert, l’économie en réseau et le partage de la connaissance et de la culture, ce cadre est devenu une critique plus fondamentale des piliers du néo-libéralisme et un canevas pour le développement d’une organisation alternative de la vie économique, moins dépendante des incitations financières et du contrôle et davantage attachée à l’auto-gestion collective, à la participation démocratique et au partage des ressources.

Pouvez-vous définir la production entre pairs orientée vers les Communs (commons based peer production) ?

La production entre pairs orientée vers les Communs correspond à la pratique d’une multitude de personnes qui travaillent ensemble pour résoudre un problème. Quand j’ai commencé à travailler sur cette question en 2000/2001, les travaux qui existaient à  l’époque portaient sur les logiciels libres et open source, en les considérant comme un sujet à part, parce que les logiciels étaient supposés constituer une catégorie spécifique de produits ou parce que la communauté des développeurs était censée former une « tribu » spéciale imprégnée par la culture du don. Ce qui était mal compris, c’est qu’il y avait en réalité quelque chose de plus fondamental dans la manière dont le réseau agissait pour rassembler les individus en leur permettant de collaborer sur la base de motivations plus sociales que mercantiles.

L’idée de la production entre pairs orientée vers les Communs, c’est que si vous avez un capital suffisamment distribué au sein d’un groupe, ici en l’occurrence des ordinateurs, des moyens de communication et du stockage, et que vous pouvez définir des tâches de manière suffisamment modulaire et granulaire, les individus pourront se rassembler et utiliser une partie de leur temps disponible – certains beaucoup, d’autres moins – de façon à être plus efficaces, plus innovants et certainement plus libres par rapport aux contraintes imposées par le marché, pour produire des infrastructures essentielles.

Il pouvait alors s’agir de Wikipédia, que j’ai commencé à étudier alors qu’elle n’avait que six mois d’existence, ou bien des logiciels libres et open source, et ensuite de toutes les ressources produites comme des Communs entre pairs. Ce processus combine en réalité de la production par des individus isolés et de la production par des groupes. La création de Communs peut être le fait d’individus isolés et elle est déjà importante à ce stade, parce qu’elle aboutit à la production de ressources qui n’engendrent pas de moyens de contrôle ou de centralisation. La production entre pairs concerne en revanche des ensembles importants de personnes collaborant pour produire des choses qu’un individu seul ne pourrait atteindre. Aucun individu n’aurait pu écrire Wikipédia, mais il existe des milliers de projets de logiciels libres portés par des auteurs uniques, qui élargissent à leur niveau les libertés et contribuent aux Communs, mais sans production entre pairs. Wikipedia, Apache ou GNU/Linux sont des systèmes de Communs produits entre pairs, qui sont créés à partir de multiples contributions. La production entre pairs montre comment la création de Communs peut passer à l’échelle pour donner naissance à des infrastructures massives.

Plus tard, je me suis aussi intéressé à la manière dont les individus pouvaient aussi partager des ressources matérielles. A l’époque, il s’agissait d’ordinateurs, de moyens de communication ou de stockage, des trajets en voiture (qui n’étaient pas alors comme maintenant coordonnés par le biais du réseau). L’idée était que les gens ne pourraient pas uniquement mutualiser leurs ressources intellectuelles, mais aussi leurs ressources matérielles pour créer des plateformes offrant des alternatives aux systèmes fondés sur la propriété.

Pensez-vous qu’il y ait aujourd’hui une large compréhension par le grand public de ce que sont les Communs ?

Non, je ne pense pas qu’une telle compréhension existe encore. Mais il me semble qu’il faut voir les choses avec un peu de recul et pas seulement à un instant t. Il y a 20 ans, quand j’ai commencé à travailler sur les Communs, il s’agissait vraiment d’une idée marginale et un peu folle. Parmi l’élite, les Communs n’étaient envisagés que sous l’angle de la fameuse « tragédie ». Elinor Ostrom et les travaux de son école ont été absolument essentiels pour renverser cette perspective, mais ils avaient des implications limitées pour l’économie de marché par rapport aux analyses que nous avons développées à propos d’Internet. Ses travaux portaient sur des objets comme des pâturages ou des systèmes d’irrigation s’inscrivant dans des pratiques anciennes et stables de petites communautés installées dans des zones périphériques de l’économie.

Ce que nous avons montré avec Internet, c’est que les Communs étaient au contraire au centre de cette nouvelle économie, mais il a fallu vraiment plus d’une décennie  pour arriver à initier une discussion sur la préservation, la durabilité et les bénéfices engendrés par les Communs. En 1996, quand j’ai commencé à parler du spectre des fréquences comme d’un Commun, les responsables économiques répondaient qu’il s’agissait d’une idiotie. Il a fallu plus de 15 ans pour que le gouvernement américain envisage le spectre ou le WiFi comme un Commun à travers la promotion de standards ouverts. C’est le temps qu’il a fallu pour arriver à expliquer à des non-spécialistes l’importance des Communs.

Un des choses que je trouve les plus enthousiasmantes, c’est de voir – tout particulièrement en Europe – que l’usage du mot « Commun » est plus répandu et que les Commons commencent à être utilisés comme un étendard pour fédérer un ensemble de convictions qui rejettent les excès du néo-libéralisme poussé par les USA et la Grande-Bretagne, la dérégulation qui est impulsée au niveau de l’Union européenne ou les principes du consensus de Washington qui a défini l’agenda du développement. Nous voyons aujourd’hui les Communs sortir du champ du numérique – et sans doute davantage en Europe qu’aux Etats-Unis – pour devenir un cadre général qui nous rappelle des choses très simples.

Les Communs nous disent que nous pouvons travailler ensemble, que nous pouvons coopérer de manière durable pour produire des choses collectivement, que tout ne doit pas nécessairement passer par des rapports de propriété, parce que nous avons une responsabilité partagée les uns envers les autres, et nous ne pouvons pas séparer hermétiquement la production économique de sa dimension sociale. On ne peut pas juste dire, c’est du business et ne pas envisager les responsabilités sociales. La prise en compte du social est au coeur d’une production durable et du bien-être global.

Ce sont les idées de base que je commence à voir émerger autour des Communs et heureusement, nous verrons sans doute dans la prochaine décennie ces principes sortir de la sphère des activistes qui les soutiennent actuellement pour aller vers une compréhension mieux partagée de ces enjeux, au moins en Europe et je l’espère, plus largement dans le monde.

Publié dans A propos des biens communs | Tagué , , | Laisser un commentaire

Quelle réalité pour le principe d’Open Data « par défaut » de la loi Lemaire ?

C’est l’un des points sur lesquels la secrétaire d’Etat Axelle Lemaire avait le plus insisté lors du processus d’élaboration de la Loi numérique : la volonté d’instaurer en France un « principe d’Open Data par défaut« .

16323834751_0b990c39a9_b

A quelques semaines du début des débats à l’Assemblée nationale sur le texte, Next INpact a consacré hier un article à cette question où le journaliste Xavier Berne examine les dispositions relatives à « l’ouverture par défaut des données publiques« . On peut y lire notamment ceci :

Le Premier ministre s’y était engagé en juin dernier : inscrire dans la loi « le principe d’Open Data par défaut ». Aujourd’hui, le citoyen qui souhaite obtenir un document public (rapport, délibération, étude, correspondance, statistiques…) doit généralement en faire la demande auprès de l’administration. L’objectif du projet de loi « pour une République numérique » est donc de renverser ce paradigme, pour que l’ouverture devienne la règle et la fermeture l’exception.

Concrètement, cela signifie que toutes les données publiques détenues par les ministères ou certains établissements publics devraient être systématiquement mises en ligne par les pouvoirs publics – hormis certains documents relevant par exemple du secret des affaires.

Le problème, c’est que cette affirmation ne se révèle que partiellement vraie à la lecture attentive du texte.

Rappel : ce que l’Open Data veut dire… 

Pour comprendre pourquoi, il faut revenir à la définition de ce qu’est l’Open Data. On peut pour cela reprendre la fameuse « échelle en 5 étoiles » proposée par Tim Berners-Lee :

5-stars

On voit au premier niveau que pour parler d’Open Data au sens propre, les données doivent être publiées en ligne sous une licence ouverte garantissant la libre réutilisation.

C’est pour ainsi dire l’exigence première en matière d’Open Data, les niveaux supérieurs renvoyant davantage à des degrés de qualité des données (données structurées, format ouvert) ou à leur insertion dans le web de données ou Linked Data.

Mise en ligne à géométrie variable

Or c’est sur cette question basique de la mise en ligne des données que la loi Lemaire comporte encore une faiblesse relativement importante. En l’état, l’article 4 de la loi impose aux administrations de plus de 250 agents ou salariés de « rendre publics en ligne, sous un format ouvert aisément réutilisables » quatre type d’éléments (résumés ci-dessous par Xavier Berne) :

  • Les bases de données (et leur contenu).
  • Les documents communiqués à des particuliers suite à des procédures « CADA », ainsi que leurs « mises à jour ».
  • Les « données dont l’administration, qui les détient, estime que leur publication présente un intérêt économique, social ou environnemental ».
  • Les « principaux documents » figurant dans le répertoire d’informations publiques prévu par l’article 17 de la loi CADA.

Certes, l’inclusion des bases de données dans le périmètre de cet article constitue une grande avancée par rapport à la situation légale préexistante (surtout que le projet de loi précise plus loin à l’article 7 que les administrations ne pourront plus opposer leur droit de producteur de base de données à une demande de réutilisation, ce qui s’est déjà produit par le passé). Les bases de données produites par les administrations devront en principe être accessibles en ligne et on peut bien parler à leur sujet d’Open Data « par défaut ».

Par contre, pour ce qui concerne les documents administratifs, qui sont eux-aussi susceptibles de contenir des informations publiques, l’effet de la loi risque d’être plus limité. En effet, les administrations ne sont tenues de mettre en ligne de manière spontanée que les documents « communiqués à des particuliers suite à une procédure CADA« .

On ne sort donc pas vraiment à leur sujet de la situation préexistante, dans laquelle il fallait que les citoyens aillent demander à l’administration communication des données qu’ils souhaitaient réutiliser.

Logique persistante d’Open Data « à la demande » 

Cette lecture est confirmée par ce billet publié à la mi-décembre sur le blog d’Etalab qui analyse les conséquences de la loi Lemaire, dans lequel on peut lire ceci :

  • l’open data se développera sur la demande des citoyens : ainsi, les administrations seront tenues de diffuser en ligne les documents communicables à tous qui auront fait l’objet d’une demande de communication, ainsi que les mises à jour de ces documents;

  • par ailleurs, les administrations seront tenues de publier spontanément en ligne les documents qui figurent dans leurs répertoires d’informations publiques, ainsi que leurs bases de données. Elles diffuseront en outre les données présentant un intérêt économique, social ou environnemental.

Le premier paragraphe montre bien qu’on reste – du moins pour les documents contenant des informations publiques – dans une logique d’Open Data « à la demande », sans aller vers un passage à une logique d’offre systématique par l’administration.

RIP à la carte (et à trous)

Le projet de loi numérique ajoute cependant que les administrations devront aussi mettre en ligne les « principaux documents » figurant dans le répertoire d’informations publiques (RIP) qu’elles doivent tenir en vertu de l’article 17 de la loi CADA (dont voici le texte) :

Les administrations qui produisent ou détiennent des informations publiques tiennent à la disposition des usagers un répertoire des principaux documents dans lesquels ces informations figurent.

Les conditions de réutilisation des informations publiques ainsi que, le cas échéant, le montant des redevances et les bases de calcul retenues pour la fixation de ce montant sont rendus publics, dans un standard ouvert, par les administrations mentionnées à l’article 1er qui les ont produites ou reçues.

D’après la rédaction de cet article 17, la tenue du RIP est une obligation pour les administrations, ce qui devrait garantir en principe la mise en ligne de nombreux documents. Pourtant, si la plupart des Ministères ont établi un RIP, je ne suis pas certain que ce soit encore le cas pour tous. Par ailleurs, la majorité des établissements publics n’ont pas encore mis en place de tels répertoires et c’est pourtant à ce niveau que se situe à présent l’essentiel des données restant à libérer en France. En l’absence de répertoire, l’effet de la loi Lemaire risque d’être limité pour beaucoup d’administrations.

Quand bien même ce serait le cas, la loi ne fait obligation de faire figurer dans le RIP que les « principaux documents » produits par les administrations. Et la loi Lemaire indique de son côté que l’obligation de mise en ligne ne porte que sur les « principaux documents » figurant dans le RIP. Donc en définitive, la mise en ligne ne portera que sur les « principaux documents » parmi « les « principaux documents » produits par les administrations…

Comment arriver à un véritable Open Data « par défaut » ? 

On mesure déjà qu’on est loin en réalité d’un véritable Open Data « par défaut » avec mise en ligne spontanée des informations par l’administration et une large part de sélectivité risque de subsister. Cet état de fait est confirmé par le texte de l’article 4 qui ajoute que les administrations devront aussi mettre en ligne  les « données dont l’administration, qui les détient, estime que leur publication présente un intérêt économique, social ou environnemental ».

On reste encore ici dans une pure faculté discrétionnaire étant donné que l’évaluation de l’intérêt de la publication reste soumis à l’appréciation de l’administration concernée. Est-ce que par exemple les documents relatifs au budget ou au personnel d’un établissement public doivent ou non aller en ligne ? Ce sera aux instances dirigeantes d’en décider, comme c’était déjà le cas auparavant, alors qu’on pourrait penser qu’il s’agit au contraire des premières données qui devraient passer en Open Data.

En réalité pour imposer un véritable « Open Data par défaut », il aurait fallu que l’article 4 de la loi indique que l’obligation de mise en ligne pro-active concerne non seulement les documents « communiqués à des particuliers suite à une procédure CADA« , mais aussi tous ceux qui sont « communicables » en vertu de la loi du 17 juillet 1978.

On aurait eu alors un effet de levier très puissant et on serait sorti une fois pour toute de la logique insatisfaisante d’un Open Data « à la demande ».

Et les collectivités locales ? 

De manière paradoxale, les collectivités locales, qui sont pourtant explicitement exclues du champ de l’article 4 de la loi numérique, risquent d’être soumises à une obligation beaucoup plus forte de mise en ligne spontanée des documents qu’elles produisent.

L’article 106 de la Loi NOTRe adoptée cet été indique en effet que :

Les collectivités territoriales de plus de 3 500 habitants ainsi que les établissements publics de coopération intercommunale à fiscalité propre auxquels elles appartiennent rendent accessibles en ligne les informations publiques mentionnées à l’article 10 de la loi du 17 juillet 1978 […], lorsque ces informations se rapportent à leur territoire et sont disponibles sous forme électronique.

Contrairement aux administrations centrales et aux établissements publics rattachés à l’État, les collectivités locales de plus de 3500 habitants seront donc bien dans l’obligation de mettre en ligne toutes les informations publiques qu’elles produisent, ce qui implique nécessairement qu’elles publient aussi sur Internet l’intégralité des documents qui contiennent de telles informations.

Par contre, l’obligation de la loi NOTRe ne porte que sur l’accès en ligne et pas sur la réutilisation en tant que telle. On est ici davantage dans une logique d’Open Access que dans de l’Open Data au sens propre, les collectivités gardant comme aujourd’hui la faculté de décider de placer ou non leurs données sous licence ouverte.

Au final, on risque d’avoir au niveau de l’État une extension du principe de réutilisation, mais sans mise en ligne spontanée, tandis qu’au niveau des collectivités locales, on risque d’avoir une extension de la mise en ligne sans possibilité de réutilisation…

***

On voit donc qu’en définitive, ni au niveau de l’État, ni au niveau des collectivités locales, les changements législatifs récents ou à venir ne vont parvenir à satisfaire complètement cet objectif d’instauration d’un « Open Data par défaut ».

Pour ce qui concerne la loi Lemaire cependant, il serait assez simple pour les parlementaires qui vont bientôt examiner le texte de corriger ce défaut : il suffirait comme je l’ai dit plus haut d’amender l’article 4 du projet de loi pour faire en sorte que l’obligation de mise en ligne concerne tous les documents communicables au sens de la loi CADA et pas les documents effectivement communiqués.

Un simple mot à changer : c’est la condition pour éviter un Open Data « en trompe-l’oeil » que la loi risque de produire autrement…

 

 

 

Publié dans Données publiques et Open Data | Tagué , , , , , | 8 commentaires

Libérer Anne Frank pour le jour du domaine public

Ce 1er janvier est un jour particulier, à double titre. Comme chaque année, le premier de l’an correspond au Jour du domaine public, celui où de nouvelles oeuvres deviennent librement utilisables au terme des 70 ans de protection du droit d’auteur. Cette année, cet événement a une signification supplémentaire, à cause de la polémique qui entoure le cas du Journal d’Anne Frank dont les sites d’information se sont déjà largement fait l’écho ces derniers jours.

Image par Rodringo Galindez. CC-BY. Source : Wikimedia Commons.

En signe de solidarité avec la députée Isabelle Attard et Olivier Ertzscheid, je publie également sur ce blog le texte original en néerlandais du Journal :

Il est également disponible sur Wikisource et sur Internet Archive.

Je colle aussi ci-dessous une partie de la fiche que nous avons écrite au sein du collectif SavoirsCom1 pour l’entrée sur Anne Frank dans le Calendrier de l’Avent du Domaine Public. Ce texte permet rapidement de mieux comprendre l’arrière-plan juridique de cette affaire :

Le journal d’Anne Frank fait partie de ces livres à part qui marquent profondément le lecteur.

Ce texte retrace la vie de la jeune Anne Frank, de son appartement secret à Amsterdam au camp de Bergen Belsen où elle trouva la mort à l’âge de 15 ans en 1945.

Si l’on suit la logique du droit d’auteur, le principe veut que l’œuvre d’un auteur entre dans le domaine public 70 ans après sa mort. Cela devrait donc être le cas pour Le Journal d’Anne Frank le premier janvier 2016.

Mais l’histoire risque d’être beaucoup plus compliquée.

Les droits d’auteurs sont gérés par le Fonds Anne Franck, créée en 1963 par le père d’Anne, Otto Frank. Cette institution s’est donnée la noble mission d’utiliser les bénéfices générés par l’exploitation des droits pour honorer la mémoire d’Anne Frank et rappeler les persécutions subies par les juifs pendant la Seconde Guerre mondiale.

Cependant le Fonds fait à présent valoir qu’Otto Frank est co-auteur du livre de sa fille. En effet c’est lui qui a décidé de publier le journal en 1947 en supprimant certains détails trop personnels, notamment ceux où Anne évoque son éveil à la sexualité. Otto Frank étant décédé en 1980 et la durée de protection se calculant à partir de la date de décès du dernier auteur dans le cas des œuvres de collaboration, Le Journal d’Anne Frank devrait entrer dans le domaine public 70 ans après la date de 1980, soit le premier janvier 2051.

Le Journal d’Anne Frank est-il une oeuvre publiée à titre posthume et Otto Frank peut-il réellement être considéré comme un co-auteur au sens propre du terme ? Ou bien s’agit-il d’un procédé employé par le Fonds pour prolonger artificiellement les droits d’auteurs ? La question mérite d’être posée et seul un juge pourrait apporter une réponse définitive.

La question des droits ne se pose pas uniquement pour la version de 1947 établie par les soins d’Otto Frank. Une version intégrale du Journal a en effet été publiée en 1986, qui devrait donc aussi entrer dans le domaine public au premier janvier 2016. Mais la loi en vigueur à l’époque prévoyait une durée de protection pour les oeuvres posthumes de 50 ans après la date de publication. Une directive européenne est intervenue en 1993 pour harmoniser la durée des droits à 70 ans après la mort de l’auteur, mais il n’est pas certain qu’elle prévale sur la règle antérieure.

[…]

En dépit des incertitudes juridiques, le collectif SavoirsCom1 a choisi de faire figurer Anne Frank parmi les auteurs dont les oeuvres s’élèveront dans le domaine public en 2016. Le cas du Journal illustre les complications ubuesques qui affectent le domaine public et qui fragilisent son existence. On doit aussi rappeler que si l’oeuvre d’Anne Frank reste sous droits l’an prochain, il n’en sera pas de même pour celle d’Adolf Hitler, dont nous avons parlé par ailleurs dans ce Calendrier.

Ce paradoxe suffit à lui seul à illustrer le profond malaise qui existe à propos d’une oeuvre comme le Journal d’Anne Frank, dont la diffusion la plus large paraît plus que jamais nécessaire.

Pour terminer ce billet, je voudrais ajouter que le cas d’Anne Frank est certes hautement symbolique, mais il ne constitue en réalité que la partie émergée de l’iceberg. Cette année encore en préparant le Calendrier de l’Avent du domaine public, nous nous sommes rendus compte des nombreuses fragilités et incertitudes qui affectent le domaine public. Ces difficultés résultent de la durée de protection variable selon les pays, de l’absence d’harmonisation au niveau européen ou d’exceptions qui persistent dans le Code de propriété intellectuelle en France.

Plusieurs auteurs se retrouvent ainsi dans des situations compliquées comme Maurice Ravel dont seulement une partie des oeuvres entrera effectivement dans le domaine public en 2016 ; Béla Bartok dont les compositions vont devenir librement réutilisables partout dans le monde… sauf en France ou Robert Desnos pour lequel il faudra encore attendre 30 ans pour parler de domaine public parce qu’il est « Mort pour la France ».

Il faut espérer que l’affaire Anne Frank sera l’occasion d’une prise de conscience de ces difficultés et qu’elle incitera à agir pour les régler en clarifiant au maximum le statut des oeuvres du domaine public afin de rendre réellement effectifs les droits positifs sur la culture qu’il favorise.

Publié dans Domaine public, patrimoine commun | Tagué , , , | 3 commentaires

Pourquoi Béla Bartok entrera dans le domaine public en 2016 partout dans le monde… sauf en France !

SavoirsCom1 et Romaine Lubrique proposent une nouvelle fois cette année le Calendrier de l’Avent du Domaine Public, qui signalera chaque jour du mois de décembre un nouvel auteur dont les oeuvres entreront dans le domaine public en 2016.

L’année dernière déjà, cet exercice avait été l’occasion de mettre en lumière certaines aberrations découlant de l’état de la loi française. Antoine de Saint-Exupéry par exemple est entré dans le domaine public partout dans le monde en 2015… sauf en France ! La raison résidait dans la durée de 30 ans supplémentaires attribuée par la loi aux auteurs « Morts pour la France ». Cette situation avait conduit à la conséquence ubuesque que le Petit Prince a été mis en ligne dès le 1er janvier 2015 sur un site belge, portant une mention spéciale indiquant aux internautes français de passer leur chemin…

Cette année encore, nous avons été obligés d’écarter certains des auteurs pourtant bien morts depuis plus de 70 ans et l’un d’eux est peut-être dans une situation plus absurde que celle de Saint-Exupéry (si, c’est possible…).  Il s’agit du compositeur hongrois Béla Bartok, qui entrera lui aussi dans le domaine public en 2016 partout dans le monde, sauf en France. La raison de cette incongruité est cependant un peu plus difficile à comprendre (accrochez-vous !).
Lire la suite

Publié dans Domaine public, patrimoine commun | Tagué , , , , , | 2 commentaires

Le jour où l’espace a cessé d’être un bien commun…

Plusieurs sites de presse comme Rue89 ou Slate se sont faits aujourd’hui l’écho d’une nouvelle que j’ai trouvée particulièrement glaçante : Barack Obama a promulgué la semaine dernière une loi (HR 2262) qui va autoriser des compagnies privées à s’approprier les ressources naturelles figurant dans l’espace extra-atmosphérique.

La portée de ce texte est potentiellement énorme et peut-être que dans un siècle, on citera encore la date de son adoption comme un des événements majeurs de l’histoire de l’Humanité. Car on peut considérer ce 25 novembre 2015 comme le jour où l’espace cessa d’être un bien commun, par l’effet d’une décision unilatérale des Etats-Unis d’Amérique.

rocky_ring_of_debris_around_vega

Image par NASA/JPL-Caltech. Domaine Public. Source : Wikimedia Commons

Lire la suite

Publié dans A propos des biens communs | Tagué , , , , , | 14 commentaires

Les dérives sécuritaires s’attaquent au principe même des Communs : la liberté !

Je republie ici cette déclaration du collectif SavoirsCom1, qui dénonce la spirale sécuritaire dans laquelle nous sommes en train de nous enfoncer, suite aux attentats du 13 novembre dernier. Nous avons tenu à réagir pour rappeler le lien indéfectible qui existe entre les Communs et les libertés fondamentales. Je vous invite également à aller lire l’analyse dressée par la Quadrature du Net à propos de la loi sur l’état d’urgence examinée hier à l’Assemblée nationale.

***

Le collectif SavoirsCom1 exprime ses plus vives inquiétudes en réaction à la pente sécuritaire que le gouvernement et la grande majorité de nos représentants sont en train de suivre, suite aux attentats survenus le 13 novembre dernier.

L’adoption à une écrasante majorité par l’Assemblée nationale du projet de loi prolongeant l’état d’urgence pour une période de 3 mois en est une première manifestation. Mais le pire est sans doute à venir, notamment dans le cadre de la réforme de la Constitution annoncée par le Président de la République.

Image par Art_inthecity. CC-BY. Source : Flickr.

En tant que collectif dédié à la promotion des communs de la connaissance, nous tenons aujourd’hui à dénoncer cette spirale sécuritaire, parce qu’il y existe un lien consubstantiel entre les Communs et les libertés fondamentales.

Depuis la création du collectif SavoirsCom1 en 2012, nous avons œuvré pour la défense des Communs, parce que nous avons la conviction qu’ils sont une condition de l’exercice concret des droits de l’homme, notamment par l’accès à l’information, à la culture et à la connaissance. Et, s’il n’y a pas de libertés effectives sans Communs, il n’y a pas non plus de Communs possibles sans garantie des libertés.

Ce rapport étroit entre Communs et libertés remonte à leurs origines. C’était le sens de la Magna Carta, la première grande Charte les libertés du peuple anglais adoptée au XIIIe siècle, qui a servi de matrice aux déclarations des droits de l’homme qui ont suivi dans l’histoire. Ce texte consacrait pour la première fois des droits opposables au Souverain, pour garantir la sûreté des individus contre l’arbitraire et leur offrir des recours en justice. La Magna Carta a été complétée ensuite par la Charte des Forêts, premier instrument juridique à reconnaître et protéger les droits d’usage liés aux Communs. Ces deux textes fondamentaux constituent en réalité les deux faces inséparables d’une même pièce.

Pour créer et administrer des communs, les groupes ont besoin de pouvoir se former et exercer leur liberté d’opinion, d’expression, de réunion, de déplacement et de manifestation. C’est cette possibilité d’agir collectivement que l’installation d’un état d’exception permanent va gravement affecter. Or, comme l’ont montré Pierre Dardot et Christian Laval dans leur ouvrage « Commun », la capacité d’action collective des groupes constitue le « principe politique du Commun » :

Il faut affirmer que c’est seulement l’activité pratique des hommes qui peut rendre des choses communes.

Notre collectif a demandé à de nombreuses reprises que l’État se fasse le « garant des communs », notamment par des politiques publiques permettant de les protéger contre les enclosures et de favoriser leur développement. Le premier devoir de l’État est par ailleurs de garantir les libertés fondamentales. Au lieu de cela, il se dote d’un arsenal législatif qui vise à en limiter l’exercice au nom de la sécurité. La criminalisation d’un grand nombre d’usages en ligne nous inquiète particulièrement, car elle dénie la capacité d’Internet à servir de support à l’action collective.

Les attentats brutaux qui ont frappé le pays sont eux-mêmes une attaque directe des libertés auxquelles nous proclamons ici notre attachement. La lutte contre le terrorisme ne doit pas produire le même effet en compromettant les droits les plus fondamentaux et en escamotant le nécessaire débat sur les causes de ces atrocités et les moyens d’y faire face.

Pas de libertés sans communs, pas de communs sans libertés. Nous appelons tous les acteurs partageant cette conviction à manifester par tous les moyens leur opposition la plus ferme à la dérive sécuritaire à laquelle nous assistons, et à dénoncer le discours unanimiste dont elle se drape.

Publié dans A propos des biens communs | Tagué , , , , | 4 commentaires

Tout ce que vous pensiez qu’il est interdit de faire en bibliothèque… mais qui en réalité est permis !

J’ai eu l’occasion d’intervenir récemment devant des collègues du SCD de Lyon I pour une formation sur l’application du droit d’auteur en bibliothèque. Mais on m’avait demandé d’aborder le sujet d’une manière originale, en insistant pour une fois davantage sur ce qu’il est permis de faire plutôt que sur ce qui est interdit.

« Tout ce que vous pensez qu’il est interdit de faire en bibliothèque en raison de la propriété intellectuelle… mais qui en réalité est permis ! »  : voilà la thématique que je devais traiter et il m’a rapidement semblé que la meilleure manière de le faire était de réaliser une carte heuristique répertorier et classer les usages autorisés des oeuvres en bibliothèque (cliquez sur l’image ci-dessous pour accéder à cette carte).

carte

Les différents types d’usages sont inventoriés à partir de la liste suivante :

  • Reproduire
  • Diffuser, communiquer au public
  • Mettre à disposition pour consultation, prêter
  • Usages en ligne
  • Produire des contenus
  • Ressources sous licences libres

A chaque usage est associée une pastille de couleur indiquant si la bibliothèque dispose d’une autorisation (et sur la base de quel fondement juridique) :

légende

La pastille est verte pour les usage couverts par une exception ou une limitation au droit d’auteur, ce qui dispense la bibliothèque d’avoir à demander une autorisation préalable aux titulaires de droits. J’ai indiqué en jaune les hypothèses où ont été mis en place des systèmes de licences légales ou de gestion collective obligatoire qui facilitent les usages, généralement en faisant intervenir une société de gestion collective. Enfin, la couleur rouge signale les cas les plus contraignants où  la bibliothèque va devoir recueillir le consentement du ou des titulaires de droits et le formaliser par le biais d’un contrat.

J’ai ajouté également une catégorie « zone grise », signalée par une pastille bleue, pour les usages qui sont manifestement illégaux, mais pour lesquels une forme de tolérance de fait s’est installée, les ayants droit n’attaquant pas les bibliothèques en justice (on pense par exemple au prêt de CDs qui n’est couvert par aucun mécanisme légal, mais il existe un certain nombres d’autres hypothèses similaires).

Un symbole « dollars ($) » signale par ailleurs si les usages font  l’objet, d’une manière ou d’une autre, d’une rémunération ou d’une compensation financière versée aux titulaires de droits.

Au final, cet exercice s’est avéré particulièrement intéressant. On constate par exemple que c’est dans le champ de la reproduction que les bibliothèques disposent des marges de manoeuvre les plus étendues, du fait qu’elles bénéficient d’un nombre relativement important d’exceptions au droit d’auteur introduites par le législateur. Pour ce qui concerne le prêt d’oeuvres, les possibilités sont bien plus réduites, car la licence légale instaurée en 2003 se limite au seul domaine du livre papier et ne couvre pas les autres types de supports. Pour tous les autres types d’oeuvres les bibliothèques sont tributaires de la mise en place d’autorisations contractuelles, qui font encore parfois défaut. La diffusion des oeuvres est clairement le secteur dans lequel les marges de manoeuvre sont les plus réduites et la situation est encore plus fermée pour tout ce qui touche au numérique et à Internet.

J’ai ajouté des liens hypertexte pour renvoyer au bout de chaque branche de la carte vers des textes de référence. Si vous pensez à des hypothèses que je n’ai pas envisagées, n’hésitez pas à me les signaler en commentaire à ce billet et je les ajouterai dans la carte. J’ai placé ce document sous licence Creative Commons BY et il est donc librement téléchargeable, rediffusable et modifiable par ceux qui le souhaiteraient.

PS : la formation a été filmée et j’ajouterai à ce billet la vidéo lorsqu’elle sera disponible.

Publié dans Bibliothèques, musées et autres établissements culturels | Tagué , , , , | 6 commentaires

Trois ans après la mort d’Aaron Swartz, où en sommes-nous ?

Vendredi dernier, j’ai eu le grand plaisir d’intervenir dans le cadre du Festival des Libertés, organisé à Bruxelles. L’association Bruxelles Laïque m’a demandé de faire une présentation à la suite de la projection du documentaire « The Internet’s Own Boy » consacré à la vie et à la mort de l’activiste Aaron Swartz.

Près de trois ans après cette disparition tragique, cette conférence m’a donné l’occasion de faire un point sur les grands sujets en lien avec la trajectoire d’Aaron Swartz : l’évolution des lois sur les crimes informatiques, l’accès aux articles scientifiques et aux textes de loi, la réforme du droit d’auteur et la progression de nouvelles menaces pour les libertés sur Internet.

Voici ci-dessous le support que j’ai utilisé (sous licence Creative Commons BY) qui revient en détail sur ces thématiques :

En fin de semaine dernière, un événement s’est produit qui a montré que le combat d’Aaron Swartz pour la diffusion de la connaissance gardait toute son acuité. La Renaissance Society of America s’est vue signifier par la société américaine ProQuest que l’accès à la base Early English Books Online (EEBO) lui serait coupé au 31 octobre. Proquest se plaignait visiblement de la trop forte utilisation de la base par les membres de la société, au point d’envisager en couper l’accès. Pour mémoire, la base EEBO est constituée de reproductions d’ouvrages anciens, issues des collections de bibliothèques-partenaires avec qui ProQuest conclut des contrats de numérisation avec clause d’exclusivité.

Ce comportement a soulevé une vague de protestations chez les chercheurs, qui a rapidement dépassé la Renaissance Society of America pour exploser sur Twitter, où de nombreux universitaires ont dénoncé ces pratiques en utilisant le hashtag #ProQuestGate. L’une d’entre eux, Jessica Ottis (@jotis13) , a même appelé à lancer une action FrEEBO (« Free English Ebooks Online ») en mettant en ligne les scans téléchargés à partir des bibliothèques afin de « libérer » cette base.

Nombreux sont ceux qui ont fait le lien entre cette proposition et ce qu’avait fait Aaron Swartz à propos de la base JSTOR, en téléchargeant massivement son contenu depuis la bibliothèque du MIT ; action pour laquelle il avait été poursuivi avec acharnement par le FBI et la justice fédérale jusqu’à le pousser au suicide. Pour sortir de cette spirale, John Overholt, un bibliothécaire américain, propose de son côté que les livres constituant la base EEBO soient numérisés à nouveau par les bibliothèques publiques pour être mis en ligne en accès gratuit pour tous. Il appelle à un sursaut collectif pour que ce projet soit mené de manière collaborative.

Face au tollé soulevé par son comportement, ProQuest a finalement choisi de battre en retraite en annonçant que la Renaissance Society of America pourrait conserver son accès à la base. La compagnie essaie de faire croire qu’un simple « malentendu » expliquerait toute cette affaire, sans parvenir à convaincre grand monde. Son recul calmera sans doute un temps les critiques, mais il laisse entier la question du modèle délétère sur lequel repose son activité.

Rappelons que la BnF a choisi en janvier 2013 – juste après la mort d’Aaron Swartz – de faire affaire avec la société ProQuest  pour la numérisation de collections de livres anciens, en lui accordant une exclusivité de 10 ans, malgré les protestions de nombreuses associations lui reprochant de porter atteinte au domaine public et aux droits du public.

Plus grave encore, la loi Valter qui va transposer en France la nouvelle directive sur la réutilisation des informations publiques, s’apprête à graver dans le marbre la possibilité pour les établissements culturels de numériser leurs collections dans le cadre de partenariats public-privé, en octroyant des exclusivités pouvant aller jusqu’à 15 années.

Autant dire que l’enclosure et la privatisation de la connaissance dénoncées par Aaron Swartz ont hélas encore de beaux jours devant elles, mais cela ne fait que renforcer l’importance de garder à l’esprit les combats qu’il a menés.

 

 

 

Publié dans Penser le droit d'auteur autrement ... | Tagué , , | 1 commentaire

Comment l’affaire Google Books se termine en victoire pour le Text Mining

Google a lancé son projet géant de numérisation des livres en 2004 et dès l’année suivante, un ensemble d’auteurs et d’éditeurs ont attaqué le moteur de recherche devant les tribunaux pour violation du droit d’auteur. Le procès Google Books est certainement l’un des plus importants de ce  début du 21ème siècle, car il va redéfinir profondément les équilibres en matière d’adaptation du droit d’auteur à l’environnement numérique. Dix ans après le début de l’affaire, une Cour d’appel américaine a finalement donné raison à Google en lui reconnaissant la semaine dernière le bénéfice du fair use (usage équitable). Elle confirme la décision rendue en  2013 par le juge Denny Chin et elle pourrait bien marquer le point final de la procédure, même si les auteurs encore en litige face à Google agitent à présent la menace de saisir la Cour suprême.

J’ai déjà beaucoup écrit sur S.I.Lex à propos de cette affaire Google Books (peut-être plus d’ailleurs que sur aucun autre sujet…) en m’efforçant de couvrir ses différentes phases, aussi bien aux Etats-Unis qu’en France. Ce qui me frappe à la lecture de ce nouveau jugement, c’est le déplacement graduel des enjeux sous-jacents qui s’est opéré au fil du temps. En 2005, la question principale portait sur la réutilisation de contenus protégés (la numérisation, puis la revente de livres) ; aujourd’hui, le vrai problème concerne les données contenues dans les ouvrages et l’usage qui peut en être fait. Le procès Google Books rejoint finalement la problématique du Text et Data Mining (fouille de textes et de données), dont on parle aussi beaucoup en ce moment au niveau européen et en France.

La décision Google Books va constituer un formidable vecteur pour les pratiques d’exploration de textes. Mais ces marges de manoeuvre ne seront ouvertes qu’aux Etats-Unis seulement, en creusant au passage encore plus l’écart avec l’Europe en la matière…

Le glissement des contenus aux données

C’est essentiellement à partir de cette question de l’usage des données contenues dans les livres que les juges d’appel ont accordé le bénéfice du fair use à Google, en considérant que le service qu’il offrait à ses utilisateurs était susceptible d’apporter un bénéfice à la société en termes d’accès à la connaissance, justifiant que l’on écarte l’application des droits exclusifs des auteurs.

Mais ce faisant, ce jugement a conjuré une des grandes craintes que l’on pouvait avoir à propos de cette affaire Google Books : il n’a pas accordé une sorte de privilège exclusif sur cette activité au moteur de recherche, bien au contraire. La firme de Mountain View ne sera en effet pas la seule dorénavant aux Etats-Unis à pouvoir numériser des livres protégés pour fournir des services de recherche et de d’exploration de données. Grâce au fair use, cette même faculté a été ouverte à tous ses concurrents commerciaux, aussi bien qu’aux bibliothèques publiques et aux chercheurs académiques. L’issue de l’affaire Google Books va donc créer aux Etats-Unis un véritable écosystème ouvert en faveur de l’exploration de textes, qui libérera le potentiel offert par ces nouvelles technologies d’analyse computationnelle, sans en réserver les bénéfices à un seul acteur.

La situation outre-Atlantique offre un contraste saisissant avec l’Union européenne, où mis à part l’Angleterre qui a introduit en 2014 une exception en faveur du Text Mining à des fins de recherche, le reste de la zone se débat encore avec la difficulté à réformer le cadre du droit d’auteur. C’est particulièrement vrai pour la France, où la conception « propriétariste » étroite du droit d’auteur qui constitue l’idéologie dominante bloque pour l’instant toute possibilité d’évolution dans le sens des usages.

L’intérêt du public avant tout

L’un des aspects les plus intéressants de cette décision d’appel, c’est d’avoir offert aux trois juges qui composaient le tribunal l’opportunité de rappeler la philosophie générale de la loi sur le droit d’auteur aux Etats-Unis. Ils expliquent notamment que le monopole temporaire reconnu légalement aux auteurs n’a été instauré que pour servir une cause plus élevée de diffusion de la connaissance dans un but d’intérêt général :

Le but ultime du droit d’auteur est de favoriser la progression du savoir et de la connaissance, ce que le droit d’auteur s’efforce d’atteindre en donnant aux créateurs potentiels un droit exclusif de contrôle sur les copies de leurs oeuvres, leur offrant par là une incitation à créer des oeuvres enrichissantes intellectuellement à destination du public […] Ainsi, si les auteurs sont sans aucun doute des bénéficiaires importants du droit d’auteur, le bénéficiaire ultime doit être le public et c’est pour favoriser l’accès du public à la connaissance que des récompenses sont accordées aux auteurs.

La Constitution américaine formulait déjà de tels principes, en affirmant que le droit d’auteur existe pour « favoriser le Progrès de la Science », mais jamais encore la jurisprudence n’avait eu l’occasion de dire aussi nettement que le copyright constitue en réalité avant tout un droit du public.

L’exploration de textes au regard de l’usage équitable

Sur la base de telles prémisses, la Cour d’appel s’est donc logiquement tournée vers une appréciation des buts poursuivis par Google dans son projet et de l’utilité sociale procurée par les services mis à disposition du public. Contrairement aux juges français lorsqu’ils ont été saisis de la même affaire lors du procès Google/La Martinière, les trois juges américains ne se sont pas arrêtés au fait que Google a effectué des copies d’oeuvres protégées ; ils ont aussi cherché à savoir pourquoi il avait opéré ces reproductions.

Dans l’état actuel des choses, Google Books propose essentiellement une fonctionnalité de recherche en plein texte au coeur des livres numérisés, indiquant à l’utilisateur la localisation des occurrences des termes recherchés, ainsi que la visualisation de trois brefs extraits (snippets) et non de l’intégralité des ouvrages. Google propose aussi un service d’exploration de textes (Google Ngram Viewer), permettant de visualiser sous forme de graphiques l’évolution des occurrences d’un terme au fil du temps sur l’ensemble des livres numérisés (ou au choix des sous-ensembles ciblés du corpus).

ngram

Visualisation de résultats dans Google Ngram Viewer.

Pour les juges, résoudre l’affaire a consisté à déterminer si ces usages était bien « transformatifs » (un des quatre critères du fair use) ou s’ils constituaient au contraire pour l’utilisateur un « substitut » aux livres originaux. La réponse à cette question a été que les fonctionnalités de recherche et de fouille de textes présentent en elles-mêmes un caractère « hautement transformatif » :

Le but de Google en copiant les livres originaux protégés est de rendre disponible des informations pertinentes à propos de ces livres, permettant à un chercheur d’identifier ceux contenant un mot ou une expression l’intéressant, tout comme ceux n’incluant pas une telle référence. De plus, avec l’outil Ngrams, Google autorise les lecteurs à connaître la fréquence des usages de mots sélectionnés dans le corpus global des livres publiés à différentes périodes historiques. Nous n’avons aucun doute que le but de ces copies correspond au type de but transformatif décrit [dans la jurisprudence sur le fair use].

La question de l’offre de substituts aux livres originaux se posait particulièrement à propos des entrefilets (snippets) affichés par Google en regard des réponses aux requêtes. Mais là encore, les juges admettent sans difficulté leur caractère « transformatif » quand bien même le texte d’origine est présenté à l’utilisateur :

La séparation des pages en courts entrefilets opérée par Google est conçue pour montrer au chercheur une portion suffisante du contexte dans lequel apparaît le terme recherché pour l’aider à évaluer si le livre correspond bien à ses centres d’intérêt (sans révéler suffisamment de contenus pour menacer les intérêts légitimes de l’auteur). Dès lors, les entrefilets contribuent de manière importante au caractère hautement transformatif de l’objectif consistant à identifier des livres correspondants aux centres d’intérêt du chercheur.

Entrefilets (snippets) affichés par Google en fonction d’une requête.

On notera aussi que le fait que Google soit une société commerciale n’a pas été retenu comme un critère pertinent pour écarter le bénéfice du fair use, et ce pour deux raisons : 1) Google ne vend plus de livres protégés sans accord explicite des titulaires de droits, ni n’affiche de publicité dans l’interface même de Google Books, 2) de nombreux usages d’oeuvres protégées couverts par le fair use comme la citation, la critique, le commentaire ou la parodie peuvent tout à fait être réalisés dans un but de profit.

Un droit à l’extraction automatisée des informations

Lorsqu’on lit un livre papier, l’esprit humain est capable d’en extraire les informations pertinentes et c’est de cette manière que s’opère la transmission du savoir que favorise la lecture. Les partisans du Text et Data Mining estiment que ce « Droit de Lire » doit être reconduit dans l’environnement numérique en permettant l’extraction automatisée d’informations à partir de reproductions d’oeuvres, sans interférence du droit d’auteur qui n’a pas à entraver ce type d’usages (voir la déclaration de La Haye et la campagne « The Right To Read Is The Right To Mine »).

C’est exactement ce qu’ont consacré les trois juges d’appel en rappelant que le droit d’auteur sur une oeuvre protégée ne s’applique pas aux informations sous-jacentes qu’elle peut contenir. Le passage ci-dessous est lumineux de ce point de vue :

La faculté d’un entrefilet à satisfaire le besoin d’un chercheur pour un livre protégé donné découle du fait que l’entrefilet contient un fait historique que le chercheur a besoin de vérifier. Par exemple, un étudiant écrivant un travail sur Franklin D. Roosevelt peut avoir besoin de connaître l’année où Roosevlet a été frappé par la polio. En tapant « Roosevelt Polio » dans Google Books, l’étudiant sera conduit (parmi de nombreuses autres sources) vers un entrefilet correspondant à la page 31 du livre « The Making of Franklin D. Roosevelt » écrit par Richard Thayer Goldberg (1981), expliquant que cette attaque de polio est survenue en 1921. Cela répondra au besoin du chercheur, éliminant certes au passage tout besoin d’acheter ce livre ou de l’obtenir par le biais d’une bibliothèque. Mais ce que le chercheur a obtenu par le biais de l’entrefilet est un fait historique. Le droit d’auteur de Goldberg ne s’étend pas aux faits communiqués à travers son livre. Ils ne protègent que la manière dont l’auteur les a exprimés.

Dès lors les informations – même « encapsulées » dans les livres – doivent rester disponibles. Cela allait de soi à propos de l’opération de lecture individuelle, qui est toujours restée un acte entièrement libre et les juges américains n’ont fait que reconduire cette liberté fondamentale à propos de la lecture automatisée. La différence fondamentale est qu’ils admettent ici l’extraction d’informations y compris s’il est nécessaire de réaliser une reproduction intermédiaire pour l’effectuer.

Un horizon qui s’ouvre pour l’exploration de textes… aux Etats-Unis !

Les acquis de cette décision Google Books vont profiter par ricochet à toutes les bibliothèques partenaires ayant reçu des doubles des copies numériques des ouvrages. On a ici confirmation qu’elles peuvent offrir à leur public des services de recherche et de fouille de données à partir de ces corpus. Ce sera notamment le cas pour le grand entrepôt numérique Hathi Trust, né d’un regroupement d’institutions publiques partenaires de Google, qui a aussi été vainement attaqué en justice par des auteurs américains lui contestant la possibilité d’utiliser ces reproductions.

Plus largement, tous les chercheurs aux Etats-Unis se verront désormais ouvrir des possibilités considérables en matière de Text et Data Mining. En vertu de ce jugement, ils pourront en effet :

  1. Numériser des ensembles très larges de contenus protégés par le droit d’auteur dès lors qu’ils sont accessibles à partir d’une source licite ;
  2. Conserver ces corpus sans limite dans le temps et sans obligation de les détruire une fois utilisés ;
  3. Les transmettre à des tiers, comme l’a fait Google avec ses bibliothèques partenaires, les mutualiser au sein d’entrepôts partagés comme le fait Hathi Trust ;
  4. Développer des fonctionnalités d’indexation et de recherche au sein de ces ensembles ;
  5. Effectuer des analyses computationnelles, en soumettant ces contenus à des traitements opérés par des algorithmes ;
  6. Afficher des extraits des contenus – limités à de courts entrefilets pour ne pas constituer un substitut au texte original – , affiché en regard des résultats de recherche pour les contextualiser ;
  7. Et le tout, même si le projet de recherche possède une dimension commerciale, du moment que les contenus en eux-mêmes ne sont pas revendus !

Avec cette jurisprudence Google Books, les États-Unis viennent donc d’ouvrir à leurs chercheurs un champ immense pour pratiquer le Text Mining, leur conférant un avantage significatif sur leurs homologues européens, même par rapport à l’Angleterre où l’exception introduite l’an dernier est beaucoup moins souple que cette application du fair use américain.

Pendant ce temps, en France…

J’avais déjà analysé dans S.I.Lex une étude récente ayant montré que dans les pays dotés d’une exception dédiée ou d’un système de fair use, les recherches s’appuyant sur le Text et Data Mining étaient en moyenne trois fois plus nombreuses que dans les autres.

Trois fois plus de recherches utilisant le TDM dans les pays de fair use…

La France de son côté – comme souvent hélas pour tous les sujets impliquant le droit d’auteur – fait pâle figure. La loi numérique préparée actuellement par Axelle Lemaire contenait bien à l’origine une exception (limitée) en faveur de l’exploration de textes et de données, mais cette disposition a sauté au fil des pressions exercées par les éditeurs. La question est revenue sur le tapis à l’occasion de la consultation ligne sur le texte qui s’est achevée la semaine dernière. Mais il n’est pas assuré que le gouvernement trouve le courage politique de réintroduire cette exception dans le texte qu’il présentera au Parlement… Le projet ReLIRE à propos des livres indisponibles, que l’on présente souvent abusivement comme la réplique française à Google Books est lui-aussi en complet décalage, puisqu’il n’a consisté qu’à mettre en place une grosse librairie numérique, sans se préoccuper des enjeux pourtant essentiels liés au Text Mining.

Le problème qui affecte la France est en réalité très profond. Là où la justice américaine est capable de dire que le droit d’auteur est avant tout un droit du public, nous restons paralysés par une vision « propriétariste » étriquée, qui rend imperméable les juges à la prise en compte de l’intérêt général. Les vieilles notions figurant dans le Code (la reproduction, la représentation, la courte citation et en général, notre conception étroite des exceptions) sont bien trop pauvres pour appréhender la complexité mouvante des réalités numériques par rapport à l’adaptabilité dont fait preuve le fair use.

Mais le droit n’est pas le seul en cause et les œillères idéologiques jouent aussi un rôle puissant. Lorsque le CSPLA – organe rattaché au Ministère de la Culture – a produit par exemple en 2014 un rapport sur le Text et Data Mining, le juriste Jean Martin, à qui était confiée cette mission, commence dès l’introduction à assimiler l’exploration de textes et de données à une forme de « parasitisme » des oeuvres protégées pour recommander au final au gouvernement… de ne rien faire ! De son côté, l’avocat Richard Malka, dans son pamphlet « La gratuité, c’est le vol » commandé par le SNE,  consacre des  développements particulièrement acerbes au Text et Data Mining :

Une possibilité serait donnée aux utilisateurs de reproduire gratuitement, dans des bases de données numériques, des œuvres protégées afin de permettre des recherches sur ces œuvres visant à produire, par extraction, des données nouvelles.

Si de tels investissements pouvaient être légalement pillés, aucun éditeur n’engagerait désormais le moindre financement pour créer de tels outils. Il n’existe, en réalité, aucune activité économique au monde dont les productions peuvent être librement expropriées pour cause d’utilité publique et sans dédommagement.

[…] Cette destruction de valeur ne profiterait en réalité qu’à des acteurs tels que Google, qui ne tirent pas leur rémunération des banques de données elles-mêmes, qu’ils pourraient ainsi «aspirer», mais de la monétarisation publicitaire du contenu qu’ils offrent. Un tel processus reviendrait ainsi à confier un pouvoir exorbitant sur la connaissance à quelques sociétés, ce qui serait l’opposé de l’objectif affiché.

Le problème, c’est que l’issue du procès Google Books contredit complètement ces prédictions quasi-eschatologiques. Par le biais du fair use, les États-Unis ont au contraire redistribué de manière équitable la capacité d’explorer automatiquement les textes et les données à tous les acteurs commerciaux sans discrimination, mais aussi à leurs institutions publiques et à leurs équipes de chercheurs afin de maximiser l’utilité sociale de ces nouvelles technologies. Quelque part, cette issue est l’une des pires possibles pour Google, qui a longtemps cherché dans cette affaire à s’arroger une exclusivité pour rentabiliser les investissements énormes avancés pour la numérisation des livres. Le risque majeur de l’affaire Google Books, c’était que le moteur de recherche acquiert un titre exclusif sur l’utilisation des contenus. Et le moment où on a frôlé une telle catastrophe, c’est précisément lorsque Google a réussi à négocier un règlement avec les homologues américains du SNE, heureusement dénoncé par la justice ! Heureusement l’affaire est repartie ensuite sur le terrain du fair use et dorénavant, la combinaison de deux facteurs – la transmission de doubles des fichiers à des établissements publics et les possibilités d’usage consacrées par le fair use – garantissent l’ouverture du système, en permettant à une pluralité d’acteurs d’opérer à présent dans le champ du Text et Data Mining.

***

Il devient urgent que les pouvoirs publics français se libèrent de l’emprise des maximalistes du droit d’auteur qui leur hurlent des contre-vérités à l’oreille, avant que les dégâts à l’échelle internationale, notamment pour la recherche, ne deviennent irréversibles.

 

 

 

Publié dans Penser le droit d'auteur autrement ..., Regards d'ailleurs, regards ailleurs (droit comparé et actualités internationales) | Tagué , , , , , , , | 9 commentaires