Comment l’affaire Google Books se termine en victoire pour le Text Mining

Google a lancé son projet géant de numérisation des livres en 2004 et dès l’année suivante, un ensemble d’auteurs et d’éditeurs ont attaqué le moteur de recherche devant les tribunaux pour violation du droit d’auteur. Le procès Google Books est certainement l’un des plus importants de ce  début du 21ème siècle, car il va redéfinir profondément les équilibres en matière d’adaptation du droit d’auteur à l’environnement numérique. Dix ans après le début de l’affaire, une Cour d’appel américaine a finalement donné raison à Google en lui reconnaissant la semaine dernière le bénéfice du fair use (usage équitable). Elle confirme la décision rendue en  2013 par le juge Denny Chin et elle pourrait bien marquer le point final de la procédure, même si les auteurs encore en litige face à Google agitent à présent la menace de saisir la Cour suprême.

J’ai déjà beaucoup écrit sur S.I.Lex à propos de cette affaire Google Books (peut-être plus d’ailleurs que sur aucun autre sujet…) en m’efforçant de couvrir ses différentes phases, aussi bien aux Etats-Unis qu’en France. Ce qui me frappe à la lecture de ce nouveau jugement, c’est le déplacement graduel des enjeux sous-jacents qui s’est opéré au fil du temps. En 2005, la question principale portait sur la réutilisation de contenus protégés (la numérisation, puis la revente de livres) ; aujourd’hui, le vrai problème concerne les données contenues dans les ouvrages et l’usage qui peut en être fait. Le procès Google Books rejoint finalement la problématique du Text et Data Mining (fouille de textes et de données), dont on parle aussi beaucoup en ce moment au niveau européen et en France.

La décision Google Books va constituer un formidable vecteur pour les pratiques d’exploration de textes. Mais ces marges de manoeuvre ne seront ouvertes qu’aux Etats-Unis seulement, en creusant au passage encore plus l’écart avec l’Europe en la matière…

Le glissement des contenus aux données

C’est essentiellement à partir de cette question de l’usage des données contenues dans les livres que les juges d’appel ont accordé le bénéfice du fair use à Google, en considérant que le service qu’il offrait à ses utilisateurs était susceptible d’apporter un bénéfice à la société en termes d’accès à la connaissance, justifiant que l’on écarte l’application des droits exclusifs des auteurs.

Mais ce faisant, ce jugement a conjuré une des grandes craintes que l’on pouvait avoir à propos de cette affaire Google Books : il n’a pas accordé une sorte de privilège exclusif sur cette activité au moteur de recherche, bien au contraire. La firme de Mountain View ne sera en effet pas la seule dorénavant aux Etats-Unis à pouvoir numériser des livres protégés pour fournir des services de recherche et de d’exploration de données. Grâce au fair use, cette même faculté a été ouverte à tous ses concurrents commerciaux, aussi bien qu’aux bibliothèques publiques et aux chercheurs académiques. L’issue de l’affaire Google Books va donc créer aux Etats-Unis un véritable écosystème ouvert en faveur de l’exploration de textes, qui libérera le potentiel offert par ces nouvelles technologies d’analyse computationnelle, sans en réserver les bénéfices à un seul acteur.

La situation outre-Atlantique offre un contraste saisissant avec l’Union européenne, où mis à part l’Angleterre qui a introduit en 2014 une exception en faveur du Text Mining à des fins de recherche, le reste de la zone se débat encore avec la difficulté à réformer le cadre du droit d’auteur. C’est particulièrement vrai pour la France, où la conception « propriétariste » étroite du droit d’auteur qui constitue l’idéologie dominante bloque pour l’instant toute possibilité d’évolution dans le sens des usages.

L’intérêt du public avant tout

L’un des aspects les plus intéressants de cette décision d’appel, c’est d’avoir offert aux trois juges qui composaient le tribunal l’opportunité de rappeler la philosophie générale de la loi sur le droit d’auteur aux Etats-Unis. Ils expliquent notamment que le monopole temporaire reconnu légalement aux auteurs n’a été instauré que pour servir une cause plus élevée de diffusion de la connaissance dans un but d’intérêt général :

Le but ultime du droit d’auteur est de favoriser la progression du savoir et de la connaissance, ce que le droit d’auteur s’efforce d’atteindre en donnant aux créateurs potentiels un droit exclusif de contrôle sur les copies de leurs oeuvres, leur offrant par là une incitation à créer des oeuvres enrichissantes intellectuellement à destination du public […] Ainsi, si les auteurs sont sans aucun doute des bénéficiaires importants du droit d’auteur, le bénéficiaire ultime doit être le public et c’est pour favoriser l’accès du public à la connaissance que des récompenses sont accordées aux auteurs.

La Constitution américaine formulait déjà de tels principes, en affirmant que le droit d’auteur existe pour « favoriser le Progrès de la Science », mais jamais encore la jurisprudence n’avait eu l’occasion de dire aussi nettement que le copyright constitue en réalité avant tout un droit du public.

L’exploration de textes au regard de l’usage équitable

Sur la base de telles prémisses, la Cour d’appel s’est donc logiquement tournée vers une appréciation des buts poursuivis par Google dans son projet et de l’utilité sociale procurée par les services mis à disposition du public. Contrairement aux juges français lorsqu’ils ont été saisis de la même affaire lors du procès Google/La Martinière, les trois juges américains ne se sont pas arrêtés au fait que Google a effectué des copies d’oeuvres protégées ; ils ont aussi cherché à savoir pourquoi il avait opéré ces reproductions.

Dans l’état actuel des choses, Google Books propose essentiellement une fonctionnalité de recherche en plein texte au coeur des livres numérisés, indiquant à l’utilisateur la localisation des occurrences des termes recherchés, ainsi que la visualisation de trois brefs extraits (snippets) et non de l’intégralité des ouvrages. Google propose aussi un service d’exploration de textes (Google Ngram Viewer), permettant de visualiser sous forme de graphiques l’évolution des occurrences d’un terme au fil du temps sur l’ensemble des livres numérisés (ou au choix des sous-ensembles ciblés du corpus).

ngram
Visualisation de résultats dans Google Ngram Viewer.

Pour les juges, résoudre l’affaire a consisté à déterminer si ces usages était bien « transformatifs » (un des quatre critères du fair use) ou s’ils constituaient au contraire pour l’utilisateur un « substitut » aux livres originaux. La réponse à cette question a été que les fonctionnalités de recherche et de fouille de textes présentent en elles-mêmes un caractère « hautement transformatif » :

Le but de Google en copiant les livres originaux protégés est de rendre disponible des informations pertinentes à propos de ces livres, permettant à un chercheur d’identifier ceux contenant un mot ou une expression l’intéressant, tout comme ceux n’incluant pas une telle référence. De plus, avec l’outil Ngrams, Google autorise les lecteurs à connaître la fréquence des usages de mots sélectionnés dans le corpus global des livres publiés à différentes périodes historiques. Nous n’avons aucun doute que le but de ces copies correspond au type de but transformatif décrit [dans la jurisprudence sur le fair use].

La question de l’offre de substituts aux livres originaux se posait particulièrement à propos des entrefilets (snippets) affichés par Google en regard des réponses aux requêtes. Mais là encore, les juges admettent sans difficulté leur caractère « transformatif » quand bien même le texte d’origine est présenté à l’utilisateur :

La séparation des pages en courts entrefilets opérée par Google est conçue pour montrer au chercheur une portion suffisante du contexte dans lequel apparaît le terme recherché pour l’aider à évaluer si le livre correspond bien à ses centres d’intérêt (sans révéler suffisamment de contenus pour menacer les intérêts légitimes de l’auteur). Dès lors, les entrefilets contribuent de manière importante au caractère hautement transformatif de l’objectif consistant à identifier des livres correspondants aux centres d’intérêt du chercheur.

Entrefilets (snippets) affichés par Google en fonction d’une requête.

On notera aussi que le fait que Google soit une société commerciale n’a pas été retenu comme un critère pertinent pour écarter le bénéfice du fair use, et ce pour deux raisons : 1) Google ne vend plus de livres protégés sans accord explicite des titulaires de droits, ni n’affiche de publicité dans l’interface même de Google Books, 2) de nombreux usages d’oeuvres protégées couverts par le fair use comme la citation, la critique, le commentaire ou la parodie peuvent tout à fait être réalisés dans un but de profit.

Un droit à l’extraction automatisée des informations

Lorsqu’on lit un livre papier, l’esprit humain est capable d’en extraire les informations pertinentes et c’est de cette manière que s’opère la transmission du savoir que favorise la lecture. Les partisans du Text et Data Mining estiment que ce « Droit de Lire » doit être reconduit dans l’environnement numérique en permettant l’extraction automatisée d’informations à partir de reproductions d’oeuvres, sans interférence du droit d’auteur qui n’a pas à entraver ce type d’usages (voir la déclaration de La Haye et la campagne « The Right To Read Is The Right To Mine »).

C’est exactement ce qu’ont consacré les trois juges d’appel en rappelant que le droit d’auteur sur une oeuvre protégée ne s’applique pas aux informations sous-jacentes qu’elle peut contenir. Le passage ci-dessous est lumineux de ce point de vue :

La faculté d’un entrefilet à satisfaire le besoin d’un chercheur pour un livre protégé donné découle du fait que l’entrefilet contient un fait historique que le chercheur a besoin de vérifier. Par exemple, un étudiant écrivant un travail sur Franklin D. Roosevelt peut avoir besoin de connaître l’année où Roosevlet a été frappé par la polio. En tapant « Roosevelt Polio » dans Google Books, l’étudiant sera conduit (parmi de nombreuses autres sources) vers un entrefilet correspondant à la page 31 du livre « The Making of Franklin D. Roosevelt » écrit par Richard Thayer Goldberg (1981), expliquant que cette attaque de polio est survenue en 1921. Cela répondra au besoin du chercheur, éliminant certes au passage tout besoin d’acheter ce livre ou de l’obtenir par le biais d’une bibliothèque. Mais ce que le chercheur a obtenu par le biais de l’entrefilet est un fait historique. Le droit d’auteur de Goldberg ne s’étend pas aux faits communiqués à travers son livre. Ils ne protègent que la manière dont l’auteur les a exprimés.

Dès lors les informations – même « encapsulées » dans les livres – doivent rester disponibles. Cela allait de soi à propos de l’opération de lecture individuelle, qui est toujours restée un acte entièrement libre et les juges américains n’ont fait que reconduire cette liberté fondamentale à propos de la lecture automatisée. La différence fondamentale est qu’ils admettent ici l’extraction d’informations y compris s’il est nécessaire de réaliser une reproduction intermédiaire pour l’effectuer.

Un horizon qui s’ouvre pour l’exploration de textes… aux Etats-Unis !

Les acquis de cette décision Google Books vont profiter par ricochet à toutes les bibliothèques partenaires ayant reçu des doubles des copies numériques des ouvrages. On a ici confirmation qu’elles peuvent offrir à leur public des services de recherche et de fouille de données à partir de ces corpus. Ce sera notamment le cas pour le grand entrepôt numérique Hathi Trust, né d’un regroupement d’institutions publiques partenaires de Google, qui a aussi été vainement attaqué en justice par des auteurs américains lui contestant la possibilité d’utiliser ces reproductions.

Plus largement, tous les chercheurs aux Etats-Unis se verront désormais ouvrir des possibilités considérables en matière de Text et Data Mining. En vertu de ce jugement, ils pourront en effet :

  1. Numériser des ensembles très larges de contenus protégés par le droit d’auteur dès lors qu’ils sont accessibles à partir d’une source licite ;
  2. Conserver ces corpus sans limite dans le temps et sans obligation de les détruire une fois utilisés ;
  3. Les transmettre à des tiers, comme l’a fait Google avec ses bibliothèques partenaires, les mutualiser au sein d’entrepôts partagés comme le fait Hathi Trust ;
  4. Développer des fonctionnalités d’indexation et de recherche au sein de ces ensembles ;
  5. Effectuer des analyses computationnelles, en soumettant ces contenus à des traitements opérés par des algorithmes ;
  6. Afficher des extraits des contenus – limités à de courts entrefilets pour ne pas constituer un substitut au texte original – , affiché en regard des résultats de recherche pour les contextualiser ;
  7. Et le tout, même si le projet de recherche possède une dimension commerciale, du moment que les contenus en eux-mêmes ne sont pas revendus !

Avec cette jurisprudence Google Books, les États-Unis viennent donc d’ouvrir à leurs chercheurs un champ immense pour pratiquer le Text Mining, leur conférant un avantage significatif sur leurs homologues européens, même par rapport à l’Angleterre où l’exception introduite l’an dernier est beaucoup moins souple que cette application du fair use américain.

Pendant ce temps, en France…

J’avais déjà analysé dans S.I.Lex une étude récente ayant montré que dans les pays dotés d’une exception dédiée ou d’un système de fair use, les recherches s’appuyant sur le Text et Data Mining étaient en moyenne trois fois plus nombreuses que dans les autres.

Trois fois plus de recherches utilisant le TDM dans les pays de fair use…

La France de son côté – comme souvent hélas pour tous les sujets impliquant le droit d’auteur – fait pâle figure. La loi numérique préparée actuellement par Axelle Lemaire contenait bien à l’origine une exception (limitée) en faveur de l’exploration de textes et de données, mais cette disposition a sauté au fil des pressions exercées par les éditeurs. La question est revenue sur le tapis à l’occasion de la consultation ligne sur le texte qui s’est achevée la semaine dernière. Mais il n’est pas assuré que le gouvernement trouve le courage politique de réintroduire cette exception dans le texte qu’il présentera au Parlement… Le projet ReLIRE à propos des livres indisponibles, que l’on présente souvent abusivement comme la réplique française à Google Books est lui-aussi en complet décalage, puisqu’il n’a consisté qu’à mettre en place une grosse librairie numérique, sans se préoccuper des enjeux pourtant essentiels liés au Text Mining.

Le problème qui affecte la France est en réalité très profond. Là où la justice américaine est capable de dire que le droit d’auteur est avant tout un droit du public, nous restons paralysés par une vision « propriétariste » étriquée, qui rend imperméable les juges à la prise en compte de l’intérêt général. Les vieilles notions figurant dans le Code (la reproduction, la représentation, la courte citation et en général, notre conception étroite des exceptions) sont bien trop pauvres pour appréhender la complexité mouvante des réalités numériques par rapport à l’adaptabilité dont fait preuve le fair use.

Mais le droit n’est pas le seul en cause et les œillères idéologiques jouent aussi un rôle puissant. Lorsque le CSPLA – organe rattaché au Ministère de la Culture – a produit par exemple en 2014 un rapport sur le Text et Data Mining, le juriste Jean Martin, à qui était confiée cette mission, commence dès l’introduction à assimiler l’exploration de textes et de données à une forme de « parasitisme » des oeuvres protégées pour recommander au final au gouvernement… de ne rien faire ! De son côté, l’avocat Richard Malka, dans son pamphlet « La gratuité, c’est le vol » commandé par le SNE,  consacre des  développements particulièrement acerbes au Text et Data Mining :

Une possibilité serait donnée aux utilisateurs de reproduire gratuitement, dans des bases de données numériques, des œuvres protégées afin de permettre des recherches sur ces œuvres visant à produire, par extraction, des données nouvelles.

Si de tels investissements pouvaient être légalement pillés, aucun éditeur n’engagerait désormais le moindre financement pour créer de tels outils. Il n’existe, en réalité, aucune activité économique au monde dont les productions peuvent être librement expropriées pour cause d’utilité publique et sans dédommagement.

[…] Cette destruction de valeur ne profiterait en réalité qu’à des acteurs tels que Google, qui ne tirent pas leur rémunération des banques de données elles-mêmes, qu’ils pourraient ainsi «aspirer», mais de la monétarisation publicitaire du contenu qu’ils offrent. Un tel processus reviendrait ainsi à confier un pouvoir exorbitant sur la connaissance à quelques sociétés, ce qui serait l’opposé de l’objectif affiché.

Le problème, c’est que l’issue du procès Google Books contredit complètement ces prédictions quasi-eschatologiques. Par le biais du fair use, les États-Unis ont au contraire redistribué de manière équitable la capacité d’explorer automatiquement les textes et les données à tous les acteurs commerciaux sans discrimination, mais aussi à leurs institutions publiques et à leurs équipes de chercheurs afin de maximiser l’utilité sociale de ces nouvelles technologies. Quelque part, cette issue est l’une des pires possibles pour Google, qui a longtemps cherché dans cette affaire à s’arroger une exclusivité pour rentabiliser les investissements énormes avancés pour la numérisation des livres. Le risque majeur de l’affaire Google Books, c’était que le moteur de recherche acquiert un titre exclusif sur l’utilisation des contenus. Et le moment où on a frôlé une telle catastrophe, c’est précisément lorsque Google a réussi à négocier un règlement avec les homologues américains du SNE, heureusement dénoncé par la justice ! Heureusement l’affaire est repartie ensuite sur le terrain du fair use et dorénavant, la combinaison de deux facteurs – la transmission de doubles des fichiers à des établissements publics et les possibilités d’usage consacrées par le fair use – garantissent l’ouverture du système, en permettant à une pluralité d’acteurs d’opérer à présent dans le champ du Text et Data Mining.

***

Il devient urgent que les pouvoirs publics français se libèrent de l’emprise des maximalistes du droit d’auteur qui leur hurlent des contre-vérités à l’oreille, avant que les dégâts à l’échelle internationale, notamment pour la recherche, ne deviennent irréversibles.

 

 

 

Spare Rib : un projet exemplaire de numérisation d’une revue orpheline

L’an dernier, j’avais consacré dans S.I.Lex un billet à la manière dont le Royaume-Uni a mis en place un système pour traiter le problème particulier des oeuvres orphelines. Ce dispositif découle d’une directive européenne adoptée en 2012, mais il va plus loin en organisant l’octroi de licences pour l’utilisation d’oeuvres toujours protégées par le droit d’auteur, mais dont on ne peut identifier ou localiser les titulaires de droits. L’Angleterre a fait le choix intéressant d’ouvrir une plateforme en ligne pour faciliter l’octroi de ces licences, en prévoyant des sommes modiques à verser pour les usages non-commerciaux, notamment lorsqu’ils sont effectués par des bibliothèques, archives ou musées.

Couverture du magazine féministe anglais Spare Rib de décembre 1972. Source : Wikimedia Commons

Les premiers retours sur l’efficacité de ce dispositif semblent assez concluants. Mais un nouvel exemple d’utilisation me paraît particulièrement intéressant pour montrer les marges de manoeuvre qui s’ouvrent à présent aux institutions culturelles anglaises. Il s’agit du projet de numérisation et de mise en ligne de la revue féministe Spare Rib, conduit par la British Library. Ce magazine paru de 1972 à 1993 soulevait des problèmes particuliers en matière juridique, car plus de 4000 collaborateurs ont participé à sa publication, créant un écheveau de droits particulièrement inextricable. Lire la suite

Un risque de voir le domaine public numérisé enseveli sous la propriété matérielle des fichiers ?

Le Tribunal de Grande Instance de Paris a rendu le 13 mars dernier un jugement dans une affaire opposant la photographe professionnelle Marie-Laure de Decker à l’agence Gamma-Rapho. Bien que la décision ne porte pas directement sur la question de la numérisation d’oeuvres du domaine public, les principes sur lesquels elle s’appuie pourraient avoir des effets potentiellement dévastateurs s’ils étaient étendus à ce sujet.

Dans cette affaire, le juge a en effet été amené à rejeter la demande de la photographe qui demandait la restitution de plusieurs centaines de fichiers résultant de la numérisation de tirages de ses photos détenus par l’agence. Plus encore, le TGI a considéré que la publication par la photographe d’un de ces fichiers sur son propre site et sur Facebook constituait une « utilisation fautive » et l’a condamnée à payer 1000 euros de dommages et intérêts.

Strate
Le domaine public numérisé tend souvent à être recouvert de plusieurs « couches » de droits, entravant sa réutilisation. Le TGI de Paris vient potentiellement d’en ajouter une nouvelle, en reconnaissant l’existence d’une droit de propriété sur les fichiers eux-mêmes issus de l’opération de numérisation (Image par Anne97432. CC-BY-SA. Source : Wikimedia Commons).

Ce jugement fait visiblement grand bruit dans le cercle des photographes professionnels, car il tend à affaiblir leur position vis-à-vis des intermédiaires économiques que sont les agences. Mais je voudrais ici m’attarder surtout sur le fondement juridique invoqué par le juge pour justifier sa décision. Le TGI a en effet considéré que l’agence Gamma-Rapho disposait d’un droit de propriété sur les fichiers eux-mêmes, assimilés à des « biens meubles corporels« . Cette qualification revient donc à reconnaître une forme de propriété matérielle sur ces fichiers, indépendante de la propriété intellectuelle.

Appliqué à des oeuvres du domaine public numérisé, ce raisonnement conduirait à reconnaître au profit des organismes procédant à la numérisation une propriété matérielle sur les fichiers, opposable à ceux qui souhaiteraient les réutiliser. Ce placage étrange du concept de « propriété matérielle » sur des objets pourtant par définition immatériels constituerait alors une nouvelle couche d’enclosure sur le domaine public numérisé, avec une puissance sans doute redoutable étant donnée la force avec laquelle le droit de propriété est reconnu dans notre droit. Lire la suite

Numérisation en bibliothèque : quelles marges de manoeuvre aux États-Unis et en France ?

Cette semaine a été définitivement adoptée une loi « modifiant la propriété littéraire et artistique » qui contient notamment des dispositions importantes à propos des oeuvres orphelines introduites dans le droit français pour transposer une directive européenne de 2012. Même si de sérieuses restrictions ont été fixées par le texte, les bibliothèques, musées et archives en France vont se voir ouvrir de nouvelles possibilités – attendues depuis longtemps – de numériser et mettre en ligne des œuvres orphelines. L’adoption de cette loi constitue un jalon important et il est intéressant à ce stade d’essayer de dresser un parallèle entre deux pays comme la France et les États-Unis pour évaluer les marges de manœuvre laissées aux bibliothèques afin de numériser les segments de leurs collections couverts par le droit d’auteur.

Interlock MCLS Digitization Tour
Image par Brian Boucheron. CC-BY. Source : Flickr.

Côté français, l’adoption de cette loi sur les œuvres orphelines intervient en effet après une décision de la Cour de Justice de l’Union Européenne rendue en septembre 2014, qui a clarifié les limites de l’exception « Bibliothèques » figurant dans la directive de 2001. Du côté des États-Unis, des événements importants ont également eu lieu récemment, avec notamment début janvier un tournant lors d’un procès décisif opposant le consortium de bibliothèques HathiTrust et la Guilde des Auteurs (Author’s Guild) à propos de l’utilisation du fair use (usage équitable) dans le cadre de la numérisation. Les auteurs ont finalement choisi de jeter l’éponge dans cette affaire et l’issue de ce procès, qui confirme certains aspects de la décision Google Books de 2013, s’ajoute à une série de décisions plutôt favorables aux bibliothèques rendues aux Etats-Unis en 2014.

Depuis plus de 10 ans à présent, avec le lancement du projet Google Books et ses nombreux rebondissements, la numérisation de masse en bibliothèque aura fait couler beaucoup d’encre, en soulevant des enjeux comme celui des exceptions au droit d’auteur, des oeuvres orphelines, des œuvres épuisées ou plus récemment du Text et Data Mining. Au terme de plusieurs décisions de justice et adaptations législatives, où en est-on à présent aujourd’hui ? Les possibilités de numérisation et de diffusion de leurs collections par les bibliothèques sont-elles plus larges en Europe ou aux États-Unis ?

Vous allez voir que la réponse à cette question n’est pas simple à apporter, la situation étant encore relativement contrastée : de part et d’autre de l’Atlantique, des marges de manœuvre non négligeables ont été consacrées au bénéfice des bibliothèques, mais des blocages subsistent également, qui ne sont pas exactement les mêmes. Je vais tenter de synthétiser les différents facettes du sujet, en passant successivement en revue la question de la numérisation pour conservation, de la diffusion des copies numériques, du Text et Data Mining, de la numérisation des oeuvres orphelines et enfin de celles des oeuvres épuisées. Lire la suite

Les données culturelles deviendront-elles des « données d’intérêt général » ?

C’est un point qui n’a pas fait l’objet encore de commentaires particuliers, mais qu’il faudra surveiller attentivement en 2015. A la fin du mois de novembre dernier, le site Contexte publiait un article se faisant l’écho des premiers travaux interministériels concernant la future loi sur le numérique, portée par Axelle Lemaire.

Un des volets de cette loi concernera l’ouverture des données publiques et l’on peut lire chez Contexte que les premiers éléments envisagés pour le texte portent sur les points suivants :

Ouverture des données

Le premier chapitre du texte porte sur la politique d’ouverture des données publiques, avec la transposition de la directive « Public sector information » (PSI) et la réaffirmation des principes d’ouverture, de gratuité et d’interopérabilité.

La Commission d’accès aux documents administratifs (Cada) deviendrait une véritable autorité des données publiques. Un statut des données dites « d’intérêt général », avec un régime juridique spécifique, serait créé. Cela concerne des secteurs aussi divers que la santé, les transports, l’énergie, la culture ou le logement.

Voir les données culturelles envisagées comme des candidates au statut de données « d’intérêt général » est assez surprenant, mais aussi potentiellement une chose positive. En effet, jusqu’à présent dans la loi française, les données culturelles ont déjà été soumise à un régime juridique spécifique, appelé (à tort) « exception culturelle ». Selon l’article 11 de la loi du 17 juillet 1978, les « établissements, organismes ou services culturels » conservaient la faculté de « fixer les conditions dans lesquelles les informations peuvent être réutilisées ».

Lire la suite

La CJUE conforte la numérisation en bibliothèque (et la Copy Party !)

Après une décision intéressante rendue la semaine dernière en matière de parodie, la Cour de Justice de l’Union Européenne s’est prononcée hier sur un cas impliquant la numérisation d’un ouvrage en bibliothèque, effectuée sur le fondement de ce que l’on appelle en France l' »exception conservation« . Cette dernière permet aux bibliothèques de reproduire des oeuvres protégées de leurs collections et de les diffuser sur place, à partir de terminaux dédiés.

Voici les faits résumés par Marc Rees sur Next INpact :

La bibliothèque universitaire TU Darmstadt [en Allemagne] a mis à disposition des utilisateurs des ordinateurs leur permettant de consulter des ouvrages de son fonds et même de les imprimer ou stocker sur clef USB. Ce faisant, un litige a éclaté avec un éditeur. La bibliothèque a refusé d’acheter l’équivalent électronique d’un ouvrage qu’elle possédait déjà. Et pour cause : elle l’a numérisé. L’affaire est remontée jusqu’à la CJUE après que la justice allemande a considéré que ces facultés d’impression et de copie étaient interdites.

usbkey
Les clés USB, au coeur d’une importante décision de la CJUE sur la copie en bibliothèque ( A USB Key. Par Ruth Ellison. CC-BY-NC-ND. Source : Flickr)

Alors que les conclusions de l’avocat étaient par certains côtés inquiétantes, la Cour européenne s’est finalement prononcée nettement en faveur des usages. Elle a confirmé que les bibliothèques peuvent numériser des ouvrages figurant dans leurs collections, à des fins de diffusion sur place, sans que l’existence par ailleurs d’une offre commerciale portant sur les mêmes contenus en numérique fasse obstacle au jeu de l’exception. Par ailleurs, et contrairement à ce que l’avocat général soutenait, elle a accepté que les utilisateurs puissent faire des copies sur clés USB des ouvrages numérisés par ce biais, sur le fondement de l’exception de copie privée, et pas seulement des impressions papier.

Ce faisant, la CJUE a aussi conforté par ricochet l’interprétation juridique qui sous-tend la Copy Party – ces évènements festifs où les bibliothécaires invitent les usagers à venir copier les collections avec leur propre matériel de reproduction – et plus largement la possibilité pour les usagers de faire par eux-mêmes des copies personnelles. L’arrêt prouve en effet que ces collections publiques constituent bien des « sources licites » et qu’il n’est pas nécessaire que le copiste soit le propriétaire des contenus qu’il souhaite reproduire.

Tous ces points sont positifs, mais la Cour raisonne dans le cadre d’une logique restrictive, qui est celui de la directive sur le droit d’auteur de 2001. Il en résulte que l’exception conservation reste d’une utilité relativement limitée et qu’il faudra sans doute rompre avec ce carcan pour que la numérisation en bibliothèque devienne véritablement un vecteur efficace de diffusion de la connaissance.

Lire la suite

Verdict dans l’affaire ReLIRE : la propriété (intellectuelle), c’est le vol !

La nouvelle est tombée hier matin : le Conseil Constitutionnel a décidé de considérer que la loi relative à l’exploitation numérique des livres indisponibles du 20ème siècle était conforme à la Constitution. Il a rejeté les demandes des deux requérants, Yal Ayerdhal et Sara Doke, membres du collectif d’auteurs « Le Droit du Serf » et validé par ricochet le dispositif ReLIRE mis en place suite au vote de cette loi, qui va permettre la numérisation et la commercialisation de dizaines de milliers d’ouvrages issus des collections de la BnF, après une mise en gestion collective des droits auprès de la SOFIA.

La propriété intellectuelle, c'est le vol. Par Christopher Dombres. CC-BY. Source : Flickr.
La propriété intellectuelle, c’est le vol. Par Christopher Dombres. CC-BY. Source : Flickr.

C’est un coup dur pour tous ceux qui, comme moi, avaient combattu cette loi depuis les débats au Parlement et souhaité son annulation. Néanmoins, cette défaite cuisante était largement prévisible, étant donné les arguments qu’avaient choisi de mettre en avant Le Droit du Serf et leur conseil juridique, Franck Macrez, comme on avait pu le constater lors de la séance publique du 11 février dernier :

  • premièrement, la loi a été votée à l’issue d’une procédure parlementaire ne présentant pas les garanties de sincérité et de clarté qui doivent normalement la guider ;
  • deuxièmement, le texte qui en résulte présente un grave défaut d’intelligibilité ;
  • troisièmement, la loi instaure une atteinte au droit de l’auteur constituant une véritable privation de propriété ;
  • quatrièmement, cette privation de propriété n’est aucunement justifiée par un motif d’intérêt général ou même compensée par une juste indemnité ;
  • cinquièmement, le droit moral de l’auteur, composante de son droit de propriété, subit une atteinte flagrante tant dans sa dimension du droit de divulgation que du droit au respect de l’œuvre.

Le Droit du Serf s’est en effet mis lui-même dans une très mauvaise position en choisissant de se placer sur le terrain de l’atteinte au droit de propriété. C’est ce que j’avais dit sur Twitter la semaine dernière. J’aurais mille fois préféré me tromper, mais en l’occurrence, c’est bien ce qui s’est produit :

En choisissant pour des raisons essentiellement idéologiques de défendre leur droit d’auteur en le raccrochant à la notion de propriété, le Droit du Serf n’a pas compris qu’il se jetait tout droit dans la gueule du loup. Car la notion de propriété n’est nullement pour les auteurs un moyen propice à la défense de leurs droits. C’est au contraire une gigantesque arnaque et la façon la plus sûre de se faire spolier, au bénéfice d’intermédiaires en mesure d’obtenir un transfert de cette propriété. C’est déjà ce qui arrive quotidiennement par le biais des contrats d’édition (et les choses ne sont pas vraiment prêtes de changer…) et la décision du Conseil Constitutionnel va encore aggraver les choses en autorisant le législateur à organiser cette spoliation par la loi à une échelle massive…

Dans cette affaire, ce qui est saisissant, c’est que le juge a bien considéré que les auteurs étaient « propriétaires » de leurs oeuvres, mais cela ne l’a nullement empêché de valider le système de gestion collective mis en place par la loi, qui est largement favorable aux éditeurs et place les auteurs en situation d’infériorité.

Nous avons donc une nouvelle preuve éclatante que « la propriété intellectuelle, c’est le vol ! ». Et les auteurs, plutôt que d’aller mettre eux-mêmes la tête sur le billot en défendant un paradigme propriétaire qui est au coeur du mécanisme de leur aliénation, devrait plutôt comprendre qu’ils n’ont aucun intérêt à soutenir un tel système s’ils veulent vraiment cesser un jour d’être des « serfs ».

Désastreux changement de stratégie

Ce qui est frappant, c’est le changement de stratégie qui s’est opéré dans la procédure entre le moment où le Droit du Serf a enclenché un recours devant le Conseil d’Etat et le passage devant le Conseil Constitutionnel.

Devant le Conseil d’État, où il attaquait le décret d’application de la loi sur les livres indisponibles, le Droit du serf avait soulevé un certain nombre d’arguments, relativement techniques, mais à mon sens de qualité, qui leur auraient offert une base solide pour contester la validité de la loi. Il s’agissait à ce moment essentiellement pour eux de dénoncer les déséquilibres introduits dans la loi au profit des éditeurs. Certains de ces arguments n’auraient pas pu être repris devant le Conseil Constitutionnel (comme la non-conformité de la loi à des traités internationaux), mais il restait suffisamment d’éléments à faire valoir pour étayer le recours. A ce stade, le Droit du Serf n’avait pas encore mis en avant l’idée d’une atteinte au droit de propriété des auteurs.

Si les choses en étaient restées là, je n’aurais rien eu à redire et pour être complètement honnête, j’ai même soutenu pendant un moment la démarche du Droit du Serf, en allant jusqu’à participer à leurs côtés à une audition au Sénat. Mais je me suis dissocié de leur action lorsque j’ai constaté qu’en réalité, leur but réel n’était pas seulement de faire tomber cette loi, mais d’obtenir pour des raisons idéologiques une réaffirmation du rattachement du droit d’auteur au droit de propriété.

Un temps pas si lointain, où je soutenais l’action du Droit du Serf.

Le revirement s’est opéré lorsque l’affaire a été portée depuis le Conseil d’Etat au Conseil Constitutionnel à l’occasion d’une Question Prioritaire de Constitutionnalité (QPC). Les arguments employés par le Droit du Serf ont alors complètement changé, pour soutenir que l’atteinte au droit d’auteur équivalait à une atteinte au droit de propriété, tel qu’il est consacré à l’article 2 et 17 de la Déclaration des Droits de l’Homme et du Citoyen de 1789.

Désastreux changement de stratégie, qui aura conduit les serfs à leur perte…

Propriétaires, mais spoliés quand même…

En se référant à l’article 17  de la Déclaration des Droits de l’Homme, le Droit du Serf a en réalité plaidé que la mise en gestion collective imposée par la loi aux auteurs équivalait à une expropriation. Mais le Conseil Constitutionnel a facilement balayé l’argument, en considérant qu’il n’y a avait pas en l’espèce réellement de « privation » de propriété :

[…] il résulte de ce qui précède que, d’une part, le régime de gestion collective applicable au droit de reproduction et de représentation sous forme numérique des « livres indisponibles » n’entraîne pas de privation de propriété au sens de l’article 17 de la Déclaration de 1789.

C’est tout à fait logique, puisque les auteurs conservent un droit à la rémunération pour l’exploitation de leurs ouvrages. Dès lors, les plaignants se retrouvaient sur le terrain beaucoup moins favorable de l’article 2 de la Déclaration des Droits de l’Homme, celui de « l’atteinte au droit de propriété » :

[…] en l’absence de privation du droit de propriété au sens de cet article, il résulte néanmoins de l’article 2 de la Déclaration de 1789 que les atteintes portées à ce droit doivent être justifiées par un motif d’intérêt général et proportionnées à l’objectif poursuivi.

Et le Conseil a considéré que la loi avait mis en place des garanties suffisantes au profit des auteurs qui font que l’atteinte à leur droit de propriété n’est pas disproportionnée :

[…] l’encadrement des conditions dans lesquelles les titulaires de droits d’auteur jouissent de leurs droits de propriété intellectuelle sur ces ouvrages ne porte pas à ces droits une atteinte disproportionnée au regard de l’objectif poursuivi ; que, par suite, les griefs tirés de l’atteinte au droit de propriété doivent être écartés.

Voilà donc les auteurs bien avancés : le Conseil leur reconnaît bien le bénéfice d’un droit de propriété sur leurs oeuvres, ce qui doit satisfaire leurs aspirations idéologiques. Mais à quoi bon ? Puisque aussitôt après, il admet que les auteurs puissent être spoliés par un procédé aussi scandaleux que celui de la loi sur les oeuvres indisponibles ? La belle propriété que voilà ! C’est à toi, petit auteur, mais nous en ferons ce que nous en voudrons… L’arnaque est totale : la notion de propriété est l’instrument qui permet juridiquement la spoliation de l’auteur et nullement un moyen de protection.

My precious… Les auteurs ont voulu se faire déclarer propriétaires, mais c’est justement pour cela qu’ils se sont faits posséder…

Si la décision du Conseil est dramatique pour les auteurs, elle est aussi dangereuse pour le public. Car ce jugement réitère la grande catastrophe survenue lors de l’examen de la loi DADVSI en 2006, lorsque le Conseil Constitutionnel avait assimilé le droit d’auteur à une forme de propriété, à l’image de la propriété des biens matériels. Il reprend d’ailleurs à peu de choses près la même formulation dans sa décision :

Considérant que les finalités et les conditions d’exercice du droit de propriété ont connu depuis 1789 une évolution caractérisée par une extension de son champ d’application à des domaines nouveaux et, notamment, à la propriété intellectuelle ; que celle-ci comprend le droit, pour les titulaires du droit d’auteur et de droits voisins, de jouir de leurs droits de propriété intellectuelle et de les protéger dans le cadre défini par la loi et les engagements internationaux de la France

Il faut relire à ce sujet les pages admirables écrites par Richard Stallman pour montrer le caractère illusoire et fallacieux du concept de propriété appliquée aux choses de l’esprit (notamment cet article : « Vous avez dit propriété intellectuelle ? Un séduisant mirage »). Pour la société tout entière, ce placage de la notion de propriété sur la connaissance et la culture a été la cause de l’enclosure dramatique d’un bien commun fondamental. Pour les auteurs, c’est un miroir aux alouettes organisant leur dépossession sournoise au profit d’intermédiaires qui sont les vrais bénéficiaires du système (la preuve en chiffres).

La décision du Conseil Constitutionnel réaffirme ce paradigme propriétaire au plus haut niveau. On verra plus loin que la décision n’est cependant peut-être pas si catastrophique que cela pour l’avenir, mais sur le plan des principes, elle est lourde de conséquences.

Une conception terriblement étriquée de l’intérêt général

Pour valider une atteinte au droit de propriété, le Conseil Constitutionnel avait besoin de reconnaître que la loi sur les indisponibles visait bien un but d’intérêt général. Cela nous place donc sur un terrain éminemment politique, et c’est de ce point de vue que la décision du Conseil est sans doute la plus consternante.

Voilà ce que disent les juges à ce sujet :

Considérant que les dispositions contestées ont pour objet de permettre la conservation et la mise à disposition du public, sous forme numérique, des ouvrages indisponibles publiés en France avant le 1er janvier 2001 qui ne sont pas encore tombés dans le domaine public, au moyen d’une offre légale qui assure la rémunération des ayants droit ; qu’ainsi, ces dispositions poursuivent un but d’intérêt général

Bien que les instigateurs de ce projet répètent à l’envie que la loi sur les indisponibles et le dispositif ReLIRE poursuivent un but « patrimonial », tout le montage ne vise qu’à la recommercialisation sous forme numérique des ouvrages épuisés. C’est donc un projet purement mercantile et ce alors même que des sommes considérables d’argent public vont être mobilisées pour la numérisation des ouvrages, à partir des collections de la BnF. Le public paiera donc deux fois pour ces ouvrages : une fois pour qu’ils soient numérisés et une fois pour les racheter. En contrepartie, la loi n’a prévu aucune forme d’usage public du corpus numérisé. Aucun usage pédagogique ou de recherche n’a été mis en place. Aucune forme d’accès public n’a été organisée, si ce n’est peut-être un accès sur place à la BnF et un peu de feuilletage dans Gallica. Les seuls dispositions en faveur des bibliothèques qui figuraient dans la loi ont été méthodiquement laminées lors de la navette parlementaire, jusqu’à les rendre inapplicables.

En cela, la décision du Conseil reflète bien le fait que dans notre pays, l’intérêt économique a complètement englouti l’intérêt général ou plutôt qu’il n’existe plus chez nos dirigeants d’intérêt autre que l’intérêt économique. Et la France de ce point de vue fait vraiment pâle figure par rapport à ce que l’on peut voir à l’étranger.

Dans le cadre du jugement de l’affaire Google Books aux États-Unis, la justice américaine a été amenée à se pencher sur l’intérêt pour la société de la numérisation des livres, mais elle l’a fait avec une conception infiniment plus riche et compréhensive de l’intérêt général. Le juge Chin a pris en compte l’intérêt pour la recherche, l’accès à la connaissance et l’avancement des sciences. S’il a pris en considération la dimension économique, il ne s’est pas arrêtée à elle. C’est ce qui m’avait fait dire que le traitement de l’affaire Google Books aux États-Unis nous avait donné une grande leçon de démocratie et cela se confirme encore plus au vu de l’aridité de la décision du Conseil Constitutionnel.

Combien aussi ReLIRE fait pâle figure en termes d’intérêt général à coté de ce que la Norvège a organisé pour la numérisation et la diffusion de son patrimoine ! Les Norvégiens ont en effet mis en place un projet pour numériser et rendre accessibles en ligne gratuitement à l’ensemble des ressortissants du pays l’ensemble des livres publiés en norvégien. Le dispositif s’appuie sur un système de gestion collective (licence collective étendue) qui ressemble à ReLIRE et assure la rémunération des auteurs, en leur ménageant une possibilité de sortir du système s’ils le souhaitent. Mais la grande différence, c’est qu’il y a bien une contrepartie pour le public en terme d’accès et on imagine le bénéfice incroyable que la population pourra tirer de cette disponibilité numérique des livres.

A côté de cela, la France n’a plus qu’une conception boutiquière de l’intérêt général…

Retour à l’Ancien Régime : la boucle historique est bouclée

Le collectif « Le Droit du Serf » comporte un certain nombre d’auteurs de science-fiction. Mais peut-être que des historiens auraient été plus utiles avant de se lancer dans une telle action en justice, avec le droit de propriété en bandoulière. Car ce qui me frappe dans la décision du Conseil, c’est à quel point elle nous ramène à la source historique où est née cette conception des droits de l’auteur comme droit de propriété. Et vous allez voir que dès le départ, l’arnaque était présente.

En effet, les premières traces de l’idée que l’auteur serait « propriétaire » des oeuvres qu’il crée datent de l’Ancien Régime, et plus précisément en France, d’une querelle qui a opposé les libraires parisiens aux libraires de province. A cette époque, les libraires (équivalent de nos éditeurs actuels) obtenaient des monopoles d’exploitation sous la forme de privilèges octroyés par le Roi. Mais ceux-ci étaient limités dans le temps, ce qui fait qu’après quelques années les ouvrages pouvaient être publiés par n’importe quel libraire du pays. Or les librairies parisiens, qui avaient un accès plus facile aux auteurs, souhaitaient que ces privilèges deviennent perpétuels, de manière à ne pas souffrir de la concurrence des libraires de Province. L’affaire dégénéra en justice et c’est là que les libraires parisiens eurent l’idée d’inventer la propriété des auteurs.

Voyez ce qu’en dit l’historien du droit Laurent Pfister dans cet article :

C’est à partir de 1725 que les éditeurs parisiens s’efforcent de rendre leur monopole définitivement opposable à l’État royal qui menace de le leur retirer. Par la voix de leurs avocats, ils prétendent qu’ils détiennent sur les œuvres de l’esprit non pas des privilèges royaux mais une propriété privée perpétuelle et de droit naturel, qui leur a été cédée par ceux qui l’avaient acquise originairement en vertu de leur travail intellectuel : les auteurs.

Source : Wikimedia Commons.

On constate donc bien que dès l’origine, l’idée de « propriété de l’auteur » n’est qu’un artifice, inventé par des intermédiaires pour assurer leur propre pouvoir en instrumentalisant les auteurs à leur avantage. La loi sur les indisponibles et le dispositif ReLIRE sont les héritiers directs de cette logique, mais appliquée à une échelle plus large. D’une certaine manière, on peut même dire que la boucle historique est bouclée : le droit d’auteur n’a jamais été qu’un droit d’éditeur mal déguisé.

En se plaçant sur le terrain de la propriété, le Droit du Serf n’aura donc servi que les intérêts des Maîtres. Grinçante ironie, mais c’est le lot de ceux qui font l’erreur d’ignorer leur propre histoire.

Lueurs d’espoir pour l’avenir (tout de même…)

N’y a-t-il rien de positif que l’on puisse tirer de cette décision ? Ce que l’on aurait pu craindre le plus pour l’avenir, c’est que l’assimilation du droit d’auteur à un droit de propriété ne verrouille complètement le système et empêche toute réforme du droit d’auteur, dans le sens d’un meilleur équilibre.

Or au vu de l’ampleur des atteintes au droit de propriété que le Conseil Constitutionnel a accepté de valider dans cette décision, autant dire qu’il existe une sacrée marge de manoeuvre… Si un dispositif aussi déséquilibré que ReLIRE n’est pas considéré comme une atteinte disproportionnée, alors sans doute des système de gestion collective ou de licence légale tournés vers l’accès public, comme on le voit en Norvège par exemple, pourraient être considérés comme conformes à la Constitution.

C’est sans doute à présent au niveau européen qu’il faut porter le fer si l’on veut que les choses bougent dans un sens positif en matière de numérisation des livres épuisés. Dans la réponse qu’elle a faite à la consultation en cours sur la réforme du droit d’auteur lancée par la Commission européenne, Europeana a fait des propositions offensives sur la question de la numérisation de masse. La fondation qui développe la bibliothèque numérique européenne propose que les exceptions en faveur des bibliothèques soient élargies afin de leur permettre de numériser et de mettre en ligne les oeuvres épuisées, dans un cadre strictement non-commercial, et en ménageant aux titulaires de droits la possibilité de retirer leurs oeuvres s’ils le souhaitent (voir ici le résumé).

Pour les Serfs, les choses ne sont pas terminées non plus. L’affaire va revenir devant le Conseil d’Etat où ils pourront soulever d’autres arguments, notamment en invoquant des traités internationaux. Ils peuvent encore obtenir l’annulation du décret d’application de la loi. Ils chercheront peut-être aussi à saisir la justice européenne pour dénoncer un défaut d’impartialité du Conseil Constitutionnel. Mais quelque chose me dit qu’ils chercheront encore à s’accrocher au paradigme propriétaire, malgré l’énorme déroute qu’ils viennent de subir devant le Conseil.

***

Au final, ce verdict laisse un goût terriblement amer. Une chance importante de stopper ReLIRE a été gâchée pour des raisons essentiellement idéologiques. Mais pouvait-on vraiment attendre autre chose ?

Pouvait-on attendre autre chose du Droit du Serf quand on voit que devant la mission Lescure, ce collectif a soutenu l’idée de mettre en place un domaine public payant, à savoir l’une des idées les plus terriblement nauséabondes qui soient, défendue par les pires maximalistes du droit d’auteur comme Pascal Rogard ?

Pouvait-on attendre autre chose de leur conseil juridique Franck Macrez, qui prétend ne pas faire d’idéologie, mais qui est capable de dire froidement sur Twitter que toute exception au droit d’auteur constitue une forme d’expropriation, même quand elles bénéficient à des aveugles ou à nos enfants à travers les usages pédagogiques ?

Heureusement, ce genre d’auto-intoxication ne reflète pas les idées de l’ensemble des auteurs, loin s’en faut. Il y a des auteurs comme Thierry Crouzet qui depuis longtemps ont compris que les choses devaient être repensées en profondeur. On voit également des auteurs dans la nouvelle génération, comme Neil Jomunsi, avec des discours qui se démarquent de ces vieilles sirènes :

Les créateurs doivent comprendre qu’une refonte du droit d’auteur ne leur enlèvera rien qu’ils n’aient déjà perdu depuis longtemps. Oui, il faut réduire le délai d’attente avant l’entrée dans le domaine publique, et même drastiquement : 70 ans après le décès est une durée ridicule, qui n’a plus aucun sens à l’heure où nous parlons. Quant aux modalités d’exploitation connexes, elles doivent être adaptées à une exploitation par et pour l’auteur, dans le respect du partage et de la contribution généralisée. Nous ne parlons plus de bâtir de misérables piédestaux personnels, mais de contribuer, à notre humble mesure, à l’émergence d’une paix de l’esprit délivrée des contraintes marchandes, plus proche, plus sociale, plus locale, plus égalitaire. Une paix de l’esprit qui pourrait, à terme, déboucher sur d’autres types de paix.

La servitude n’est pas une fatalité…

Et si une directive européenne permettait de financer la numérisation du domaine public ?

Lorsque l’on parle du domaine public et en particulier de sa numérisation, une des questions les plus épineuses concerne le financement de ces opérations, très onéreuses, et de leur durabilité dans le temps. Lors de l’affaire des accords de numérisation conclus par la BnF avec des sociétés privées, ce fut un des points majeurs du débat et ceux qui ont soutenu ces partenariats public-privé avançaient que sans cet apport de fonds par des sociétés, les oeuvres du domaine public ne pourraient pas être numérisées ou seulement très lentement. C’est ce qui a conduit certains à accepter les exclusivités de 10 ans conférées aux partenaires de l’établissement en échange de leurs investissements, alors que nous les avons combattus de notre côté au nom de la préservation de l’intégrité du domaine public.

Money. Par Adrian Serghie. CC-BY-NC-SA. Source : Flickr.

En ces temps de disette budgétaire, les établissements culturels sont soumis à des restrictions budgétaires ou à l’obligation de dégager des ressources propres et ce contexte fait du domaine public une victime collatérale de la situation de crise dans laquelle nous nous trouvons. Mais une proposition, venue de l’Union européenne, est peut-être susceptible d’apporter une solution de financement pérenne pour la numérisation du patrimoine. En effet, une directive européenne sur la gestion collective des droits est actuellement en cours d’élaboration et elle prévoit visiblement d’utiliser une partie des sommes collectées par les sociétés de gestion collective (SACEM, SACD, SCAM, Adami, SPEDIDAM etc) pour financer la numérisation en bibliothèque.

Lire la suite

Verdict dans l’affaire Google Books : une grande leçon de démocratie ?

La nouvelle est tombée hier et elle fera date : après plus de 8 années de procédure d’une incroyable complexité, Google a finalement remporté le procès qui l’opposait à la Guilde des auteurs à propos de son programme géant de numérisation Google Books. Le juge Denny Chin, en charge de l’affaire, lui a donné raison sur la base du fair use (usage équitable), une disposition du droit américain qui permet dans certaines situations de se défendre de l’accusation de contrefaçon en cas d’usage d’oeuvres protégées.

The Google Book. Par Jim Barter. CC-BY. Source : Flickr

La défaite est cinglante pour la Guilde des Auteurs, qui restait seule en lutte contre Google après que les éditeurs américains aient décidé de conclure un accord en 2012 avec le moteur de recherche. Denny Chin a en effet rendu un summary judgment, ce qui signifie qu’il a estimé que la balance penchait tellement en faveur de Google qu’il pouvait recourir à une procédure simplifiée. La fermeté du jugement va rendre hasardeux pour la Guilde des Auteurs le fait de se pourvoir en appel, même si ses responsables ont déjà annoncé qu’ils avaient l’intention de le faire.

De quoi était-il exactement question dans ce jugement ? En mars 2011, le juge Chin avait refusé de valider un Règlement par lequel Google, la Guilde des Auteurs et l’Association des éditeurs américains avaient essayé de mettre fin à leur différend sur une base contractuelle. Ils avaient voulu mettre en place un système complexe qui aurait permis à Google, en contrepartie de 125 millions de dollars,  de commercialiser les livres épuisés numérisés par ses soins, sur la base d’un opt-out (option de retrait laissée aux titulaires de droits pour sortir du système). Chin avait refusé d’entériner cette solution, en estimant qu’elle risquait de conférer à Google un monopole de fait sur la numérisation à but commercial, en particulier pour les oeuvres orphelines faisant partie du corpus.

Google a donc été obligé de revenir à l’intention initiale du projet Google Books, à savoir scanner des ouvrages, y compris sous droits, mais uniquement pour en diffuser de courts extraits (snippets) répondant aux requêtes des utilisateurs. Pour aller plus loin (montrer des portions plus larges, vendre des ouvrages), Google doit passer par des accords volontaires, avec les éditeurs et les auteurs (opt-in).

Lire la suite

Construisons ensemble la Pi-bliothèque de la Quadrature du Net ! Rendez-vous le 26 octobre au Garage !

Le 26 octobre prochain, la Quadrature du Net participe au Festival Villes en biens communs en proposant un atelier Bookscanner, de 14 heures à 22 heures, au 19 rue Richard Lenoir à Paris.

Car dans les profondeurs du Garage de la Quadrature se trouve depuis quelque temps une fascinante machine, introduite par Benjamin Sonntag, alias Vincib, l’un des co-fondateurs de la Quadrature du Net. Il raconte d’ailleurs son histoire sur le site « Un Bookscanner à Paris« , que je vous recommande de visiter.

Lire la suite

Domaine public et sérendipité : le fabuleux destin d’un flocon de neige

Lors de l’audition pour SavoirsCom1 de la semaine dernière à l’Assemblée nationale, à propos de l’affaire des Accords BnF, Frédéric Reiss, l’un des députés de la Commission des affaires culturelles a relevé l’expression « dissémination des contenus culturels » que nous avions employée, Silvère Mercier et moi. Visiblement, ce terme l’a quelque peu inquiété :

Vous avez parlé de dissémination des œuvres sur internet. Qu’est-ce que cela signifie ? S’agit-il de diffusion immédiate ou d’éparpillement ? Que craignez-vous ? Quel serait le délai adéquat de l’exclusivité ? Quel serait le bon tempo ?

Sérendipité, le fait de découvrir des choses par accident. (Serendipity. Par Alex Drennan. CC-BY-NC-ND. Source : Flickr)

Le mot « dissémination » n’est certainement pas très beau, mais il exprime une réalité forte à propos du domaine public numérisé. Une fois que des oeuvres anciennes sont mises en ligne, elles acquièrent une valeur d’usage nouvelle qui peut conduire à ce qu’elles voyagent sur la Toile de manière complètement imprévisible.

Lire la suite

Réponses à François Gèze, membre du conseil scientifique du registre ReLIRE

Lundi soir, François Gèze, directeur des Editions La Découverte et membre du comité scientifique du registre ReLIRE institué par l’arrêté du 18 mars 2013, a laissé sous le billet que j’ai consacré à cette affaire un long commentaire, dans lequel il conteste l’exactitude de plusieurs des arguments que j’avance. Il défend par ailleurs le dispositif mis en place par la loi du 1er mars 2012 sur l’exploitation numérique des livres indisponibles du XXème siècle, à la conception duquel il a participé.

S’agissant d’une affaire dans laquelle on a pu déplorer un constant  manque de transparence, y compris lors du vote de la loi au Parlement, je tiens à saluer ce geste de François Gèze, d’autant plus qu’un échange intéressant avec d’autres personnes a pu s’installer par la suite dans les commentaires du billet. Malgré la vigueur des critiques qui se sont exprimées contre le dispositif ReLIRE, les parties prenantes officielles n’ont pour l’instant pas engagé de débat réel. Il faut donc créditer François Gèze d’avoir pris sur lui le faire loyalement ici, alors que rien ne l’y obligeait.

Néanmoins, je tiens à répondre dans le détail à ces observations, car les commentaires de François Gèze comportent des erreurs manifestes, portant sur les termes mêmes de  la  loi, qu’on peut juger inquiétantes s’agissant d’un des membres du comité scientifique du Registre. Par ailleurs, François Gèze apporte des éléments d’informations concernant la constitution de la base ReLIRE qui confirment certaines des craintes que je nourrissais, notamment sur le fait que certains éditeurs auraient pu bénéficier d’un opt-in à la place de l’opt-out prévu par la loi.

Les commentaires de François Gèze figurent ci-dessous en bleu, suite aux passages de mon billet en noir. J’inclus également des commentaires laissés par d’autres personnes sous ce billet, qui peuvent apporter des éléments intéressants à la discussion.

A chacun de se faire une opinion concernant l’exactitude et la pertinence des arguments échangés. Lire la suite

De la loi sur les indisponibles au registre ReLIRE : la blessure, l’insulte et la réaction en marche

Tous les acteurs impliqués dans le dossier de la numérisation des livres indisponibles voulaient que l’ouverture du registre ReLIRE au moment du Salon du Livre constitue une célébration, mais cette petite fête risque bien d’être gâchée, tant les réactions d’indignation se multiplient à l’encontre du dispositif mis en place.

Au vu des dispositions fixées par la loi et précisées dans le décret d’application, on savait déjà qu’un déséquilibre patent avait été instauré dans ce système au bénéfice des éditeurs et au détriment des auteurs. Mais on aurait tout de même pu penser que la base ReLIRE serait conçue de manière suffisamment rigoureuse pour faciliter la possibilité de retrait volontaire que la loi a prévu dans les six mois après l’inscription d’un livre au registre (opt-out).

Une affiche de mai 68 conservée à la BnF, qui prend une saveur particulière depuis la mise en ligne de la base ReLIRE...
Une affiche de mai 68 conservée à la BnF, qui prend une saveur particulière depuis la mise en ligne de la base ReLIRE…

Non seulement il n’en est rien, mais le registre ReLIRE contient des erreurs lourdes, épaisses et manifestes, dont on se demande comment elles ont pu seulement être commises.

Lire la suite

Tout un symbole : le fameux « Bibliothécaire » d’Arcimboldo sous Public Domain Mark

C’est sans doute l’une des représentations les plus célèbres du métier de bibliothécaire, que celle réalisée par le peintre Arcimboldo pour l’Empereur Maximillien II. Toutes les personnes qui exercent cette profession (et moi le premier !) ont dû éprouver une certaine fascination pour cette image…

biblio
Le Bibliothécaire. Par Arcimboldo. Domaine public.

L’original de ce tableau est conservé actuellement au Château Skokloster en Suède et j’ai eu l’excellente surprise de constater qu’une version numérisée en haute définition avait été mise en ligne sous Public Domain Mark.

arcim
Sous le portrait, la Public Domain Mark.

Cela signifie que l’établissement certifie que l’oeuvre appartient bien au domaine public et choisit de la diffuser sans ajouter de nouvelles couches de droits, en respectant son intégrité juridique. Lire la suite

Du domaine public comme fondement du revenu de base (et réciproquement ?)

J’ai déjà eu l’occasion de parler récemment du revenu de base, dans un billet consacré à la rémunération des amateurs, mais je voudrais aborder à nouveau la question en lien avec un autre sujet qui m’importe : le domaine public.

A priori, il semble difficile de trouver un rapport entre le revenu de base et le domaine public, au sens de la propriété intellectuelle – à savoir l’ensemble des créations qui ne sont plus ou n’ont jamais été protégées par le droit d’auteur.

Revenu de base, revenu de vie, revenu inconditionnel, dividende universel, salaire à vie, etc : ces différentes appellations renvoient (d’après Wikipedia) au concept d’un « revenu versé par une communauté politique à tous ses membres, sur une base individuelle, sans contrôle des ressources ni exigence de contrepartie« , tout au long de leur existence. La mise en oeuvre d’un tel projet est susceptible d’entraîner des transformations très profondes du système économique, parce qu’il déconnecte le revenu et l’emploi. Elle modifierait notamment notre rapport au « temps libre » (otium), en augmentant notre capacité à nous consacrer bénévolement aux tâches qui nous semblent en valoir la peine.

Human reasons to work by freeworldcharter.org

L’idée peut paraître doucement utopique, mais la présentation ci-dessous par Stanislas Jourdan, un des militants français les plus actifs en faveur du revenu de base, vous permettra de mieux vous familiariser avec ce concept, ainsi qu’avec ses différentes modalités concrètes de mise en pratique. Vous verrez qu’il possède une longue histoire et qu’il est défendu par de nombreux acteurs, de tous bords politiques.

Lire la suite