Accord Google/Hachette : zone grise/zone rouge/zone verte

Michèle Battisti a écrit sur son blog Paralipomènes un remarquable billet de synthèse à propos de l’accord passé entre le groupe Hachette et Google pour la numérisation de 40 à 50 000 oeuvres épuisées. Je vous recommande chaudement cette lecture qui permet de remettre en perspective cet évènement retentissant et d’en cerner les tenants et les aboutissants. Je vais d’ailleurs faire dans ce billet comme si vous l’aviez lu pour mieux vous inciter à filer tout droit là-bas !

[…]

Voilà, vous l’avez lu. Et vous êtes revenus ! Grand merci.

Je partage tous les traits de l’analyse de Michèle mais je voudrais ajouter quelques mots pour évoquer d’une manière différente les conséquences possibles de cet accord, ainsi que les enjeux de la question des oeuvres épuisées.

On pourrait les évoquer par le biais d’un petit exercice de chromatisme juridique… ou d’alchimie : oeuvres au gris, oeuvres au rouge et oeuvres au vert. Je m’explique.

L’arrangement entre Google et Hachette va permettre sortir les oeuvres épuisées de la zone grise dans laquelle elles demeuraient engluées depuis des années pour les transférer dans ce que j’appellerai la zone rouge : la catégorie des oeuvres activement exploitées. Mais en opérant cette transmutation (qui relève à plus d’un égard d’un tour de passe-passe), l’accord affaiblit l’espoir de voir se mettre en place une zone verte, c’est-à-dire une frange d’oeuvres pour lesquelles un nouvel équilibre aurait été pensé entre la protection et l’accès, notamment dans un cadre collectif. Et c’est d’autant plus regrettable qu’on commençait peut-être à voir poindre un petit bout de cette zone verte en France, dans le cadre du projet gouvernemental de numérisation des oeuvres épuisées par le biais du Grand Emprunt.

Mais pas si vite : tout commence dans la zone grise.

La zone grise, une pathologie du droit d’auteur ?

Cendres. Par kReEsTaL. CC-BY-NC-ND. Source : Flickr

Le droit d’auteur depuis quelques temps est gravement malade et cette maladie se signale par certains symptômes comme la prolifération des oeuvres orphelines. L’oeuvre épuisée en est un autre, prenant la forme d’un hiatus entre la situation économique réelle d’une oeuvre et son statut juridique formel. Si l’on veut bien regarder la réalité économique en face, on se rendra compte que seule une faible part des oeuvres créées sont commercialisées sur de longues périodes et génèrent des revenus sur la durée. La grande majorité des oeuvres disparaissent en quelques années des circuits commerciaux, mais demeurent protégées par le droit d’auteur durant des décennies encore.  Pour protéger une minorité d’oeuvres à longue durée de vie économique, on maintient sous la glace juridique l’intégralité de la création et le monopole exclusif exclusif des titulaires de droits empêche le public d’accéder et d’utiliser les oeuvres, y compris pour des motifs légitimes (usage pédagogique ou de recherche, usage non-commercial, création de nouvelles oeuvres).

Cet état pathologique du statut juridique de la création, rien ne l’a mieux mis en lumière que le projet Google Books. En allant puiser dans les fonds de grandes bibliothèques américaines sans s’arrêter à la barrière du droit d’auteur, Google a produit une sorte de photographie de l’immensité de la zone grise des oeuvres épuisées. C’est ce que l’on voit sur le schéma ci-dessous que j’ai extrait d’une présentation donnée par Lawrence Lessig sur le Règlement Google Books. Les ouvrages épuisés représenteraient 75% du contenu de la base, contre 16% oeuvres appartenant au domaine public et seulement 9% d’ouvrages toujours disponibles à la vente.

Cette part écrasante de la zone grise, on la retrouve aussi de ce côté-ci de l’Atlantique, au pays de Beaumarchais.  La page d’accueil de la base Electre nous dit d’emblée que sur 1,2 millions de notices qu’elle contient, on compte 500 000 épuisés (et seulement 14 000 à paraître), soit 42% d’oeuvres en zone grise. Mais Electre ne remonte guère au-delà des années 80 et la proportion d’oeuvres épuisées est certainement beaucoup plus forte lorsque l’on prend en compte l’ensemble des ouvrages publiés au XXème siècle. Le groupe Hachette lui-même, dans la communication faite après l’annonce de l’accord estime que 70%  de son fonds est constitué par des ouvrages épuisés.

La zone grise n’est donc pas une exception ; c’est bien la règle statistique. Mais la règle juridique est aveugle à cet état de fait. Les juges français l’ont bien montré l’année dernière en condamnant Google pour contrefaçon dans son procès contre La Martinière, sans distinguer si les oeuvres en cause étaient épuisées ou non. A vrai dire, à la lettre du droit français, ils ne pouvaient pas à le faire.

Dans le droit américain, c’est chose différente, car la notion de fair use (usage équitable) admet que l’on puisse faire usage d’une oeuvre, sous certaines conditions, dans la mesure où l’on ne menace pas la possibilité de l’exploiter. C’est derrière cette notion que Google cherchait protection pour légitimer son système d’opt-out. Venez à moi, demandez le retrait de vos ouvrages de Google Books et vous serez exaucés. C’est aussi ce principe que le Règlement conclu par Google avec les auteurs et éditeurs américains voulait entériner pour les oeuvres épuisées. Et l’on a bien cru que cela allait se produire l’année dernière, avant que le Règlement ne disparaisse quelque part dans les limbes procédurales insondables de la justice américaine…

En attendant, aux Etats-Unis comme en France (et partout dans le monde, à vrai dire), restait à vif la pathologie juridique de la zone grise. L’accord Google/Hachette pourrait bien marquer le commencement d’une résorption de la zone grise et sa transformation en zone rouge, mais il n’est pas assuré que cette dernière sera moins maladive !

La zone rouge sera-t-elle moins pathologique ?

Le problème posée par les oeuvres épuisées provient essentiellement du fait que les titulaires de droits n’ont pas les moyens d’exploiter par eux-mêmes leur propre catalogue. Leurs capacités financières limitées les poussent à se concentrer sur les nouveautés et une part seulement réduite de leur fonds. En faisant affaire avec Google, Hachette se tourne vers un acteur qui dispose de capacités financières sans commune mesure et qui raisonne surtout selon une autre logique de la rentabilité économique.

Il s’ensuit un passage « en bloc » de toute la zone grise de l’éditeur vers la zone rouge des oeuvres commercialisées, mais il serait faux de croire que l’accès sous forme numérique suffira à redonner une valeur commerciale incandescente à des ouvrages anciens. Bien sûr, certaines oeuvres pourront connaître à l’occasion de leur migration numérique une renaissance commerciale, mais l’effet de Longue traîne ne suffira pas pour transformer le plomb en or…

Braises. Par guigui671. CC-BY-NC-SA. Source : Flickr

Du coup, il ne faut pas se laisser abuser par cette zone grise, habilement fardée de rouge par Google : son principal attrait n’est peut-être pas commercial, mais stratégique. J’avais été frappé de lire cette phrase dans le premier commentaire sur lequel je suis tombé à propos de l’accord Hachette/Google :

Cet accord a une portée économique assez faible, puisque la vente d’ouvrages épuisés représente un chiffre d’affaires potentiel faible. En revanche, l’accord a une forte portée symbolique.

Françoise Benhamou le dit elle aussi de son côté :

Les gains financiers ne seront pas très élevés. Les enjeux sont ailleurs. Ce sont les suites de cet accord et la manière dont il en enclenchera d’autres, soit entre Hachette et Google, soit avec d’autres partenaires, qui devront être regardées de près.

Ce symbole (ou encore une fois ce symptôme) est à mon sens avant tout celui d’un état de crise, qui oppose de manière larvée éditeurs et auteurs, depuis l’irruption du numérique. Périodiquement, des voix s’élèvent ainsi parmi les auteurs pour réclamer une redéfinition du pacte éditorial,  sans parvenir pour l’instant à se faire entendre. C’est le cas des auteurs de BD du SNAC qui demande depuis 2008 déjà à ce que les droits d’exploitation numérique des oeuvres soient nettement distingués des droits de papier. On a peut-être oublié également un peu vite qu’en avril dernier les négociations se sont rompues entre le SGDL et le SNE, à propos de la définition d’un accord a minima sur les droits numériques. Manifestation stridente de cette volonté des éditeurs de rester maîtres du jeu numérique, une pétition du SNE lancée en septembre dernier n’hésitait pas à affirmer que « les droits électroniques sont des droits principaux au même titre que les droits de l’édition papier dont l’exploitation revient naturellement à l’éditeur » (en violation, soit dit en passant, d’un des articles les plus importants du Code de la Propriété Intellectuelle sur les cessions de droits).

N’est-ce pas suffisant pour montrer que le rouge de la zone numérique est aussi celui d’un conflit qui oppose peut-être moins profondément à présent Google aux éditeurs que ces derniers aux premiers maillons de la chaîne du livre ? Or les oeuvres épuisées constituent peut-être le front le plus sensible de cette lutte et celle qui faisait courir le plus de risques aux éditeurs de voir un jour leur échapper les droits numériques. Car le Code (et Michèle l’explique très bien dans son billet) prévoit que les contrats d’édition ne tiennent qu’aussi longtemps que les éditeurs assurent une exploitation permanente et suivie des oeuvres. C’est l’une des clauses  justement du Pacte éditorial : l’auteur cède ses droits à l’éditeur, à condition que celui-ci exploite effectivement son oeuvre et lui garantisse une diffusion commerciale. Du moins est-ce l’esprit du Code, car à la lettre, les choses ne sont pas aussi simples. Le législateur a choisi de faire peser la charge de la preuve de l’épuisement sur l’auteur et c’est lui qui doit s’acquitter d’obligations procédurales compliquées pour obtenir la résiliation du contrat. Dans la pratique, très peu d’auteurs se lancent dans de telles démarches et les droits restent aux éditeurs, malgré les principes affichés dans le Code.

Pour un groupe comme Hachette, numériser et faire commercialiser par Google l’ensemble de son fonds d’épuisées est quelque part une sacrée aubaine : une fois disponible sous forme numérique, l’épuisement n’a plus vraiment de sens et les droits peuvent demeurer en la possession de l’éditeur de façon quasi perpétuelle… On comprend que la SGDL recommande la plus grande prudence aux auteurs vis-à-vis de cet accord.

Pour autant, d’un certain point de vue, la position d’Hachette pourrait elle aussi s’avérer relativement fragile. L’accord négocié porte, semble-t-il, non sur les oeuvres en simple rupture de stock, mais sur celles qui sont définitivement indisponibles, c’est-à-dire totalement épuisées. Et la base Electre sera visiblement mise à contribution pour identifier les livres qui appartiennent à cette catégorie. Cela voudrait donc dire que cette fois, c’est l’éditeur qui reconnaîtra de lui-même l’épuisement, sans passer par le dédale procédural que le Code impose aux auteurs. Certes en droit strict, il faut passer par cet article pour attester de l’épuisement, mais dans l’esprit de la loi, ce que s’apprête à faire Hachette, c’est admettre implicitement que tous les contrats d’édition des oeuvres de son fonds sont… résiliés ! Et déjà, certains auteurs estiment que par le biais de cet accord, l’éditeur est en train de négocier avec Google des droits qu’il ne possède pas (ou plus)…

Vous croyez toujours que la zone rouge sera moins pathologique que la zone grise ?

Quel espoir pour la zone verte ?

Michèle Battisti le rappelle également dans son billet : l’idée de renégocier l’équilibre entre la protection et l’accès à propos des oeuvres épuisées a plusieurs fois été avancée (en France dès 2005 par le biais du rapport Stasse, au niveau européen par la Commission et le High Level Expert Group chargé de réfléchir au développement d’Europeana). Et chaque fois, il est intéressant de constater que les bibliothèques publiques étaient placées au coeur de ce processus de rééquilibrage.

Car après tout, les oeuvres épuisées posent aussi une vraie question d’articulation entre l’initiative publique et l’initiative privée. Normalement, dans la tradition française du service public, les personnes publiques ne sont fondées à agir et à mettre en place des services que si l’initiative privée fait défaut pour satisfaire un besoin d’intérêt général. Or c’est exactement ce qui s’est passé pendant des années avec les oeuvres épuisées : les éditeurs n’avaient pas les moyens de numériser et d’exploiter les ouvrages de leurs fonds, quand bien même des motifs d’intérêt général, comme l’accès au savoir ou à la culture, justifiaient qu’un tel accès soit ménagé.

Le problème, c’est que notre Code de Propriété Intellectuelle est relativement aveugle à la notion d’intérêt général, qu’il ne le voit que par le petit bout de la lorgnette des exceptions. Et aucune ne permet aux institutions publiques de numériser des oeuvres épuisées de manière intéressante. Pourtant si l’enjeu commercial des oeuvres épuisées n’est pas déterminant, on aurait dû pouvoir négocier de les faire passer de la zone grise à une zone verte, permettant certaines formes d’usages, notamment dans un cadre collectif, comme l’enseignement, la recherche ou l’usage en bibliothèque, en contrepartie d’une rémunération équitable.

Drought. Par IRRI Images. CC-BY. Source : Flickr

Certainement la volonté politique a manqué pendant des années pour oser favoriser l’émergence de cette zone verte. En témoigne le fait par exemple que les subventions publiques très substantielles versées par le CNL pour aider les éditeurs à numériser leur fond l’on toujours été sans exiger de réelles contreparties sous forme d’accès public.

Finalement, c’est le grand emprunt, à partir de la fin de l’année dernière, qui a commencé à faire bouger ces lignes. Et elles avaient bougé assez sensiblement dans les projets du Ministère, avant que l’accord entre Google et Hachette n’intervienne. Semblant d’abord se concentrer sur les oeuvres du domaine public, le volet culturel de l’emprunt a connu des fluctuations incessantes de modèle économique, qui ont été remarquablement analysées par Christian Fauré sur son blog. L’obligation de remboursement des sommes avancées pouvait laisser penser que l’emprunt ne ferait pas autre chose au fond que Google : faire passer les oeuvres de la zone grise à la zone rouge, en les recommercialisant.

Mais début octobre, on a vu dans le discours ministériel poindre quelques notes de verdure assez surprenantes, qui attestaient que la question des usages collectifs des oeuvres numérisées commençait à être sérieusement prise en compte.

Le forum SGDL des 13 et 14 octobre dernier, consacré à la gestion collective de l’écrit, a été l’occasion d’en apprendre plus sur les projets gouvernementaux. Dans l’article de Livres hebdo papier, intitulé »A la recherche de l’oeuvre indisponible », on apprend que ce projet allait jusqu’à envisager de modifier le CPI, pour « introduire une dispense de demande d’autorisation de numérisation pour un corpus dont le périmètre est en discussion entre ministère, éditeurs et auteurs« , ce qui s’apparente ni plus ni moins à une licence légale ! Le projet aurait porté sur quelques 400 000 oeuvres indisponibles du 20ème siècle et il était envisagé de recourir à un mécanisme de gestion collective pour « les utilisations numériques des œuvres à des fins pédagogiques » ou encore « l’exploitation d’offres groupées d’oeuvres sous droits dans le cadre d’offres auprès des bibliothèques« .

Autant dire qu’on était très proche en définitive de ce que j’appelle la zone verte…

Pourtant, toujours d’après Livres Hebdo, si les auteurs paraissaient intéressés par ce projet, les éditeurs montraient leur réticence, si ce n’est leur franche opposition.

Et un mois plus tard, le premier d’entre eux, Hachette, signe avec Google et porte un coup sévère à cette alternative publique. Google est certes assez effrayant, mais dans le cadre de l’accord conclu avec lui, plus question de zone verte, uniquement de la zone bien rouge. Il est certes annoncé qu’un exemplaire des fichiers pourrait être remis par Hachette à la BnF, mais on peut lire ailleurs que ces fichiers ne pourraient être consultés ni gratuitement, ni intégralement par les utilisateurs. Vert très très pâle…

Et si cela avait été une motivation de plus pour se rapprocher de Google, car c’est finalement le Ministère qui se faisait plus progressiste que la firme californienne (quelle époque !).

Conclusion : retour à la case grisaille ?

Hier, Frédéric Mitterrand se prononçait en faveur d’un accord global entre Google et les éditeurs français, tout en réaffirmant sa volonté de faire avancer le projet de numérisation des oeuvres épuisées dans le cadre du Grand Emprunt. On voit mal comment on peut courir ces deux lièvres politiques à la fois… Que restera-t-il à numériser si tous les éditeurs font accord avec Google ? Renumérisera-t-on des épuisés déjà numérisés par Google ? Hum..

Peut-être reste-t-il une marge de négociation sur l’usage qui pourra être fait des fichiers remis par Google aux éditeurs, mais l’espoir semble assez mince…

Finalement pour retrouver cette idée de zone verte, peut-être faut-il à nouveau franchir l’Atlantique pour la lire sous la plume de Robert Darnton dans son article paru la semaine dernière dans le New York Review of Books. Le directeur des bibliotèques d’Harvard appelle à la mise en place d’une alternative publique à Google Books qu’il baptise Digital Public Library of America (DPLA) : a digital library composed of virtually all the books in our greatest research libraries available free of charge to the entire citizenry, in fact, to everyone in the world ?

Et son objectif consiste bien à ménager un accès public à la zone grise des oeuvres épuisées : « The greatest obstacle is legal, not financial. Presumably, the DPLA would exclude books currently being marketed, but it would include millions of books that are out of print yet covered by copyright […]. Congress would have to pass legislation to protect the DPLA from litigation concerning copyrighted, out-of-print books. The rights holders of those books would have to be compensated, yet many of them, especially among academic authors, might be willing to forgo compensation in order to give their books new life and greater diffusion in digitized form ».

On est finalement très proche de ce qui était envisagé dans le cadre du grand emprunt, et Darnton fait même explicitement référence à la France !

Nul n’est prophète en son pays…


15 réflexions sur “Accord Google/Hachette : zone grise/zone rouge/zone verte

  1. Passionnant billet comme d’habitude! François bon rappelle dans ce billet que les éditeurs ont une vision trés intéressée de la conservation de leur propres fonds : « pour qu’un auteur récupère ses droits, il doit prouver que l’éditeur n’en assume plus la distribution. Il suffit à l’éditeur d’en garder soixante, et il aura de quoi longtemps prouver que l’ouvrage est toujours disponible même si hors vente depuis longtemps : sait-on jamais, une mort prématurée, un prix Nobel » voilà une pratique qui me semble contradictoire avec ce que tu dis de la fragilité de l’accord coté hachette…. En tout cas, hachette a annoncé qu’il allait contacter les auteurs je suis curieux de savoir ce qu’il va leur proposer.

    Je pense pour ma part que le ministère doit d’urgence négocier avec google et faire valoir dans un accord plus global avec les éditeurs que les usages collectifs sont à prendre en compte pour toute numérisation. C’est d’une volonté politique (elle existe) et de poids dans la négociation dont les bibliothèques ont besoin pour faire passer au vert !

    1. Hachette va certainement contacter ses auteurs pour leur faire signer des avenants de cession des droits numériques. Le genre de chose écrit à lire avec beaucoup d’attention…

      Ce qu’il serait très intéressant de savoir, c’est si l’éditeur va demander à ses auteurs une cession pour toute la durée de la propriété intellectuelle (vie de l’auteur + 70 ans), comme c’est l’usage dans le papier. La SGDL milite de son côté pour des cessions limitée dans le temps. Comme la notion d’épuisement perd de son sens avec le numérique, c’est là que les auteurs peuvent en arriver à céder leurs droits de façon perpétuelle… et c’est ainsi que l’ancien pacte éditorial serait reconduit à l’identique, alors que le numérique pourrait être l’occasion de sa réinvention.

      Finalement, je me dis que pour un éditeur, passé la première frayeur, Google doit avoir quelque chose de rassurant. Avec Google Books, on reste dans du bon vieux livre homothétique, en noir et blanc. Et avec l’abandon de l’opt-out, on reconduit finalement le système des droits à l’identique.

      On a dit que cet accord représentait un revirement important pour Google. Pas tellement en fait, car il y a de fortes chances qu’une partie significative des épuisés ait déjà été numérisés par Google à partir des fonds des bibliothèques américaines. Pour ces ouvrages, il n’y a plus qu’à appuyer sur un bouton… Vu l’avance que Google a pu prendre grâce à son opt-out, il peut à présent se permettre de l’abandonner. L’avantage concurrentiel est déjà pris.

      Pour ce qui est des usages collectifs, je suis d’accord avec toi sur la nécessité d’un engagement politique fort. Sur cette affaire de l’emprunt, ce que l’on peut regretter, c’est la très grande opacité qui a entouré le projet et les fluctuations de cap incessantes. Ministère, auteurs et éditeurs étaient ensemble au Forum SGDL pour parler de la gestion collective, mais aucun représentant des bibliothèques n’était là…

      Si l’on doit plaider pour que les usages collectifs soient pris en compte dans le futur accord éditeurs/Google qui se dessine, je dirai de manière surprenante que ce n’est pas Google que je redoute le plus. Car dans son projet de règlement américain, Google avait intégré la dimension collective et l’usage en bibliothèque. Il était même allé jusqu’à permettre l’accès à l’intégralité de sa base sur place dans TOUTES les bibliothèques publiques américaines sur un poste.

      C’est symbolique, mais ce n’est pas rien quand même.

      Je trouverais en tout cas très dommageable qu’un accord global avec Google enterre complètement cette ébauche de débat sur les usages collectifs.

  2. « les subventions publiques très substantielles versées par le CNL pour aider les éditeurs à numériser leur fond l’on toujours été sans exiger de réelles contreparties sous forme d’accès public. » : hum, les deux obligations ( dépôt métadonnées et textes à BNF + choix d’un e-distributeur) donnent un cadre assez précis et impliquent une mise à disposition réelle. Seule la question d’un monopole via un edistribteur pourrait trouver écho à cette remarque

    1. Non pour moi, ces contreparties sont très insuffisantes, surtout quand on voit que l’aide versée aux éditeurs peut atteindre 66% !

      Le modèle des e-distributeurs est presque exclusivement tourné vers le B to C, ce qui maintient les livres numérisés avec l’aide du CNL dans la zone rouge.

      On aurait pu au moins imaginer que cette aide ait pour contrepartie la nécessité d’intégrer les ouvrages dans des bouquets auxquels les bibliothèques auraient pu s’abonner, mais ce n’est même pas le cas. On en reste à la bonne volonté des titulaires de mettre en place une offre en B to B ou pas.

      Le rapport Zelnik contenait une proposition intéressante. Il avait suggéré que les ouvrages numérisés grâce à l’aide publique puisse faire l’objet d’usages pédagogiques et de recherche élargis. C’était une bonne proposition dont on n’a malheureusement jamais plus entendu parler (pas comme la taxe Google…).

      Voilà ce que j’appelle la zone verte, pour en finir avec ce rouge intégral !

  3. Oui,le monde de l’édition est devenu fou quelque part en ce moment. Mais quel ministre libéral lui fera entendre raison ?
    Misons plutôt sur les lecteurs, non ?

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.