Numérisation : la grande manoeuvre des indisporphelines

L’IABD (Interassociation Archives Bibliothèques Documentation) a publié jeudi un communiqué par lequel elle prend position sur la question de la numérisation des livres indisponibles et orphelins, qui font actuellement l’objet d’une proposition de loi déposée le mois dernier au Sénat et cette semaine à l’Assemblée.

Cette proposition intervient dans un contexte passablement complexe et mouvant, comme le rappelle le début du communiqué :

Il s’agit notamment de l’accord-cadre relatif à la numérisation et l’exploitation des livres indisponibles du XXe siècle, accord non rendu public signé le 1er février 2011 par le ministère de la Culture, le Syndicat national de l’édition (SNE), la Bibliothèque nationale de France (BnF) et la Société des gens de lettres (SGDL), et d’une proposition de loi sénatoriale déposée le 21 octobre 2011 qui transpose cet accord.  Il s’agit, par ailleurs, d’une proposition de directive européenne sur certaines utilisations autorisées des œuvres orphelines publiée le 24 mai 2011, objet d’une proposition de résolution européenne du Sénat le 6 juillet 2011, et d’un nouvel avis du Conseil supérieur de la propriété littéraire et artistique (CSPLA), qui devrait être publié officiellement en ce mois de novembre 2011.

Numerama a déjà produit une analyse critique de ce texte, estimant qu’elle tendrait à mettre en place une sorte de « gestion SACEM » dans le domaine des livres indisponibles, susceptibles de léser les auteurs, et le site Les Infostratèges va plus loin en évoquant la création d’une « usine à gaz technocratique dont la France a le secret« , doublée d’une « proposition attentatoire aux droits de l’homme« . Le décor est planté !

Cette proposition de loi s’apprête à créer de véritables chimères juridiques, les « indisporphelines », et un système de gestion collective susceptible d’avoir d’importantes répercussions sur les auteurs et les bibliothèques. (Jérôme Bosch. L’enfer du musicien – détail. Domaine public)

L’ombre de Google plane aussi sur ce projet, avec son programme Google Books condamné par la justice française en 2009 et mis en grande difficulté aux Etats-Unis, mais  paradoxalement parvenu à conclure des accords avec plusieurs grands éditeurs français pour la numérisation et la commercialisation de leurs livres indisponibles (Hachette, La Martinière, bientôt Gallimard, Flammarion, Albin Michel, un jour Editis ?).

Google avait déjà tenté par le biais des versions successives du Google Books Settlement d’obtenir le droit de numériser et de commercialiser les livres épuisés, en laissant seulement aux titulaires de droits – auteurs et éditeurs – la possibilité de retirer leurs ouvrages du système (mécanisme dit de l’opt-out, à opposer à l’opt-in impliquant un consentement explicite du titulaire de droits). Mais c’est précisément ce mécanisme d’opt-out qui a été considéré par le juge Denny Chinn attentatoire aux fondements même du droit d’auteur et rejeté.

La proposition de loi déposée devant les assemblées se pose donc explicitement comme une alternative aux agissements de Google, en instaurant un nouveau système de gestion collective pour exploiter le « trou noir du XXème siècle », estimé à 500 000 livres  indisponibles dans le commerce (sans doute beaucoup plus en fait).

Pour que l’information soit complète, il est indispensable de rapprocher cette proposition d’annonces gouvernementales antérieures, indiquant que la Bibliothèque nationale de France numériserait 500 000 oeuvres épuisées tirées de ses collections, grâce à un financement tiré des Investissements d’avenir du Grand Emprunt. Ni le texte de la proposition de la loi, ni l’exposé de ses motifs ne font le lien entre ses deux aspects de la question, mais il est bien évident que cette loi n’est que la condition de possibilité du projet de numérisation, passant par la BnF et impliquant nécessairement un partenariat public-privé pour rentabiliser les investissements par le biais d’une commercialisation des ouvrages numérisés.

Dans ce billet, je voudrais procéder à une analyse critique de cette proposition, en montrant que loin de constituer une alternative au projet Google Books, il repose sur un mécanisme identique d’opt-out, susceptible de soulever des problèmes similaires.

Par ailleurs, ce texte va aboutir mécaniquement à la création d’une véritable chimère juridique, dans la mesure où il va englober parmi les indisponibles une masse considérable d’oeuvres orphelines, pour lesquelles on ne connaît ou ne peut retrouver les titulaires de droits. Ces « indisporphelines » ou « orphindisponibles » sont susceptibles d’avoir des répercussions importantes, à la fois sur les auteurs et sur les bibliothèques.

Enfin, malgré ces critiques, j’essaierai d’estimer si ce projet peut avoir un effet positif sur le développement des usages collectifs des livres épuisés. J’avais déjà écrit à ce sujet que l’un des enjeux majeurs du traitement de la »zone grise » consistait à savoir si l’on procéderait simplement à une recommercialisation en bloc des épuisés ou si l’on rechercherait de nouvelles formes d’équilibre, élargissant les droits d’usage dans une zone où les enjeux commerciaux sont moindres.

En définitive, on verra que cette proposition aurait pu constituer un support intéressant pour favoriser les usages collectifs (accès en bibliothèque, usages pédagogiques et de recherche, etc), mais que cette dimension est à l’heure actuelle absente du texte et qu’on peut sérieusement craindre qu’elle n’y figure jamais, vu l’esprit dans lequel il a été conçu.

Lire la suite

Ce que révèle l’accord entre Google Books et la British Library

Cette semaine a été dominée par l’annonce de la signature d’un accord entre Google et l’éditeur La Martinière pour la numérisation des oeuvres épuisées, mettant fin  à plus de cinq années de poursuites devant les tribunaux français (j’écrirai sans doute à ce sujet dans les jours qui viennent).

Mais une autre information de premier plan a été révélée à propos de Google Books mardi dernier, qui n’a pas rencontré beaucoup d’écho en France : le contrat signé par la British Library en juin dernier  avec Google pour la numérisation de 250 000 livres appartenant au domaine public a été rendu public, suite à l’action de l’association anglaise Open Rights Group.

British Library. Par failing_angel. Cc-BY-NC-SA. Source Flickr.

Comme à son habitude, Google avait exigé que cet accord soit gardé confidentiel et la British Library avait accepté cette clause, mais l’Open Rights Group a pu faire jouer les lois anglaises sur la transparence administrative, tout comme le magazine Livres Hebdo en France avait saisi la CADA en 2009 pour obtenir communication de l’accord entre Google et la Ville de Lyon.

Vous pouvez désormais consulter ce contrat ici.

Lire la suite

Coup dur pour Google Books : bye bye l’opt-out…

Suite au rejet du règlement Google Books par le juge Chin en mars dernier, une conférence de mise en état était organisée hier à New York de manière à ce que les parties puissent faire connaître leurs intentions concernant la suite de cette affaire.

Comme l’indique James Grimmelmann sur son blog, une information décisive a été révélée lors de l’audience, puisqu’il semblerait que les parties s’acheminent vers un abandon de l’opt-out et travaillent à présent à la mise au point d’un nouveau règlement impliquant l’accord explicite des titulaires de droits (opt-in).

Parmi toutes les possibilités encore ouvertes, Google a finalement choisi la voie de l'opt-in (de la sagesse ?)

Lire la suite

Tout est dans tout (y compris Google Books dans Europeana…)

La semaine dernière, lors du congrès annuel de LIBER (l’association des bibliothèques de recherche européennes) a été lancé un nouveau programme Europeana libraries, qui pourrait entraîner un changement de nature décisif  pour la bibliothèque numérique européenne.

Mais ce qui m’a le plus frappé, en lisant ces annonces, c’est de constater que ce programme va visiblement permettre à certaines bibliothèques européennes, partenaires de Google pour la numérisation de leurs collections, de donner  à Europeana les doubles des fichiers numériques remis par la firme , afin qu’elle les diffuse elle-même.

En cela, Europeana évoluerait vers un modèle proche de celui d’Hathi Trust aux Etats-Unis, cet entrepôt numérique collaboratif des grandes bibliothèques de recherche, qui recueille les fichiers numériques produits par Google afin d’en assurer la préservation à long terme.

Explication… entre les lignes !

Lire la suite

Accord Google/Bibliothèque de Lyon : l’Autorité de la concurrence se prononce et Google… renonce aux exclusivités !

Nouveau rebondissement dans une affaire qui n’en a pas manqué pourtant jusqu’à présent…

Saisie en février dernier pour avis par Christine Lagarde, l’Autorité de la Concurrence a remis mardi un rapport public concernant Google et ses pratiques publicitaires, afin d’établir s’il n’occupait pas une position dominante. Au terme d’une analyse détaillé, l’Autorité conclut que : « Google dispose à ce jour d’une position fortement dominante sur le marché de la publicité liée aux moteurs de recherche« , sans ouvrir néanmoins d’enquête, estimant que la Commission européenne est mieux placée pour le faire.

Parmi les 14 motifs de préoccupation listés par l’Autorité de la Concurrence pour parvenir à cette conclusion, on trouve la question des accords signés par Google avec des bibliothèques pour la numérisation de leur fonds, en particulier parce qu’ils sont assortis de clauses d’exclusivité qui peuvent concourir à renforcer cette position dominante. C’est le cas notamment l’accord de numérisation conclu en juillet 2008 entre la Bibliothèque de Lyon et Google, auquel le rapport consacre plusieurs développements.

On y apprend des précisions importantes à propos de la portée de ses exclusivités, mais surtout, il semblerait que Google, au cours de l’instruction a produit des pièces indiquant qu’il… renoncerait, contre toutes attentes, à ces exclusivités !

Devil's Contract. Par Marioanima. CC-BY. Source : Flickr

Lire la suite

Accord Google/Hachette : zone grise/zone rouge/zone verte

Michèle Battisti a écrit sur son blog Paralipomènes un remarquable billet de synthèse à propos de l’accord passé entre le groupe Hachette et Google pour la numérisation de 40 à 50 000 oeuvres épuisées. Je vous recommande chaudement cette lecture qui permet de remettre en perspective cet évènement retentissant et d’en cerner les tenants et les aboutissants. Je vais d’ailleurs faire dans ce billet comme si vous l’aviez lu pour mieux vous inciter à filer tout droit là-bas !

[…]

Voilà, vous l’avez lu. Et vous êtes revenus ! Grand merci.

Je partage tous les traits de l’analyse de Michèle mais je voudrais ajouter quelques mots pour évoquer d’une manière différente les conséquences possibles de cet accord, ainsi que les enjeux de la question des oeuvres épuisées.

On pourrait les évoquer par le biais d’un petit exercice de chromatisme juridique… ou d’alchimie : oeuvres au gris, oeuvres au rouge et oeuvres au vert. Je m’explique.

L’arrangement entre Google et Hachette va permettre sortir les oeuvres épuisées de la zone grise dans laquelle elles demeuraient engluées depuis des années pour les transférer dans ce que j’appellerai la zone rouge : la catégorie des oeuvres activement exploitées. Mais en opérant cette transmutation (qui relève à plus d’un égard d’un tour de passe-passe), l’accord affaiblit l’espoir de voir se mettre en place une zone verte, c’est-à-dire une frange d’oeuvres pour lesquelles un nouvel équilibre aurait été pensé entre la protection et l’accès, notamment dans un cadre collectif. Et c’est d’autant plus regrettable qu’on commençait peut-être à voir poindre un petit bout de cette zone verte en France, dans le cadre du projet gouvernemental de numérisation des oeuvres épuisées par le biais du Grand Emprunt.

Mais pas si vite : tout commence dans la zone grise.

La zone grise, une pathologie du droit d’auteur ?

Cendres. Par kReEsTaL. CC-BY-NC-ND. Source : Flickr

Le droit d’auteur depuis quelques temps est gravement malade et cette maladie se signale par certains symptômes comme la prolifération des oeuvres orphelines. L’oeuvre épuisée en est un autre, prenant la forme d’un hiatus entre la situation économique réelle d’une oeuvre et son statut juridique formel. Si l’on veut bien regarder la réalité économique en face, on se rendra compte que seule une faible part des oeuvres créées sont commercialisées sur de longues périodes et génèrent des revenus sur la durée. La grande majorité des oeuvres disparaissent en quelques années des circuits commerciaux, mais demeurent protégées par le droit d’auteur durant des décennies encore.  Pour protéger une minorité d’oeuvres à longue durée de vie économique, on maintient sous la glace juridique l’intégralité de la création et le monopole exclusif exclusif des titulaires de droits empêche le public d’accéder et d’utiliser les oeuvres, y compris pour des motifs légitimes (usage pédagogique ou de recherche, usage non-commercial, création de nouvelles oeuvres).

Cet état pathologique du statut juridique de la création, rien ne l’a mieux mis en lumière que le projet Google Books. En allant puiser dans les fonds de grandes bibliothèques américaines sans s’arrêter à la barrière du droit d’auteur, Google a produit une sorte de photographie de l’immensité de la zone grise des oeuvres épuisées. C’est ce que l’on voit sur le schéma ci-dessous que j’ai extrait d’une présentation donnée par Lawrence Lessig sur le Règlement Google Books. Les ouvrages épuisés représenteraient 75% du contenu de la base, contre 16% oeuvres appartenant au domaine public et seulement 9% d’ouvrages toujours disponibles à la vente.

Cette part écrasante de la zone grise, on la retrouve aussi de ce côté-ci de l’Atlantique, au pays de Beaumarchais.  La page d’accueil de la base Electre nous dit d’emblée que sur 1,2 millions de notices qu’elle contient, on compte 500 000 épuisés (et seulement 14 000 à paraître), soit 42% d’oeuvres en zone grise. Mais Electre ne remonte guère au-delà des années 80 et la proportion d’oeuvres épuisées est certainement beaucoup plus forte lorsque l’on prend en compte l’ensemble des ouvrages publiés au XXème siècle. Le groupe Hachette lui-même, dans la communication faite après l’annonce de l’accord estime que 70%  de son fonds est constitué par des ouvrages épuisés.

La zone grise n’est donc pas une exception ; c’est bien la règle statistique. Mais la règle juridique est aveugle à cet état de fait. Les juges français l’ont bien montré l’année dernière en condamnant Google pour contrefaçon dans son procès contre La Martinière, sans distinguer si les oeuvres en cause étaient épuisées ou non. A vrai dire, à la lettre du droit français, ils ne pouvaient pas à le faire.

Dans le droit américain, c’est chose différente, car la notion de fair use (usage équitable) admet que l’on puisse faire usage d’une oeuvre, sous certaines conditions, dans la mesure où l’on ne menace pas la possibilité de l’exploiter. C’est derrière cette notion que Google cherchait protection pour légitimer son système d’opt-out. Venez à moi, demandez le retrait de vos ouvrages de Google Books et vous serez exaucés. C’est aussi ce principe que le Règlement conclu par Google avec les auteurs et éditeurs américains voulait entériner pour les oeuvres épuisées. Et l’on a bien cru que cela allait se produire l’année dernière, avant que le Règlement ne disparaisse quelque part dans les limbes procédurales insondables de la justice américaine…

En attendant, aux Etats-Unis comme en France (et partout dans le monde, à vrai dire), restait à vif la pathologie juridique de la zone grise. L’accord Google/Hachette pourrait bien marquer le commencement d’une résorption de la zone grise et sa transformation en zone rouge, mais il n’est pas assuré que cette dernière sera moins maladive !

Lire la suite

Des « Robins des Bois » libèrent les livres de Google Book sur Internet Archive.

Hier, sous le billet que j’avais consacré cette semaine aux livres du domaine public dans Google Book, un internaute nommé Pablo Iriarte a laissé un très intéressant commentaire, qui m’incite à revenir sur cette question dans un nouveau billet.

Visiblement, les éditeurs ne sont pas les seuls à essayer de récupérer des ouvrages scannés par Google pour les réutiliser à leurs propres fins. Des utilisateurs d’Internet Archive auraient procédé à des téléchargements massifs (900 000 livres !) pour les charger dans Internet Archive, afin qu’ils puissent être débarassés des restrictions d’usage imposées par Google et regagner ainsi pleinement le domaine public.

Ces Robins des Bois exploiteraient une faille des conditions d’utilisation de Google Book. Celles-ci  interdisent en effet d’extraire du contenu de Google Book en procédant à des « requêtes automatisées » (type aspiration de base de données), mais rien n’interdit à une myriade d’individus de venir télécharger quelques ouvrages pour les déposer dans Internet Archive. Google n’a pas la possibilité de les attaquer, pas plus certainement qu’il ne peut agir contre Internet Archive, dans la mesure où le site ne fait qu’héberger des contenus chargés par ces usagers.

Le procédé est très astucieux.

Robin Hood: Men in Tights preview. CC-BY-NC-SA. Source : Flickr.

Lire la suite

Google recherche domaine public désespérément.

L’affaire Google Book paraît au point mort, tant la machine judiciaire américaine semble s’être enlisée dans l’examen du second Règlement, qui devait mettre un terme aux poursuites dont Google faisait l’objet de la part des auteurs et éditeurs. Si ce n’était la parution d’une étude de fond par le professeur Pamela Samuelson « The Google Book Settlement as Copyright Reform« , on pourrait penser que les choses sont redevenues complètement inertes sur ce front.

Pourtant il se passe des choses, mais pour une fois, ce sont moins les livres sous droits qui posent problème à Google que les livres du domaine public. A mesure que le contenu de sa bibliothèque numérique grandit, Google se trouve en effet confronté à un défi de plus en plus complexe pour déterminer si les ouvrages scannés appartiennent ou non au domaine public, afin de savoir s’il peut les diffuser dans leur intégralité ou seulement sous la forme d’extraits.

Le diagnostic juridique est plus simple à effectuer pour les Etats-Unis, car une règle veut que les oeuvres publiées avant 1923 appartiennent automatiquement au domaine public . Mais pour le reste du monde, Google est obligé de composer avec la variété des lois nationales en matière de durée du droit d’auteur et de déterminer l’identité des auteurs sur les ouvrages, ainsi que leurs dates exactes de décès. Comme ces informations sont loin d’être disponibles dans tous les cas, Google a  instauré une règle automatique de protection en bloquant la diffusion des ouvrages publiés après à 1870, quand leur statut juridique est indéterminée.

Des milliers et des milliers de livres doivent ainsi rester « congelés » dans la banquise de l’incertitude juridique et la situation peut même devenir épineuse pour Google lorsqu’il a affaire à des éditeurs un peu malins, qui profitent des lacunes de l’information juridique pour tenter de faire main basse sur le domaine public…

Combien d'ouvrages restent ainsi "gelés" par l'incertitude juridique dans Google Book ? Colorado 2005054. Par Michael (mx5tx). CC-BY. Source : Flickr

Lire la suite

Ex machin@ : le juge et la machine

Par un jugement en date du 8 septembre dernier, le Tribunal de grande instance de Paris a condamné Google pour diffamation, au motif que les termes de recherche associés au nom du plaignant par le biais de la fonctionnalité Google Suggest portaient atteinte à son honneur et à sa réputation. Celui-ci avait lui-même été condamné en justice pour corruption de mineure et c’était les mots « viol », « condamné », « sataniste », « prison » ou encore « voleur » qui étaient suggérés aux utilisateurs de Google en regard de son nom.

Comme le relève Guillaume Champeau dans son l’article sur Numerama, cette décision a de quoi surprendre, car elle considère que l’algorithme du moteur de recherche , qui détermine les termes à afficher en fonction des requêtes tapées par les internautes, s’est rendu coupable d’une diffamation. Quelque part, cela revient  à condamner une machine pour avoir commis un acte typiquement humain…

L’article 29 de la loi sur la liberté de la presse définit la diffamation comme :

Toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération de la personne ou du corps auquel le fait est imputé […]

Google a essayé de se dégager de cette accusation en soulignant le caractère automatique du fonctionnement de son moteur :

[…] l’affichage des expressions litigieuses ne saurait caractériser une allégation diffamatoire n’étant pas le fait de la pensée consciente mais un résultat d’algorithme.

les résultats affichés dépendent d’un algorithme basé sur les requêtes des autres utilisateurs sans aucune intervention humaine ou reclassification de ces résultats par Google.

Sur le fond, le juge partageait cette opinion que la diffamation ne pouvait pas être le fait d’une simple machine, mais il a recherché à travers le fonctionnement de l’algorithme de Google les traces d’une « pensée consciente » dont la présence était nécessaire pour condamner Google.

The Ghost in The Shell, en quelque sorte…

Lire la suite

Accord Google/Bibliothèque nationale d’Autriche : l’art de la transparence opaque

C’est tombé hier : la Bibliothèque nationale d’Autriche a décidé de confier à Google la numérisation de 400 000 ouvrages appartenant au domaine public.

Il s’agit de la dixième bibliothèque européenne à accepter d’ouvrir ses collections à Google et, plus important, de la deuxième bibliothèque nationale à franchir le pas, après la signature en mars dernier des bibliothèques nationales italiennes de Rome et de Florence.

Comme toujours dans ces occasions, la communication de Google et de son partenaire se veut rassurante pour parer à la critique d’un risque d’appropriation du patrimoine par la firme privée. Google s’est fendu d’un commentaire satisfait sur son blog European Public Policy et la Bibliothèque nationale d’Autriche s’est elle aussi exprimée à ce sujet sur son site. Elle a même ouvert un profil Twitter spécialement pour l’occasion…

 »]Résultat immédiat dans les médias qui commentent l’évènement : on s’empresse de répercuter ces propos rassurants, sans les soumettre à la critique :

La dépêche AFP reprise par Le Monde indique :

Le moteur de recherche américain n’aura « aucun monopole » sur les livres numérisés, a indiqué Mme Rachinger [directrice générale de la BN d’Autriche]

Les ouvrages seront accessibles à partir du site de l’ÖNB, de la bibliothèque en ligne Google Books, ainsi que de la bibliothèque européenne Europeana.

Actualitté ajoute :

Histoire de prévenir de toute confusion, la directrice de l’établissement a tenu à assurer que le moteur de recherche ne disposerait d’aucune exclusivité sur les fichiers, une fois les ouvrages transformés en bits. Ils seront consultables sur Google Books et via le site de l’ONB. Qui leur donnera accès ensuite à Europeana.

Le problème, c’est que cette communication habilement orchestrée vise justement à semer la confusion, en donnant de fausses garanties. La transparence affichée laisse persister un voile opaque sur les termes du partenariat, mais en lisant bien entre les lignes, on peut se rendre compte que la réalité est certainement différente de la façade qui nous est présentée et c’est ce que je voudrais prouver ici.

Lire la suite

Hathi Trust et le nouveau pouvoir des auteurs

Hathi Trust, c’est le nom d’un consortium de grandes bibliothèques universitaires américaines qui se sont rassemblées pour créer un gigantesque entrepôt de conservation des livres numérisés. Hébergé par l’Université du Michigan et développé à l’origine par les établissements du Midwest américain, le projet s’est peu à peu étendu à de très grandes bibliothèques comme celles de l’Université de Californie ou de Virginie, et tout récemment à la prestigieuse New York Public Library.

Abritant à ce jour près de 5,6 millions d’ouvrages, Hathi Trust annonce l’objectif d’atteindre les 18 millions de volumes en 2012, ce qui le placerait certainement à une hauteur comparable à Google Books. Les liens entre les deux projets sont d’ailleurs étroits, puisque bon nombre des bibliothèques formant le Hathi Trust sont des partenaires de Google pour la numérisation de leurs fonds (liste ici).

"Hathi" signifie Elephant en sanscrit et c'est le symbole choisi par l'alliance numérique des bibliothèques américaines. (Hathi on the Jungle of Books. Par Rachel Ford James. CC-BY-NC-SA. Source : Flickr)

Google a en effet accepté que plusieurs de ses bibliothèques partenaires aux Etats-Unis puissent se rassembler et verser dans un entrepôt commun les copies numériques qu’il leur remettait. Les objectifs du Hathi Trust sont différents de ceux de Google, dans le mesure où il vise essentiellement à la préservation pérenne des données et c’est certainement cette complémentarité des approches qui a conduit Google à accepter cette concession.

Hathi Trust forme donc à ce jour la seconde bibliothèque numérique au monde après Google Books et comme lui, elle présente la particularité de comporter à la fois des ouvrages du domaine public et des ouvrages encore protégés. En effet, certains membres du trust (Michigan en premier lieu, mais aussi l’université de Virginie) ont accepté que Google numérise dans leurs fonds tous les livres, sans distinguer selon qu’ils étaient protégés ou libre de droits.

Comme Google Books, Hathi Trust ne donne pas accès à ces livres protégés, ou alors seulement de manière restreinte (voyez ici). Néanmoins, le Trust s’est lancé dans des opérations d’envergure visant à contacter les auteurs des ouvrages pour rechercher leur permission pour diffuser les livres protégés, et c’est là une grande différence par rapport à Google Books qui constitue peut-être l’un des aspects les plus intéressants de cette initiative.

Lire la suite

Google Books : érosion ou durcissement de l’opt-out ?

L’opt-out (option de retrait, en bon français) est au coeur de la stratégie que Google a mis sur pied dans le cadre de son programme de numérisation des livres. On pourrait même dire qu’il s’agit du principe qui paraît marquer la limite des concessions que Google est prêt à accepter pour sauvegarder son projet et lui faire passer l’épreuve du feu juridique.

Pourtant, discrètement, sur certains fronts, on constate que Google lâche parfois du lest sur ce terrain, ce qui peut paraître assez surprenant. Au mois de janvier dernier, il l’a fait une première fois en Chine, en acceptant de fournir une liste des ouvrages des auteurs chinois numérisés dans Google Books. Et voici qu’une étonnante lettre circulaire de la Fédération Internationale des Journalistes (FIJ) en date du 28 avril 2010 nous apprend que :

Google a accepté de fournir à la FIJ la liste des ouvrages publiés avant le 5 mai 2009.

Pourquoi cette fourniture volontaire par Google de listes d’ouvrages aux titulaires est importante et en quoi fragilise-t-elle le principe de l’opt-out ? Il faut prendre un peu de recul pour bien le comprendre.

Opt-in ou Opt-out ? C'est la question que pose Google Books à tous les auteurs et éditeurs. (Road Sign. Par Freefotouk. CC-BY-NC. Source : Flickr

Lire la suite

Google Book et les bibliothèques américaines : vers des accords plus équilibrés ?

Le mois dernier, des informations importantes nous sont parvenues des Etats-Unis, au sujet de modifications intervenues dans les accords liant Google à plusieurs bibliothèques partenaires de son programme de numérisation des livres.

A ma connaissance, ces nouveaux éléments n’ont fait l’objet d’aucun commentaire en France, alors même qu’ils attestent qu’un nouveau type de rapports, plus équilibrés, est peut-être en train de se mettre en place outre-Atlantique.

Contrairement à ce qui se passe pour les bibliothèques européennes (à l’exception notable de la bibliothèque de Lyon), plusieurs bibliothèques américaines ont choisi de considérer que les accords les liant à Google constituaient des documents publics et obtenu qu’ils puissent être révélés.

C’est le cas pour l’université de Virginie qui a publié à la mi-février une nouvelle version de son contrat, intervenue pour tenir compte  du Règlement Google Book, dont certains aspects ont des conséquences sur les bibliothèques partenaires de Google (le contrat est ici et voir pour une FAQ éditée par l’Université de Virginie à propos de son partenariat avec Google).

Ne pas se faire écraser par le géant Google quand on signe un contrat avec lui : subtil jeu d'équilibres... (Equilibrium. Par floato. CC-BY-NC-SA. Source Flickr)

C’est Peter Hirtle sur LibraryLaw Blog, le premier qui a relevé que ce nouvel accord contenait des aménagements substantiels, information ensuite relayée  par James Grimmelmann sur The Laboratorium.

Lire la suite

Rapport Tessier sur « la numérisation du patrimoine écrit » : échanges de bons procédés ?

Paru le 12 janvier dernier, le rapport Tessier sur la « numérisation du patrimoine écrit » était attendu comme le loup blanc, suite aux polémiques déclenchées cet été par l’annonce de négociations entre Google et la Bibliothèque nationale de France

On notera immédiatement que le titre de ce rapport est surprenant… et instructif à lui seul ! Frédéric Mitterrand avait en effet confié le 15 octobre 2009 à Marc Tessier le soin de coordonner une « commission sur la numérisation des fonds patrimoniaux des bibliothèques« , avec pour but essentiel de statuer sur l’opportunité d’un tel partenariat.

Le rapport a largement dépassé le champ des « fonds patrimoniaux », ainsi que celui des seules bibliothèques, pour proposer une profonde modification du paysage de la numérisation en France, ainsi que des rapports entre initiative publique et privée en la matière. De ce point de vue, c’est plutôt une surprise et on a l’impression que la question de Google a servi de « cheval de Troie » pour s’introduire dans un autre débat. Cette extension de la portée des préconisations présente l’intérêt de traiter la question de manière globale ; elle peut aussi conduire à un certain mélange des genres…

Le sort du patrimoine écrit français était largement suspendu aux conclusions du rapport Tessier ! (Curtain of books. Par timtom.ch. CC-BY-NC-SA. Source : Flickr)

Je ne vais pas me lancer dans une analyse complète des propositions de ce rapport (voyez les nombreux commentaires déjà parus et notamment celui d’Olivier Ertzscheid sur Affordance, avec qui je partage beaucoup de vues… mais pas toutes !).

Je voudrais me concentrer sur les deux propositions du rapport qui me paraissent les plus importantes, à savoir :

  • l’idée de conclure « un partenariat avec Google Livres par échange de fichiers numérisés sans exclusivité sur les fichiers échangés » selon un principe « Un livre pour un livre« , par le biais d’un accord qui viserait « non pas à faire prendre en charge l’effort de numérisation mais à le partager, en échangeant des fichiers de qualité équivalente et de formats compatibles » ;
  • la proposition d’investir la BnF d’une mission pour « faciliter la mise en oeuvre d’une chaîne de numérisation de masse, non seulement des oeuvres hors droits, mais aussi des oeuvres sous droits » en utilisant pour ce faire une partie des sommes allouées dans le cadre du grand emprunt. Cette réorientation interviendrait « dans un cadre contractuel avec les éditeurs et les représentants des ayants droits » et prendrait la forme d’une « numérisation de masse des ouvrages collectés au titre du dépôt légal » qui pourraient viser « les oeuvres épuisées » ou « des oeuvres orphelines« .

Ces préconisations se présentent à première vue toutes deux sous la forme d’un « échange de bons procédés » entre le secteur public et le secteur privé. Mais c’est précisément l’équilibre de ces échanges que je voudrais questionner dans ce billet.

En effet, ces deux pistes me paraissent intéressantes sur le principe, car elles redonnent l’initiative au secteur public en matière de numérisation à un moment où l’on aurait pu craindre qu’un « décrochage » se produise, notamment vis-à-vis de Google. La manne du grand emprunt est pour beaucoup dans cette redéfinition des règles du jeu. Mais dans les deux cas, la manière dont le rapport envisage de concrétiser ces propositions me paraît porteuse de réels risques de déséquilibre.

En ce qui concerne l’échanges de fichiers avec Google, le déséquilibre pourra résulter de la persistance d’exclusivités de fait au profit de Google Book au terme de l’échange de fichiers, malgré l’absence d’exclusivité inscrite en droit. Dans le cas de la numérisation des ouvrages sous droits, c’est l’absence de contreparties en échange de l’investissement public consenti en faveur de la numérisation qui est préoccupante et qui risque de provoquer un déséquilibre en termes d’accès aux oeuvres.

Lire la suite

Jugement Google/La Martinière : Alea jacta est ?

 » Il n’y a rien de certain, sinon le fait de mourir pour celui qui est né  » (Critias). Pour le reste, l’incertitude est universelle. L’aléatoire est la catégorie de l’incertitude.  » Aléatoire  » se dit de ce qui arrivera ou de ce qui arrive, mais n’est pas encore arrivé. Or, la réalité se réduit à ce qui arrivera, ce qui arrive et ce qui est arrivé. L’aléatoire est donc au cœur de la réalité. »

Citation extraite de l’ouvrage L’aléatoire, par Marcel Conche. PUF, 1999. Trouvée en deux clics grâce à Google Book Search (on verra plus loin que ce détail a son importance…).

Tout va très bien : la statue de Beaumarchais est toujours debout ! Paris : Statue de Beaumarchais. Par fredpanassac. CC-BY-SA. Source : Flickr)

Le verdict du procès Google/La Martinière est donc tombé vendredi, mettant fin plusieurs années d’incertitude en condamnant le moteur de recherche pour contrefaçon du droit d’auteur. Je ne vais pas me lancer dans une analyse détaillée de cette décision, déjà largement commentée, mais je voudrais montrer comment, de manière très surprenante, l’aléatoire justement est au cœur du jugement.

Mais cela ne veut pas dire que le juge s’est décidé au hasard, bien au contraire !

Les réactions commencent à affluer à propos de ce jugement (disponible en ligne chez Juriscom.net). Vous pouvez retrouver celles qui me paraissent les plus importantes en cliquant sur la perle ci-dessous :

Procès Google/La Martinière//

Lire la suite