La Bibliothèque de Lyon libère le domaine public avec la Licence Ouverte

Je ne sais pas exactement quand ce changement est intervenu, mais il est loin d’être anodin. La Bibliothèque Municipale de Lyon a modifié les conditions d’utilisation de Numelyo, sa bibliothèque numérique lancée en 2012. A l’ouverture, le choix avait été fait d’appliquer une licence Creative Commons CC-BY-NC-ND (Paternité – Pas d’Usage Commercial – Pas de modification), y compris aux fichiers correspondant à des oeuvres appartenant au domaine public. Or on constate que ce n’est plus le cas à présent : les oeuvres diffusées sont accompagnées de la mention « Domaine public. Licence Ouverte – Open Licence ». En témoigne par exemple l’estampe ci-dessous, signée Rembrandt.

rembrandt
Adam et Eve. Par Rembrandt. Source : Bibliothèque Municipale de Lyon. Domaine Public – Licence Ouverte.

Lire la suite

Comment l’affaire Google Books se termine en victoire pour le Text Mining

Google a lancé son projet géant de numérisation des livres en 2004 et dès l’année suivante, un ensemble d’auteurs et d’éditeurs ont attaqué le moteur de recherche devant les tribunaux pour violation du droit d’auteur. Le procès Google Books est certainement l’un des plus importants de ce  début du 21ème siècle, car il va redéfinir profondément les équilibres en matière d’adaptation du droit d’auteur à l’environnement numérique. Dix ans après le début de l’affaire, une Cour d’appel américaine a finalement donné raison à Google en lui reconnaissant la semaine dernière le bénéfice du fair use (usage équitable). Elle confirme la décision rendue en  2013 par le juge Denny Chin et elle pourrait bien marquer le point final de la procédure, même si les auteurs encore en litige face à Google agitent à présent la menace de saisir la Cour suprême.

J’ai déjà beaucoup écrit sur S.I.Lex à propos de cette affaire Google Books (peut-être plus d’ailleurs que sur aucun autre sujet…) en m’efforçant de couvrir ses différentes phases, aussi bien aux Etats-Unis qu’en France. Ce qui me frappe à la lecture de ce nouveau jugement, c’est le déplacement graduel des enjeux sous-jacents qui s’est opéré au fil du temps. En 2005, la question principale portait sur la réutilisation de contenus protégés (la numérisation, puis la revente de livres) ; aujourd’hui, le vrai problème concerne les données contenues dans les ouvrages et l’usage qui peut en être fait. Le procès Google Books rejoint finalement la problématique du Text et Data Mining (fouille de textes et de données), dont on parle aussi beaucoup en ce moment au niveau européen et en France.

La décision Google Books va constituer un formidable vecteur pour les pratiques d’exploration de textes. Mais ces marges de manoeuvre ne seront ouvertes qu’aux Etats-Unis seulement, en creusant au passage encore plus l’écart avec l’Europe en la matière…

Le glissement des contenus aux données

C’est essentiellement à partir de cette question de l’usage des données contenues dans les livres que les juges d’appel ont accordé le bénéfice du fair use à Google, en considérant que le service qu’il offrait à ses utilisateurs était susceptible d’apporter un bénéfice à la société en termes d’accès à la connaissance, justifiant que l’on écarte l’application des droits exclusifs des auteurs.

Mais ce faisant, ce jugement a conjuré une des grandes craintes que l’on pouvait avoir à propos de cette affaire Google Books : il n’a pas accordé une sorte de privilège exclusif sur cette activité au moteur de recherche, bien au contraire. La firme de Mountain View ne sera en effet pas la seule dorénavant aux Etats-Unis à pouvoir numériser des livres protégés pour fournir des services de recherche et de d’exploration de données. Grâce au fair use, cette même faculté a été ouverte à tous ses concurrents commerciaux, aussi bien qu’aux bibliothèques publiques et aux chercheurs académiques. L’issue de l’affaire Google Books va donc créer aux Etats-Unis un véritable écosystème ouvert en faveur de l’exploration de textes, qui libérera le potentiel offert par ces nouvelles technologies d’analyse computationnelle, sans en réserver les bénéfices à un seul acteur.

La situation outre-Atlantique offre un contraste saisissant avec l’Union européenne, où mis à part l’Angleterre qui a introduit en 2014 une exception en faveur du Text Mining à des fins de recherche, le reste de la zone se débat encore avec la difficulté à réformer le cadre du droit d’auteur. C’est particulièrement vrai pour la France, où la conception « propriétariste » étroite du droit d’auteur qui constitue l’idéologie dominante bloque pour l’instant toute possibilité d’évolution dans le sens des usages.

L’intérêt du public avant tout

L’un des aspects les plus intéressants de cette décision d’appel, c’est d’avoir offert aux trois juges qui composaient le tribunal l’opportunité de rappeler la philosophie générale de la loi sur le droit d’auteur aux Etats-Unis. Ils expliquent notamment que le monopole temporaire reconnu légalement aux auteurs n’a été instauré que pour servir une cause plus élevée de diffusion de la connaissance dans un but d’intérêt général :

Le but ultime du droit d’auteur est de favoriser la progression du savoir et de la connaissance, ce que le droit d’auteur s’efforce d’atteindre en donnant aux créateurs potentiels un droit exclusif de contrôle sur les copies de leurs oeuvres, leur offrant par là une incitation à créer des oeuvres enrichissantes intellectuellement à destination du public […] Ainsi, si les auteurs sont sans aucun doute des bénéficiaires importants du droit d’auteur, le bénéficiaire ultime doit être le public et c’est pour favoriser l’accès du public à la connaissance que des récompenses sont accordées aux auteurs.

La Constitution américaine formulait déjà de tels principes, en affirmant que le droit d’auteur existe pour « favoriser le Progrès de la Science », mais jamais encore la jurisprudence n’avait eu l’occasion de dire aussi nettement que le copyright constitue en réalité avant tout un droit du public.

L’exploration de textes au regard de l’usage équitable

Sur la base de telles prémisses, la Cour d’appel s’est donc logiquement tournée vers une appréciation des buts poursuivis par Google dans son projet et de l’utilité sociale procurée par les services mis à disposition du public. Contrairement aux juges français lorsqu’ils ont été saisis de la même affaire lors du procès Google/La Martinière, les trois juges américains ne se sont pas arrêtés au fait que Google a effectué des copies d’oeuvres protégées ; ils ont aussi cherché à savoir pourquoi il avait opéré ces reproductions.

Dans l’état actuel des choses, Google Books propose essentiellement une fonctionnalité de recherche en plein texte au coeur des livres numérisés, indiquant à l’utilisateur la localisation des occurrences des termes recherchés, ainsi que la visualisation de trois brefs extraits (snippets) et non de l’intégralité des ouvrages. Google propose aussi un service d’exploration de textes (Google Ngram Viewer), permettant de visualiser sous forme de graphiques l’évolution des occurrences d’un terme au fil du temps sur l’ensemble des livres numérisés (ou au choix des sous-ensembles ciblés du corpus).

ngram
Visualisation de résultats dans Google Ngram Viewer.

Pour les juges, résoudre l’affaire a consisté à déterminer si ces usages était bien « transformatifs » (un des quatre critères du fair use) ou s’ils constituaient au contraire pour l’utilisateur un « substitut » aux livres originaux. La réponse à cette question a été que les fonctionnalités de recherche et de fouille de textes présentent en elles-mêmes un caractère « hautement transformatif » :

Le but de Google en copiant les livres originaux protégés est de rendre disponible des informations pertinentes à propos de ces livres, permettant à un chercheur d’identifier ceux contenant un mot ou une expression l’intéressant, tout comme ceux n’incluant pas une telle référence. De plus, avec l’outil Ngrams, Google autorise les lecteurs à connaître la fréquence des usages de mots sélectionnés dans le corpus global des livres publiés à différentes périodes historiques. Nous n’avons aucun doute que le but de ces copies correspond au type de but transformatif décrit [dans la jurisprudence sur le fair use].

La question de l’offre de substituts aux livres originaux se posait particulièrement à propos des entrefilets (snippets) affichés par Google en regard des réponses aux requêtes. Mais là encore, les juges admettent sans difficulté leur caractère « transformatif » quand bien même le texte d’origine est présenté à l’utilisateur :

La séparation des pages en courts entrefilets opérée par Google est conçue pour montrer au chercheur une portion suffisante du contexte dans lequel apparaît le terme recherché pour l’aider à évaluer si le livre correspond bien à ses centres d’intérêt (sans révéler suffisamment de contenus pour menacer les intérêts légitimes de l’auteur). Dès lors, les entrefilets contribuent de manière importante au caractère hautement transformatif de l’objectif consistant à identifier des livres correspondants aux centres d’intérêt du chercheur.

Entrefilets (snippets) affichés par Google en fonction d’une requête.

On notera aussi que le fait que Google soit une société commerciale n’a pas été retenu comme un critère pertinent pour écarter le bénéfice du fair use, et ce pour deux raisons : 1) Google ne vend plus de livres protégés sans accord explicite des titulaires de droits, ni n’affiche de publicité dans l’interface même de Google Books, 2) de nombreux usages d’oeuvres protégées couverts par le fair use comme la citation, la critique, le commentaire ou la parodie peuvent tout à fait être réalisés dans un but de profit.

Un droit à l’extraction automatisée des informations

Lorsqu’on lit un livre papier, l’esprit humain est capable d’en extraire les informations pertinentes et c’est de cette manière que s’opère la transmission du savoir que favorise la lecture. Les partisans du Text et Data Mining estiment que ce « Droit de Lire » doit être reconduit dans l’environnement numérique en permettant l’extraction automatisée d’informations à partir de reproductions d’oeuvres, sans interférence du droit d’auteur qui n’a pas à entraver ce type d’usages (voir la déclaration de La Haye et la campagne « The Right To Read Is The Right To Mine »).

C’est exactement ce qu’ont consacré les trois juges d’appel en rappelant que le droit d’auteur sur une oeuvre protégée ne s’applique pas aux informations sous-jacentes qu’elle peut contenir. Le passage ci-dessous est lumineux de ce point de vue :

La faculté d’un entrefilet à satisfaire le besoin d’un chercheur pour un livre protégé donné découle du fait que l’entrefilet contient un fait historique que le chercheur a besoin de vérifier. Par exemple, un étudiant écrivant un travail sur Franklin D. Roosevelt peut avoir besoin de connaître l’année où Roosevlet a été frappé par la polio. En tapant « Roosevelt Polio » dans Google Books, l’étudiant sera conduit (parmi de nombreuses autres sources) vers un entrefilet correspondant à la page 31 du livre « The Making of Franklin D. Roosevelt » écrit par Richard Thayer Goldberg (1981), expliquant que cette attaque de polio est survenue en 1921. Cela répondra au besoin du chercheur, éliminant certes au passage tout besoin d’acheter ce livre ou de l’obtenir par le biais d’une bibliothèque. Mais ce que le chercheur a obtenu par le biais de l’entrefilet est un fait historique. Le droit d’auteur de Goldberg ne s’étend pas aux faits communiqués à travers son livre. Ils ne protègent que la manière dont l’auteur les a exprimés.

Dès lors les informations – même « encapsulées » dans les livres – doivent rester disponibles. Cela allait de soi à propos de l’opération de lecture individuelle, qui est toujours restée un acte entièrement libre et les juges américains n’ont fait que reconduire cette liberté fondamentale à propos de la lecture automatisée. La différence fondamentale est qu’ils admettent ici l’extraction d’informations y compris s’il est nécessaire de réaliser une reproduction intermédiaire pour l’effectuer.

Un horizon qui s’ouvre pour l’exploration de textes… aux Etats-Unis !

Les acquis de cette décision Google Books vont profiter par ricochet à toutes les bibliothèques partenaires ayant reçu des doubles des copies numériques des ouvrages. On a ici confirmation qu’elles peuvent offrir à leur public des services de recherche et de fouille de données à partir de ces corpus. Ce sera notamment le cas pour le grand entrepôt numérique Hathi Trust, né d’un regroupement d’institutions publiques partenaires de Google, qui a aussi été vainement attaqué en justice par des auteurs américains lui contestant la possibilité d’utiliser ces reproductions.

Plus largement, tous les chercheurs aux Etats-Unis se verront désormais ouvrir des possibilités considérables en matière de Text et Data Mining. En vertu de ce jugement, ils pourront en effet :

  1. Numériser des ensembles très larges de contenus protégés par le droit d’auteur dès lors qu’ils sont accessibles à partir d’une source licite ;
  2. Conserver ces corpus sans limite dans le temps et sans obligation de les détruire une fois utilisés ;
  3. Les transmettre à des tiers, comme l’a fait Google avec ses bibliothèques partenaires, les mutualiser au sein d’entrepôts partagés comme le fait Hathi Trust ;
  4. Développer des fonctionnalités d’indexation et de recherche au sein de ces ensembles ;
  5. Effectuer des analyses computationnelles, en soumettant ces contenus à des traitements opérés par des algorithmes ;
  6. Afficher des extraits des contenus – limités à de courts entrefilets pour ne pas constituer un substitut au texte original – , affiché en regard des résultats de recherche pour les contextualiser ;
  7. Et le tout, même si le projet de recherche possède une dimension commerciale, du moment que les contenus en eux-mêmes ne sont pas revendus !

Avec cette jurisprudence Google Books, les États-Unis viennent donc d’ouvrir à leurs chercheurs un champ immense pour pratiquer le Text Mining, leur conférant un avantage significatif sur leurs homologues européens, même par rapport à l’Angleterre où l’exception introduite l’an dernier est beaucoup moins souple que cette application du fair use américain.

Pendant ce temps, en France…

J’avais déjà analysé dans S.I.Lex une étude récente ayant montré que dans les pays dotés d’une exception dédiée ou d’un système de fair use, les recherches s’appuyant sur le Text et Data Mining étaient en moyenne trois fois plus nombreuses que dans les autres.

Trois fois plus de recherches utilisant le TDM dans les pays de fair use…

La France de son côté – comme souvent hélas pour tous les sujets impliquant le droit d’auteur – fait pâle figure. La loi numérique préparée actuellement par Axelle Lemaire contenait bien à l’origine une exception (limitée) en faveur de l’exploration de textes et de données, mais cette disposition a sauté au fil des pressions exercées par les éditeurs. La question est revenue sur le tapis à l’occasion de la consultation ligne sur le texte qui s’est achevée la semaine dernière. Mais il n’est pas assuré que le gouvernement trouve le courage politique de réintroduire cette exception dans le texte qu’il présentera au Parlement… Le projet ReLIRE à propos des livres indisponibles, que l’on présente souvent abusivement comme la réplique française à Google Books est lui-aussi en complet décalage, puisqu’il n’a consisté qu’à mettre en place une grosse librairie numérique, sans se préoccuper des enjeux pourtant essentiels liés au Text Mining.

Le problème qui affecte la France est en réalité très profond. Là où la justice américaine est capable de dire que le droit d’auteur est avant tout un droit du public, nous restons paralysés par une vision « propriétariste » étriquée, qui rend imperméable les juges à la prise en compte de l’intérêt général. Les vieilles notions figurant dans le Code (la reproduction, la représentation, la courte citation et en général, notre conception étroite des exceptions) sont bien trop pauvres pour appréhender la complexité mouvante des réalités numériques par rapport à l’adaptabilité dont fait preuve le fair use.

Mais le droit n’est pas le seul en cause et les œillères idéologiques jouent aussi un rôle puissant. Lorsque le CSPLA – organe rattaché au Ministère de la Culture – a produit par exemple en 2014 un rapport sur le Text et Data Mining, le juriste Jean Martin, à qui était confiée cette mission, commence dès l’introduction à assimiler l’exploration de textes et de données à une forme de « parasitisme » des oeuvres protégées pour recommander au final au gouvernement… de ne rien faire ! De son côté, l’avocat Richard Malka, dans son pamphlet « La gratuité, c’est le vol » commandé par le SNE,  consacre des  développements particulièrement acerbes au Text et Data Mining :

Une possibilité serait donnée aux utilisateurs de reproduire gratuitement, dans des bases de données numériques, des œuvres protégées afin de permettre des recherches sur ces œuvres visant à produire, par extraction, des données nouvelles.

Si de tels investissements pouvaient être légalement pillés, aucun éditeur n’engagerait désormais le moindre financement pour créer de tels outils. Il n’existe, en réalité, aucune activité économique au monde dont les productions peuvent être librement expropriées pour cause d’utilité publique et sans dédommagement.

[…] Cette destruction de valeur ne profiterait en réalité qu’à des acteurs tels que Google, qui ne tirent pas leur rémunération des banques de données elles-mêmes, qu’ils pourraient ainsi «aspirer», mais de la monétarisation publicitaire du contenu qu’ils offrent. Un tel processus reviendrait ainsi à confier un pouvoir exorbitant sur la connaissance à quelques sociétés, ce qui serait l’opposé de l’objectif affiché.

Le problème, c’est que l’issue du procès Google Books contredit complètement ces prédictions quasi-eschatologiques. Par le biais du fair use, les États-Unis ont au contraire redistribué de manière équitable la capacité d’explorer automatiquement les textes et les données à tous les acteurs commerciaux sans discrimination, mais aussi à leurs institutions publiques et à leurs équipes de chercheurs afin de maximiser l’utilité sociale de ces nouvelles technologies. Quelque part, cette issue est l’une des pires possibles pour Google, qui a longtemps cherché dans cette affaire à s’arroger une exclusivité pour rentabiliser les investissements énormes avancés pour la numérisation des livres. Le risque majeur de l’affaire Google Books, c’était que le moteur de recherche acquiert un titre exclusif sur l’utilisation des contenus. Et le moment où on a frôlé une telle catastrophe, c’est précisément lorsque Google a réussi à négocier un règlement avec les homologues américains du SNE, heureusement dénoncé par la justice ! Heureusement l’affaire est repartie ensuite sur le terrain du fair use et dorénavant, la combinaison de deux facteurs – la transmission de doubles des fichiers à des établissements publics et les possibilités d’usage consacrées par le fair use – garantissent l’ouverture du système, en permettant à une pluralité d’acteurs d’opérer à présent dans le champ du Text et Data Mining.

***

Il devient urgent que les pouvoirs publics français se libèrent de l’emprise des maximalistes du droit d’auteur qui leur hurlent des contre-vérités à l’oreille, avant que les dégâts à l’échelle internationale, notamment pour la recherche, ne deviennent irréversibles.

 

 

 

Peut-on échapper à la « télévisionnisation » de YouTube ?

Voilà à présent deux semaines qu’un vent de panique souffle sur YouTube, suite à un changement dans la politique de gestion des droits d’auteur de la plateforme. Une vague de plaintes sans précédent s’est abattue sur un grand nombre de vidéos postées par des utilisateurs de YouTube. Elle frappe en priorité les « YouTubeurs », cette frange d’utilisateurs entre les pro et les amateurs, qui monétisent leurs vidéos par le biais de publicités. Pour eux, la règle du jeu semble avoir subitement changé. Alors qu’ils pouvaient auparavant réutiliser des contenus protégés en bénéficiant d’une relative immunité, voilà à présent que leurs vidéos sont épinglées, avec pour conséquence le reversement des revenus générés par la publicité au profit des ayants droit.

youtube

Cette modification a un impact profond sur le fonctionnement de YouTube et certains vont jusqu’à parler d’une Copyright Apocalypse qui aurait frappé la plateforme. C’est en fait une nouvelle étape dans la « télévisionnisation » de YouTube, qui choisit de favoriser les producteurs traditionnels de contenus au détriment des amateurs. La question à présent est de savoir s’il est possible d’échapper à ce processus ou si les YouTubeurs sont pris au piège. A mon sens, cet épisode révèle surtout le danger de se placer dans la dépendance contractuelle d’un acteur comme YouTube, capable de changer les règles du jeu du jour au lendemain. Mais il existe heureusement des moyens de contenir cette dépendance : légaliser les usages transformatifs d’oeuvres préexistantes et instaurer une contribution créative pour le financement des amateurs.

Lire la suite

Des partenariats Public-Privé aux partenariats Public-Communs (A propos du Google Cultural Institute)

L’ouverture du Google Cultural Institute aura marqué les esprits cette semaine, notamment à cause de la décision de la Ministre de la Culture, Aurélie Filippetti, de boycotter la cérémonie et de la réaction du gouvernement qui a envoyé Fleur Pellerin à la place dans une certaine confusion.

Mais ces péripéties gouvernementales ont fait oublier ce qui était sans doute le plus important : à savoir que Google a mis en place avec le Google Cultural Institute un site appelé à jouer un rôle non négligeable dans l’environnement numérique, rassemblant plus de 6 millions d’oeuvres en provenance de plus de 400 établissements culturels dans le monde. Voilà ce qu’en dit Le Mouv’ :

L’Institut culturel consiste donc en une plate-forme, sorte de gallerie des oeuvres et créations du monde, qui permet d’accéder à tout un tas d’oeuvres d’arts, mais aussi de monuments ou de merveilles naturelles. Telle une Google Map customisée, cette plate-forme permet aussi bien de voir les Alpes, d’admirer un Van Gogh ou de se balader à l’intérieur du musée d’Orsay. Pour un résultat, il faut le reconnaître, assez bluffant: 40 000 images d’oeuvres sont disponibles, certaines d’entre elles peuvent être étudier à un niveau de détail inégalé et la recherche par date, médium, artiste… est très pratique. Le rêve pour tout étudiant en Histoire de l’art ou Arts Plastiques.

Le site du Google Cultural Institute
Le site du Google Cultural Institute

Faisant suite au Google Art Project lancé en 2011, cette nouvelle plateforme offre aux institutions la possibilité de présenter leurs collections sous la forme d’expositions virtuelles. L’outil est de grande qualité et il restait pour l’instant ouvert uniquement à des institutions partenaires de Google. Mais à l’occasion de cette inauguration du Google Cultural Institute à Paris, la firme de Moutain View a annoncé le lancement d’un autre site, Google Open Gallery, qui permettra à n’importe quel musée, archives, bibliothèque, mais aussi artiste individuel, de charger ses propres images et de les éditorialiser avec des outils gratuits. D’une certaine manière, Google s’oriente vers une forme assez révolutionnaire de « YouTube de l’art et de la culture », avec la force de frappe qu’on lui connaît.

Lire la suite

Et Facebook inventa le Robocopyright « social »…

3 décembre 2013 : alors que nos libertés numériques partent déjà bien en lambeaux, Facebook s’est vu accorder un brevet sur un dispositif de contrôle des contenus circulant sur un réseau social qui fait littéralement froid dans le dos, en mélangeant allègrement le Copyright Madness, Big Brother et Minority Report.

C’est le site TorrentFreaks qui explique que Facebook a déposé un brevet sur une méthode permettant d’utiliser les informations de profils d’utilisateurs et des « signes sociaux » pour déterminer si des contenus partagés sont piratés ou non. Les données mises à contribution pour réaliser ces analyses incluent les centres d’intérêt déclarés par les membres du réseau, leur localisation géographique et leurs relations sociales.

Des systèmes automatiques de filtrage des contenus existaient déjà, et notamment le dispositif ContentID fonctionnant sur YouTube, capable de repérer des oeuvres d’après leurs empreintes et d’appliquer des actions de retrait, de sanction ou de monétisation, en fonction de la volonté des titulaires de droits. Cette application « robotisée » de la règle de droit constituait déjà une forme de police privée du copyright, entraînant des dérapages attentatoires à la liberté d’expression et une fragilisation rampante des droits des internautes.

Mais Facebook franchit cette fois un pas de plus vers la dystopie, car il ne s’agit plus de marquer les contenus, mais les utilisateurs eux-mêmes, en les profilant selon leur « propension à pirater ». Le fonctionnement de la Hadopi soulevait déjà des questions en termes de surveillance des individus et de traitement de données personnelles. Mais ici, le système est infiniment plus pervers, puisque ce sont les individus qui fournissent eux-mêmes les données servant à les contrôler, en acceptant ce type de traitement via les conditions d’utilisation du site qui prévoient que les informations des utilisateurs pourront être utilisées « pour protéger les droits ou la propriété de Facebook ou de tiers« .

On aboutit à quelque chose de potentiellement très inquiétant, et j’ai envie de dire surtout en France, où l’objectif d’arriver à mettre en place un système « d’auto-régulation des plateformes » a clairement été exprimé, tant au niveau de la Hadopi que du rapport Lescure. Cela pourrait même constituer l’enjeu principal de la future loi sur la création, annoncée pour 2014, et Facebook vient de mettre sur la table une proposition en or pour ceux qui rêvent d’un « Robocopyright », capable de réguler la circulation des contenus sans passer par le juge.

Lire la suite

Verdict dans l’affaire Google Books : une grande leçon de démocratie ?

La nouvelle est tombée hier et elle fera date : après plus de 8 années de procédure d’une incroyable complexité, Google a finalement remporté le procès qui l’opposait à la Guilde des auteurs à propos de son programme géant de numérisation Google Books. Le juge Denny Chin, en charge de l’affaire, lui a donné raison sur la base du fair use (usage équitable), une disposition du droit américain qui permet dans certaines situations de se défendre de l’accusation de contrefaçon en cas d’usage d’oeuvres protégées.

The Google Book. Par Jim Barter. CC-BY. Source : Flickr

La défaite est cinglante pour la Guilde des Auteurs, qui restait seule en lutte contre Google après que les éditeurs américains aient décidé de conclure un accord en 2012 avec le moteur de recherche. Denny Chin a en effet rendu un summary judgment, ce qui signifie qu’il a estimé que la balance penchait tellement en faveur de Google qu’il pouvait recourir à une procédure simplifiée. La fermeté du jugement va rendre hasardeux pour la Guilde des Auteurs le fait de se pourvoir en appel, même si ses responsables ont déjà annoncé qu’ils avaient l’intention de le faire.

De quoi était-il exactement question dans ce jugement ? En mars 2011, le juge Chin avait refusé de valider un Règlement par lequel Google, la Guilde des Auteurs et l’Association des éditeurs américains avaient essayé de mettre fin à leur différend sur une base contractuelle. Ils avaient voulu mettre en place un système complexe qui aurait permis à Google, en contrepartie de 125 millions de dollars,  de commercialiser les livres épuisés numérisés par ses soins, sur la base d’un opt-out (option de retrait laissée aux titulaires de droits pour sortir du système). Chin avait refusé d’entériner cette solution, en estimant qu’elle risquait de conférer à Google un monopole de fait sur la numérisation à but commercial, en particulier pour les oeuvres orphelines faisant partie du corpus.

Google a donc été obligé de revenir à l’intention initiale du projet Google Books, à savoir scanner des ouvrages, y compris sous droits, mais uniquement pour en diffuser de courts extraits (snippets) répondant aux requêtes des utilisateurs. Pour aller plus loin (montrer des portions plus larges, vendre des ouvrages), Google doit passer par des accords volontaires, avec les éditeurs et les auteurs (opt-in).

Lire la suite

Un objet qui ne respecte pas les droits du lecteur mérite-t-il de s’appeler livre ?

Hier devant la Commission des affaires culturelles de l’Assemblée était discutée une proposition de loi présentée par le rapporteur Christian Kert de l’UMP, dont le but est d’interdire la gratuité des frais de port afin de préserver les libraires de la concurrence d’Amazon. Au cours de la discussion, la députée Isabelle Attard (EELV) s’est attachée à démontrer qu’une telle mesure « ne peut prétendre changer quoi que ce soit à l’état du commerce du livre en France » et qu’elle revenait à « prendre le problème par le petit bout de la lorgnette ». 

Au lieu d’essayer de rétablir l’équilibre de l’écosystème du livre par le biais d’une Lex Amazon, elle s’est livrée une analyse beaucoup plus générale de la question du livre numérique et a proposé une mesure très intéressante, qui pourrait s’avérer bénéfique pour les libraires, mais aussi pour les lecteurs.

Book, Ball and Chain. Par Kurtis Garbutt. CC-BY-ND. Source : Flickr
Book, Ball and Chain. Par Kurtis Garbutt. CC-BY-ND. Source : Flickr

Lire la suite