Lawrence Lessig, les dérives du web et la « mort des éditeurs »

S’il y a une personne qui a compté dans mon cheminement intellectuel, c’est bien le juriste américain Lawrence Lessig. Je me souviens encore de l’avoir découvert à travers ses incroyables conférences TED, puis la lecture d’ouvrages marquants comme L’Avenir des Idées, Remix ou Code Is Law. Initiateur du projet Creative Commons, défenseur infatigable du domaine public et de la Culture libre, plus récemment engagé dans la réforme du système politique aux Etats-Unis et même candidat malheureux à l’investiture démocrate pour l’élection présidentielle, Lessig figure incontestablement parmi les grands penseurs de notre temps. Du coup, je ne croyais pas un jour me retrouver en opposition radicale avec lui, mais c’est pourtant ce qui m’arrive, après avoir lu cette interview donnée, il y a quelques jours, au magazine Télérama.

Image par Innotech Summit. CC-BY. Source : Flickr.

Il faut savoir que Lawrence Lessig est récemment passé par Paris, à l’occasion de la sortie du livre « Celui qui pourrait changer le monde« , traduction en français publiée par les éditions B42 d’une compilation de textes écrits par l’activiste Aaron Swartz, tirés notamment de son blog.

Ils étaient tous les deux très proches et il y a quelque chose qui a irrémédiablement changé chez Lessig depuis le suicide d’Aaron, survenu il y a quatre ans. On sent chez lui une inquiétude croissante à propos du sort de la démocratie, renforcée encore depuis que Donald Trump a été élu aux Etats-Unis. Dans l’interview donnée à Télérama, il se montre notamment soucieux de l’impact des fake news sur le débat public, ce qui l’amène à faire la déclaration suivante :

Je pense que notre communauté dans son ensemble a fait l’erreur de considérer comme acquises des approches qui ont pourtant été brutalement remises en cause. Un exemple majeur : nous pensions tous que le rôle d’éditeur de contenus était un acquis ; derrière chaque publication, il y avait un éditeur, un titre de presse, une institution reconnue se portant caution. Je ne parle pas là de « censeur », mais bien d’éditeur : quelqu’un qui amène de la vérification, de la véracité. Eh bien nous nous sommes trompés ! Le monde entier peut publier sans éditeur. Donald Trump publie en direct, en permanence. Alors que, dans ce monde avec éditeurs qui nous semblait une évidence et un acquis, cela n’aurait pas été possible : Trump n’aurait pas été possible ! D’une certaine façon, Internet – l’outil en lui-même – a tué les éditeurs. Et nous allons tous devoir résoudre cet immense problème qui a un impact très lourd sur la démocratie.

J’avoue avoir bondi en lisant ces lignes : Lawrence Lessig accusant Internet d’avoir « tué les éditeurs », regrettant qu’il donne à tout un chacun la possibilité de publier directement en ligne et présentant cette faculté comme un problème pour la démocratie ? Ce sont des propos qui détonnent fortement par rapport au message que Lessig délivrait jusqu’à présent, lui qui fut au contraire un des premiers à décrire et à théoriser la révolution culturelle que représente la mise en réseau des individus. Et plus triste encore, il me semble que ce qu’il exprime ici contredit tout le parcours d’Aaron Swartz – l’enfant d’internet (Internet Own’s Boy) – qui s’est précisément construit en tant que personne grâce à cette faculté de publication directe offerte par Internet.

Je voudrais dans la suite de ce billet essayer de démêler le malaise que je ressens à voir quelqu’un comme Lessig tenir ce genre de propos et critiquer cet appel à un « retour des éditeurs » comme moyen de conjurer les dérives qui frappent Internet aujourd’hui.

Lire la suite

Quand la clause Non-Commercial des licences Creative Commons passe en justice

J’avais sur mon radar depuis un moment un procès en cours aux Etats-Unis survenu à propos des licences Creative Commons, qui aurait pu s’avérer dangereux si les juges avaient suivi la logique du plaignant. Il portait sur l’interprétation de la clause NC (Non-Commercial – Pas d’usage commercial), connue pour avoir déjà fait couler beaucoup d’encre…

Lorsque je la présente en formation, il m’arrive de dire qu’il s’agit de la « clause de la discorde », car cette option, figurant parmi les quatre proposées par les licences Creative Commons, divise depuis longtemps la communauté. La restriction d’usage commercial est en effet jugée incompatible avec les principes du Libre et de l’Open Source et à plusieurs reprises, des revendications ont été portées pour que la fondation Creative Commons supprime cette option. Outre ces oppositions de principe, on lui reproche souvent d’être trop floue et de manquer de prévisibilité dans son application, notamment parce qu’il peut être difficile de déterminer ce qu’est un usage commercial ou non sur Internet. Lire la suite

Enfin un « upgrade » de l’exception de citation dans la prochaine directive sur le droit d’auteur ?

Une nouvelle directive sur le droit d’auteur est en cours d’examen par les différentes commissions du parlement européen. La version initiale préparée par la Commission européenne n’était pas très encourageante. A part sur quelques points limités (Text et Data Mining par exemple), elle ne contenait guère de dispositions en faveur des nouveaux usages. En revanche, plusieurs mesures inquiétantes figuraient dans le texte, comme des menaces sur les liens hypertexte ou une obligation de filtrage automatisé des plateformes. A tel point que certains eurodéputés ont lancé une campagne intitulée #SaveTheLink, afin que les citoyens appellent leurs représentants à bloquer ces propositions dangereuses pour l’avenir d’Internet.

european_copyright-svg

Mais le droit d’auteur est une matière hautement instable, souvent sujette à rebondissements politiques. Et plusieurs bonnes surprises se sont visiblement glissées à l’intérieur d’un rapport de la Commission Culture du Parlement européen publié il y a quelques jours. Attention, je ne dis pas que l’intégralité de ce document est encourageante, mais je ne vais pas me livrer ici à une analyse intégrale qui serait trop longue. Je vais me concentrer sur une proposition particulièrement intéressante que ce texte comporte : l’idée de créer une nouvelle exception obligatoire pour tous les Etats membres, destinée à sécuriser la production des « User Generated Content » (contenus produits par les utilisateurs). Elle prend la forme d’un « droit de citation élargi » qui paraît bien adapté aux nouvelles pratiques induites par le numérique et que nous étions nombreux à attendre, même si la proposition de la commission Culture reste encore perfectible.

Lire la suite

Jean-Luc Mélenchon, YouTube et la police privée des plateformes

Jean-Luc Mélenchon a longtemps tenu un des blogs les plus lus en France et pour cette campagne présidentielle, il a choisi d’investir YouTube en publiant des vidéos sur une chaîne « Place au peuple », qui rencontre un succès croissant. Accusant régulièrement les médias de ne pas lui accorder une place suffisante, Mélenchon a trouvé là un canal de diffusion puissant, lui permettant de toucher le public plus directement. Mais la plateforme possédée par Google a aussi ses désavantages, comme le montre la dernière vidéo postée hier par le candidat.

 Dans les premières minutes, Jean-Luc Mélenchon explique en effet que sa chaîne a failli disparaître, suite à des plaintes qui auraient été adressées à la plateforme par la radio France Inter pour violation du droit d’auteur. La chaîne de Jean-Luc Mélenchon comporte en effet une playlist « Émissions et passages médias » où sont repris des extraits d’interviews du candidat. On y trouve de nombreux passages d’émissions de radio et de télévision (dont France Inter, effectivement).

Mélenchon explique avoir reçu deux avertissements pour reprise de contenus produits par France Inter, sachant que sur YouTube, trois avertissements entraînent la fermeture de la chaîne. Il affirme que France Inter aurait intentionnellement cherché à provoquer cette sanction en « téléphonant directement à YouTube », alors qu’en général, un accord amiable est trouvé avec les titulaires de droits pour la reprise d’enregistrements. Mais sur Twitter, le journaliste Olivier Benis a posté une longue suite de messages dans lesquels il conteste ces accusations, au motif que ce serait le système automatique de filtrage de YouTube, Content ID, qui aurait effectué ces signalements, sans intervention directe de France Inter. Il accuse en substance Mélenchon d’instrumentaliser cet événement pour faire du buzz, se placer en position de victime et faire passer la radio pour un censeur.

Que doit-on en penser ? Il est difficile de le dire, car la gestion des réclamations sur Youtube est profondément opaque, comme j’ai souvent eu l’occasion de l’écrire sur ce blog. Il existe deux façons pour des contenus d’être signalés et retirés pour violation du droit d’auteur : soit les ayants droit font eux-mêmes manuellement une réclamation en utilisant la procédure de signalement mise en place par YouTube, soit c’est le robot Content ID qui repère automatiquement la correspondance entre une vidéo et une base d’empreintes fournies par les titulaires de droits.

Lire la suite

What.cd, Zone Téléchargement et l’aveuglement de la répression du partage

La fermeture de Zone Téléchargement la semaine dernière a déclenché une vague de réactions impressionnantes, qui montre que la question du piratage/partage est loin d’être passée au second plan. J’ai du coup été interviewé par plusieurs sites d’information : Konbini, France Info, Libération et encore aujourd’hui par Le Monde. Je n’aurai hélas pas le temps de consacrer un billet détaillé à la question, mais je reposte ci-dessous la retranscription de mes propos effectuée par la journaliste Morgane Tual (merci à elle !).

J’ai simplement modifié et développé plusieurs passages pour les faire mieux correspondre à ce que je voulais dire.

pieter_bruegel_the_elder_-_the_parable_of_the_blind_leading_the_blind_-_wga3511
Les industries culturelles entraînant les sociétés d’auteurs entraînant les autorités publiques dans la guerre au partage (allégorie). Source : Wikimedia Commons.

Zone téléchargement : « Les industries culturelles luttent contre des monstres qu’elles ont elles-mêmes créés »

Lundi 28 novembre, la gendarmerie nationale annonçait la fermeture de Zone téléchargement, un site qui permettait de télécharger directement des contenus protégés par le droit d’auteur. Une activité qui aurait permis à ses administrateurs, notamment grâce à la publicité, d’engranger plus de 1,5 million de chiffre d’affaires par an selon la Sacem, qui avait porté plainte. Son secrétaire général dénonçait, dans les colonnes du Monde, des « voyous qui se sont enrichis sur le dos des créateurs », et soulignait qu’il n’y avait « plus d’impunité pour les pirates ».

De son côté, Lionel Maurel, membre du conseil d’administration de la Quadrature du Net, une association française de défense des libertés numériques, déplore lui aussi l’existence de sites commerciaux tels que Zone téléchargement, tout en prônant la légalisation du partage. Explications.

La fermeture du site Zone téléchargement a provoqué énormément de réactions indignées de la part des internautes. Quelle a été la vôtre ?

Je n’ai pas été surpris. Les industries culturelles font régulièrement fermer ce genre de sites, tout en sachant que ça ne va pas mettre fin au problème. C’est une fausse solution, car d’autres sites vont immédiatement prendre la place de Zone Téléchargement. Ce n’est qu’un nouvel épisode dans un cycle d’ouvertures et de fermetures qu’on connaît depuis des années. J’avoue que je ressens par contre un peu de lassitude. Les industries culturelles se battent depuis des années contre des monstres qu’elles ont elles-mêmes créés.

Des monstres qu’elles ont créés, c’est-à-dire ?

Au départ, le téléchargement s’effectuait essentiellement de manière décentralisé en peer to peer (P2P, de pair à pair), avec logiciels comme eMule, Kazaa, puis les torrents… Ce système ne nécessitait pas d’intermédiaire commercial. Mais les ayants droit ont agi pour réprimer ces pratiques, notamment par l’intermédiaire du système de la riposte graduée mise en oeuvre par la Hadopi [Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet], conçue pour contrer ce type de partage, alors qu’elle est totalement impuissante pour des sites comme Zone téléchargement.

Comme le P2P était dans la ligne de mire de la répression, cela a mécaniquement abouti à faire monter les sites de téléchargement direct et de streaming, qui sont centralisés, et qui permettent à leurs fondateurs de faire beaucoup d’argent. Certains internautes ont comparé Zone téléchargement à une sorte de Robin des bois, qui « prend aux riches pour donner aux pauvres« , mais c’est en fait une vulgaire dérive mafieuse du partage de fichiers. Et de leur côté, les ayants droits mettent dans le même sac des sites comme Zone téléchargement et What.cd.

Justement, le site de partage musical What.cd a été fermé par la gendarmerie nationale le 17 novembre, une dizaine de jours avant la fermeture de Zone téléchargement. En quoi ces deux sites sont-ils différents ?

Ils le sont totalement. What.cd, c’était une communauté privée dans laquelle des gens mettaient en commun leur musique. On n’y entrait que par cooptation : il fallait être invité par un membre, et adhérer à une charte, qui défendait la qualité et la diversité des fichiers échangés. Le but était d’accéder à de la musique rare, et même si des dons étaient acceptés pour financer des serveurs, les gens à l’origine de What.cd ne faisaient pas de profit. Un système de ratio était imposé qui empêchait les utilisateurs de se « gaver », en les incitant à enrichir la base. Pour pouvoir télécharger, il fallait partager des musiques qui ne figuraient pas déjà dans le catalogue de What.cd. Participer à cette communauté nécessitait donc un  véritable investissement intellectuel. Et au final, les utilisateurs avaient réussi à constituer au fil du temps une des bibliothèques musicales les plus riches au monde, où l’on pouvait trouver toutes sortes d’enregistrements rares qui ne figurent dans aucune offre légale.

Zone téléchargement, ce n’est pas du tout ça. Ce type de sites existent pour satisfaisaire des besoins de consommation de masse de façon faussement gratuite – puisqu’il fallait regarder de la publicité. La philosophie était donc complètement différente.

Quelle est la bonne solution, selon vous ?

Ce qu’on veut depuis le début, c’est la légalisation du partage entre individus, en peer to peer, non centralisé et sans but de profit. Dans ce système, un site comme Zone téléchargement resterait illégal, tout comme le serait d’ailleurs la mise à disposition d’oeuvres protégées sur une plateforme comme YouTube. C’est légitime de fermer Zone téléchargement, car il s’agit de contrefaçon commerciale et l’action intentée par les ayants droit s’est déroulée dans le cadre d’une procédure judiciaire, apportant la garantie de l’intervention du juge.

Ce que nous proposons, c’est une légalisation du partage non-marchand, couplée à une redevance levée sur l’abonnement Internet des foyers, de l’ordre de 4 ou 5 euros par mois, afin que cela constitue une nouvelle forme de financement mutualisée pour la création. C’était l’idée originale de la licence globale que nous avons adaptée et que nous préférons appeler « contribution créative ». Mais à chaque fois qu’on essaie d’en discuter avec les ayants droit, on nous caricature, ils nous disent qu’on veut légaliser toutes les formes de partage. C’est faux !

La situation peut-elle évoluer ? Y a-t-il des signes en ce sens ? Et l’offre légale apporte-t-elle une amélioration ?

Il n’y a aucune raison que ça ne continue pas comme avant. La Sacem, par exemple, est très agressive. Elle s’en prend sans distinction à toutes les formes de partage, y compris à celle qui restent dans la sphère du non-marchand. Et c’est grave, car quand des sites comme What.cd ferment, les gens prennent l’habitude d’aller sur des sites de contrefaçon marchande, ils s’habituent aux pubs, ils ne participent à aucune communauté d’amateurs… La situation n’est pas réjouissante, car la guerre au partage menée par les ayants droit a dramatiquement réduit les pratiques réellement non-marchandes, en poussant les gens vers les sites mafieux.

Quant à l’offre légale, elle peut coexister avec le partage non marchand. C’est déjà très largement le cas pour la musique, où des offres de streaming de type Deezer ou Spotify ont réussi à trouver leur public, malgré le maintien à un niveau élevé des pratiques d’accès illégal aux oeuvres. Mais au niveau du cinéma, on n’y est pas du tout : les prix sont très élevés, la chronologie des médias en France reste la plus longue d’Europe et le catalogue est trop restreint… Tout cela favorise des sites comme Zone téléchargement.

Quelle philosophie sous-tend le « partage », mot que vous préférez à « piratage » ?

L’effet le plus intéressant du partage est l’élargissement de la gamme des oeuvres qui bénéficient de l’attention du public. Le partage décentralisé valorise des œuvres qui ne sont pas mises en avant par la distribution commerciale, celles qui forment ce que l’on appelle la « Longue Traîne ». Cette forme d’accès aux oeuvres élargit donc la diversité culturelle. Pour les gens qui partagent ainsi, ce n’est pas seulement une manière de consommer, c’est aussi une façon d’apprendre des autres, d’enrichir leurs goûts, de se forger une culture. Ce n’est pas ce qui se passait sur Zone téléchargement, qui se focalisait sur les derniers blockbusters.

Pour faire valoir ce type d’arguments, il aurait fallu pouvoir en discuter sereinement, mais en France depuis plus de 15 ans, cela n’a jamais été possible, on amalgame tout. Au début du quinquennat, nous avons un moment pensé que le débat était possible. Le candidat Hollande annonçait vouloir abroger la loi Hadopi et la remplacer par une grande loi culturelle. La question de la légalisation du partage a été abordée lors des consultations qui ont servi à élaborer le rapport Lescure. Mais très vite, le sujet a été politiquement enterré. La Sacem et les autres  sociétés d’ayants droit ont littéralement « pilonné » le gouvernement pour que la question ne puisse plus être mise en discussion.

Avec la contribution créative que vous soutenez, comment pourrait-on rétribuer les créateurs, notamment les plus petits ?

Tout le problème, c’est d’arriver à ce que la répartition de la rémunération soit moins concentrée qu’elle ne l’est actuellement. Aujourd’hui par exemple, une toute petite minorité des sociétaires de la Sacem touche la majorité des sommes et le schéma est grosso modo identique dans tous les secteurs de la création. Nous voudrions que les règles de répartition soient revues, et c’est une des raisons pour lesquelles les ayants droit ne veulent pas mettre le sujet sur la table. Il faut prendre en compte le fait qu’Internet a permis à un nombre plus important d’individus de créer et de diffuser des oeuvres. Pour répartir équitablement les revenus, il faudrait donc « lisser » la courbe, par exemple en faisant en sorte que si vous êtes cent fois plus vus que d’autres artistes, vous ne touchiez que dix fois plus. Mais dans un tel système, les gros doivent accepter de lâcher beaucoup plus au bénéfice des petits. Or, les sociétés de gestion des droits d’auteur sont tenues par ceux qui en bénéficient le plus.

Quant aux petits, qui parfois soutenaient cette démarche, il est aujourd’hui difficile de leur faire entendre ce genre d’idées. Leur précarité s’est accrue et ils voient Internet comme quelque chose qui les fragilise. La peur de perdre le peu que leur rapporte les droits qu’ils touchent l’emporte souvent sur l’espoir de pouvoir changer le système.

C’est un combat isolé ?

Si demain vous organisez un référendum sur la légalisation du partage, vous pouvez être certain que la réforme serait adoptée ! Regardez la réaction des gens après la fermeture de Zone téléchargement ; les sondages d’opinion à propos de la Hadopi vont dans le même sens, car cette institution reste profondément détestée… C’est la même chose que la prohibition de l’alcool dans les années 1920 : socialement, les pratiques de partage ne sont pas condamnées. La loi va contre les mœurs et c’est toujours une situation profondément malsaine.

Je pense que la légalisation du partage finira par arriver, même si c’est un combat de longue haleine. Cela se fera peut-être dans dix ou vingt ans. En revanche, l’idée de la contribution créative n’est pas très populaire. Mais la question de la rémunération de la création est cruciale et elle doit rester au coeur du débat. Il faut repenser les modalités de cette rémunération, mais certainement pas la supprimer.

PS : juridiquement, je n’ai pas la possibilité de republier ici mes propres propos, car ils sont justement couverts par les droits du journal Le Monde du fait de la retranscription effectuée par la journaliste. Mais je tenais que ce blog garde la trace de ces débats autour de Zone Téléchargement et je ne fais par cette reprise qu’illustrer ce que je défends : le droit au partage non-marchand. 

Cinquante nuances de consentement ou le droit d’auteur revisité par la jurisprudence ReLIRE

En avril 2013, j’avais écrit un billet au moment où la première vague de livres indisponibles a été publiée dans le registre ReLIRE et je le faisais se terminer par ces mots : « tout ce processus ne peut conduire à présent qu’à une catastrophe (…) si cette loi est finalement jetée à terre, que restera-t-il de tous ces efforts déployés ? Ce sera un épouvantable gâchis, qui aurait pu être évité si seulement un véritable débat public avait eu lieu.« 

16-maison-dieu

Un peu de plus de trois ans plus tard, la Cour de Justice de l’Union européenne a rendu sa décision la semaine dernière à propos du dispositif mis en place par la France pour la numérisation des livres indisponibles du 20ème siècle. Et le moins que l’on puisse dire, c’est que la catastrophe est bien survenue ! La Cour estime que la mise en gestion collective obligatoire des droits d’exploitation sur les livres indisponibles n’est pas compatible avec le droit de l’Union européenne, malgré le dispositif d’opt-out permettant aux auteurs de se retirer du système dans un délai de six mois après l’inscription dans le registre.

Le SNE avait laissé entendre par la voix de son directeur général qu’il pourrait ne pas tenir compte du jugement pour maintenir coûte que coûte le dispositif. Mais ces rodomontades risquent d’être difficiles à tenir… Il reste encore à attendre la décision finale du Conseil d’Etat devant laquelle l’affaire va à présent être renvoyée, mais le jugement de la Cour est tellement clair que l’on voit mal comment il pourrait s’en écarter. On a d’ailleurs appris hier que la SOFIA, à qui les droits sur les livres indisponibles sont transférés, a décidé de prendre les devants et de cesser de délivrer des licences d’exploitation jusqu’à nouvel ordre.

L’ampleur du désastre est impressionnante : depuis mars 2013, ce sont quelques 212 000 livres qui sont passés en gestion collective à la SOFIA et le catalogue du principal exploitant, la société FeniXX – filiale du Cercle de la Librairie – comptait déjà 25 000 références. Tous les titres numérisés à partir des collections de la BnF vont devenir à présent inutilisables, à moins que le système ne soit revu en profondeur (dans des proportions telles qu’il ne pourra pas s’en remettre…).

Symboliquement, c’est aussi une immense gifle qui est assénée à la France par la CJUE. Les juges de Luxembourg viennent tout simplement de dire haut et fort que le « pays de Beaumarchais » s’est essuyé les pieds sur les droits des auteurs avec sa loi sur les livres indisponibles. Cela risque à présent de devenir un brin plus compliqué pour le gouvernement d’aller faire la morale à la Commission européenne à propos de la réforme du droit d’auteur ! La condamnation rejaillit aussi sur tous les membres de la belle « Union sacrée » qui a permis à la loi sur les indisponibles de passer en force, malgré les nombreuses mises en garde qu’elle avaient suscitées. Le SNE, le CNL, le Service du Livre et de la Lecture, le Commissariat général à l’investissement, le Conseil Constitutionnel, mais aussi la SGDL et la SCAM, deux sociétés sensées pourtant « défendre » les intérêts des auteurs : tous sont profondément désavoués dans cette affaire. Et je ne parle pas de la BnF, qui a mis d’importants moyens financiers et humains au service de cette opération, en déshabillant au passage la numérisation du domaine public

Plusieurs commentaires de la décision de la CJUE sont déjà parus depuis la semaine dernière, mais je trouve que la plupart ont manqué des aspects importants du jugement. Celui-ci est en effet remarquablement équilibré : certes, il condamne la loi française pour avoir porté atteinte au droit des auteurs – et on peut s’en réjouir -, mais dans le même temps, la Cour procède à une interprétation constructive du droit communautaire qui ouvre aussi des pistes intéressantes en faveur des usages, notamment parce qu’elle admet la notion de « consentement implicite des auteurs ». C’est sur ce dernier aspect que je voudrais surtout insister dans ce billet, en essayant de monter ce qui pourra peut-être changer à l’avenir sur ces nouvelles bases.

L’admission d’un consentement implicite de l’auteur

La CJUE devait se prononcer pour savoir si la France pouvait introduire une nouvelle exception ou limitation au droit d’auteur dans sa législation nationale pour la numérisation des livres indisponibles. Or la Cour commence par constater que cette hypothèse n’est pas prévue à l’article 5 de la directive qui énumère les exceptions pouvant être transposées par les Etats-membres et elle rappelle que cette liste présente un caractère exhaustif.

A vrai dire, la Cour aurait pu s’arrêter là pour déclarer non-conforme au droit de l’Union la loi sur les livres indisponibles. Mais ce n’est pas ce qu’elle fait et c’est un point tout à fait intéressant à relever. En effet, la CJUE rappelle un principe central du droit d’auteur en vertu duquel « tout acte de reproduction ou de communication au public d’une œuvre par un tiers requiert le consentement préalable de son auteur » et que « toute utilisation d’une œuvre effectuée par un tiers sans un tel consentement préalable doit être regardée comme portant atteinte aux droits de l’auteur de cette œuvre« .

Mais elle poursuit en faisant remarquer que la directive ne précise pas « la manière dont le consentement préalable de l’auteur doit se manifester, de sorte que ces dispositions ne sauraient être interprétées comme imposant qu’un tel consentement soit nécessairement exprimé de manière explicite. Il y a lieu de considérer, au contraire, que lesdites dispositions permettent également de l’exprimer de manière implicite. » C’est à mon sens l’apport central de cette jurisprudence, peut-être plus encore que la condamnation de la loi sur les indisponibles.

Car jusqu’à présent, il paraissait inenvisageable que l’auteur puisse admettre « implicitement » un usage de son oeuvre, or c’est bien cette possibilité que la CJUE a décidé d’introduire. Elle rappelle qu’elle avait déjà fait un pas dans cette direction en 2014 dans sa décision Svensson sur les liens hypertexte, dans laquelle elle a estimé qu’un titulaire de droits qui poste volontairement une oeuvre en ligne accorde une autorisation implicite à quiconque de pointer vers elle par le biais d’un lien.

Mais la Cour va ici beaucoup plus loin, car les usages en cause dans l’affaire ReLIRE englobent la numérisation, la diffusion et la commercialisation des livres indisponibles. Aussi prend-t-elle la précaution d’interpréter strictement la notion de « consentement implicite de l’auteur » qu’elle vient d’admettre. Il s’agit notamment de s’assurer que l’auteur ait été « effectivement informé de la future utilisation de son œuvre par un tiers et des moyens mis à sa disposition en vue de l’interdire s’il le souhaite. » Et plus loin, la Cour ajoute que l’effectivité de cette information passe nécessairement par son caractère « individualisé« .

C’est ce dernier mot qui entraîne au final la chute du système des indisponibles. La Cour relève bien qu’une information générale a été faite autour du registre ReLIRE , sur le site mis en place par la BnF et par voie de presse, afin d’inciter les auteurs à manifester leur opposition à l’inclusion de leur oeuvre dans le dispositif. Mais ces moyens ne sont pas suffisants à ses yeux, car il manque une information faite à chaque auteur, par exemple par mail ou par courrier, à propos de la mise en gestion collective de ses droits.

La CJUE finit donc par conclure que la directive de 2001 ne permettait pas à la France de mettre en place ce nouveau système de gestion collective obligatoire, mais il faut bien comprendre ce qu’elle veut dire exactement. On peut en effet affirmer – en raisonnant a contrario –  que si la loi sur les indisponibles avait prévu un système d’information individualisé des auteurs, alors non seulement elle aurait été validée, mais la Cour n’aurait pas considéré que la France avait introduit une nouvelle exception. Elle aurait au contraire admis l’opt-out en considérant qu’un auteur qui garde le silence après avoir été averti en personne est réputé avoir donné implicitement son consentement à l’usage de l’oeuvre.

Et ça, c’est proprement révolutionnaire !

Un droit européen plus ouvert à présent que le copyright américain ?

C’est la raison pour laquelle je dis, qu’en dépit des apparences, cette décision de la CJUE est équilibrée et ouvre de nouvelles perspectives en matière d’usage des oeuvres. Pour bien le comprendre, il est assez utile de faire un parallèle avec le copyright américain, notamment par rapport à l’issue en justice de l’affaire Google Books.

Souvenez-vous : en 2009, Google avait réussi à conclure avec les éditeurs américains un Règlement (Settlement), aux termes duquel ces derniers acceptaient la possibilité pour le moteur de recherche de commercialiser les livres épuisés qu’il avait numérisés à partir des fonds de ses bibliothèques partenaires. Un Book Rights Registry aurait été mis en place pour que les auteurs puissent sortir du système, en manifestant leur opposition (ça ne vous rappelle rien ?).

Mais cet arrangement n’avait pas été accepté par la Guilde des Auteurs et en 2011, le juge Denis Chin, en charge de cette affaire, a choisi de ne pas avaliser le règlement, en considérant qu’il était contraire aux principes fondamentaux du copyright américain. En particulier, il avait mis en avant le fait que l’opt-out renversait les règles classiques du copyright, et notamment celle qui impose de recueillir une autorisation explicite de la part des auteurs. On trouvait par exemple ce passage dans sa décision :

The law of the United States is a copyright owner may sit back, do nothing and enjoy his property rights untrammeled by others exploiting his works without permission. Under the [Settlement], however, if copyright owners sit back and do nothing, they lose their rights.

Traduction : Le droit des Etats-Unis prévoit que le titulaire d’un copyright peut rester assis et ne rien faire, sans que cela le prive de ses droits de propriété vis-à-vis des tiers, qui doivent lui demander une autorisation pour pouvoir exploiter ses oeuvres. Pourtant d’après le Règlement, si les titulaires d’un copyright restent assis sans rien faire, ils vont perdre leurs droits.

Et c’est précisément pour cette raison que le juge Chin a choisi de considérer que la numérisation et la commercialisation des oeuvres épuisées par Google ne pouvaient pas être couvertes par le fair use (usage équitable), mécanisme du droit américain qui permet d’échapper à l’accusation de violation du copyright dans certaines circonstances.

Or si l’on revient à présent à la décision de la CJUE dans l’affaire ReLIRE, on constate qu’elle est incontestablement plus ouverte. La Cour admet au contraire la mise en place d’un opt-out, et donc un consentement implicite de l’auteur, à la condition qu’une information effective et individualisée lui ait été préalablement faite à propos de l’usage projeté de son oeuvre. Et un Etat de l’Union peut choisir de mettre en place un tel dispositif même s’il ne correspond pas à une exception figurant dans la liste de la directive, précisément parce qu’il ne s’agit pas pour la Cour d’une exception, mais d’un simple aménagement du mode d’expression du consentement des auteurs.

Quelle marge de manœuvre ouverte aux usages ?

L’interprétation que je fais de la décision n’est pas forcée, car la Cour dit noir sur blanc que  » la directive ne s’oppose pas à ce qu’une réglementation nationale, telle que celle en cause au principal, poursuive un objectif tel que l’exploitation numérique de livres indisponibles dans l’intérêt culturel des consommateurs et de la société dans son ensemble. » C’est donc admettre qu’au nom de l’intérêt général, on puisse déroger au principe du consentement préalable explicite pour passer à des systèmes plus souples où le consentement des auteurs sera recueilli de manière implicite.

Or qui peut le plus peut le moins : la CJUE va jusqu’à admettre que la mise en gestion collective des droits à des fins de commercialisation des oeuvres peut emprunter cette voie du consentement implicite. On peut donc en déduire que ce sera aussi a fortiori le cas pour des usages qui viseraient par exemple des finalités scientifiques, sans commercialisation. A la condition de prévenir formellement les titulaires de droits par mail ou par courrier individualisés et de leur laisser au moins 6 mois pour exprimer leur refus, on pourra considérer dorénavant que le silence gardé vaut autorisation.

Evidemment, la contrainte de l’information individualisée n’est pas du tout anodine. Elle engendrera des frais de recherche des titulaires de droits et de procédure, qui empêcheront que ce dispositif puisse être employé dans le cadre de projets impliquant de nombreuses oeuvres. C’est d’ailleurs au final ce qui va faire tomber le système ReLIRE en France, car à des échelles de centaines de milliers d’oeuvres, il est impossible de contacter individuellement les auteurs sans que les coûts explosent complètement. Mais pour des projets de recherche plus limités, impliquant des titulaires de droits peu nombreux, la voie du consentement implicite me paraît pouvoir être mobilisée avec bénéfice.

***

On peut donc saluer l’approche audacieuse retenue par la Cour de Justice de l’Union européenne. Sa décision va protéger à l’avenir les auteurs d’opérations brutales et iniques de spoliation de leurs droits, à l’image de ce que ReLIRE a donné l’exemple. Mais pour autant, le jugement procède à une véritable relecture du droit d’auteur au sein de l’Union européenne, qui va ouvrir des marges de manoeuvre au niveau des usages, que même le fair use ne permet pas aux Etats-Unis.

PS : je vous recommande après ce billet d’aller lire celui écrit par Thelonious_moon sur son blog à propos de cette décision. Il montre notamment que les principes posés par la décision de la CJUE vont aussi sonner le glas d’un autre système abusif et absurde mis en place par le législateur français : celui de la « taxe Google Images » votée cet été dans la loi Création. Ce dispositif s’appuie lui aussi sur une mise en gestion collective forcée des droits sur les images (y compris lorsque les créateurs ont choisi de les placer sous licence libre !). Or cette fois, aucun opt-out n’est prévu pour que les auteurs puissent se retirer, ni aucune information personnalisée (impossible de toutes façons, car il faudrait joindre un par un tous les créateurs d’images du monde entier…). Il en résulte que cette nouvelle abomination juridique restera mort-née…

 

L’exception TDM dans la loi numérique : mérites, limites et perspectives

Je poste dans ce billet le support d’une intervention que j’ai été invité à donner lors du colloque « La loi numérique, et après ? » à l’occasion d’un atelier consacré à la question des pratiques de Text et Data Mining.

Je ne vais pas avoir le temps de développer les réflexions figurant dans cette présentation, mais j’en donne ci-dessous les lignes principales. La loi République numérique a consacré une nouvelle exception au droit d’auteur et au droit de producteur de bases de données visant à permettre la « fouille » ou « l’exploration » de « textes ou de données incluses ou associées à des écrits scientifiques ».

Le texte de l’exception est issu d’un compromis qui fut très délicat à trouver au Parlement et il en porte les stigmates. Affecté de plusieurs lacunes et incohérences, il soulève des questions d’interprétation épineuses et il manque encore un (ou deux décrets) pour que l’exception soit réellement applicable. On a pu apprendre lors du colloque que ces décrets étaient actuellement en cours de rédaction au niveau du Ministère de l’Enseignement Supérieur et du Ministère de la Culture.

Lorsqu’on la compare à la situation en Angleterre et aux Etats-Unis, l’exception française paraît au premier abord limitée dans sa portée. Elle permet de faire des reproductions d’oeuvres en vue d’opérations de TDM, mais seulement pour des textes, laissant de côté les images et les oeuvres musicales ou audiovisuelles. Par ailleurs, en ce qui concerne les données, l’exception n’est mobilisable que si les informations sont incluses ou associées à des écrits scientifiques. Cela rendra inopérante l’exception TDM pour traiter des données qui ne seraient pas associées à des publications scientifiques (pensons à des bases de statistiques ou à des données circulant en ligne sur le web). 

Par ailleurs (contrairement aux Etats-Unis ou au Japon), l’exception ne peut pas être utilisée à des fins commerciales, ce qui va exclure son application pour des projets co-financés par des entreprises ou s’effectuant dans le cadre de partenariats publics-privés. Il est même plus que probable que les opérations de TDM ne pourront pas être confiées par des équipes de recherche à des sous-traitants privés contre rémunération. 

Ce que j’ai essayé de montrer dans cette intervention, c’est que les décrets vont avoir une importance décisive pour déterminer si l’exception sera réellement applicable ou non. Il reste en effet un grand flou pour savoir dans quelle mesure elle sera opposable à des restrictions contractuelles ou techniques que des fournisseurs de bases de données continueraient à imposer à des extractions en vue de faire du TDM.

Il manque dans le texte un élément crucial : la précision que cette mesure présente un caractère d’ordre public, à l’image de ce que l’on trouve par contre à l’article 30 de la loi (celui sur le Libre Accès aux publications scientifiques). Ce type de mécanismes garantit que des clauses contractuelles qui seraient contraires à l’exception seront nulles d’effets et il paraît déterminant que le décret mentionne explicitement que c’est le cas, faute de quoi les titulaires de droits risquent de retrouver un pouvoir de contrôle non négligeable sur les pratiques.

Par ailleurs, il y a également des questions d’articulation avec les Mesures Techniques de Protection (MTP) que les fournisseurs de base de données ou les éditeurs pourraient continuer à maintenir pour limiter, ou même supprimer, les possibilités de faire du TDM sur leurs contenus. La jurisprudence française n’est pas favorable aux exceptions dans la balance avec les Mesures Techniques de Protection (voir la fameuse décision Mullholland Drive de la Cour de Cassation, qui a permis à un titulaire de droits de supprimer la possibilité de faire une copie privée en implantant un DRM sur un DVD). L’exception TDM ne figure  par ailleurs même pas dans la liste de celles pour lesquelles la Hadopi peut être saisie pour effectuer une régulation, ce qui privera les communautés scientifiques d’un recours en cas de verrouillage excessif. Le décret devrait donc aussi se pencher sur cette question des limitations techniques, sans quoi des problèmes importants se poseront immanquablement à l’avenir en pratique. 

Enfin, un autre enjeu des décrets d’application sera de déterminer comment les fichiers produits pour effectuer les opérations de TDM pourront être conservés et communiqués. L’exception ne parlant que de reproduction et pas de « représentation », on est hélas certain sur les chercheurs ne pourront pas afficher des extraits des textes reproduits lors de la publication des résultats de recherche (sauf peut-être dans la limite – étroite – de l’exception de courte citation). 

Le texte de loi prévoit par ailleurs que des organismes de conservation seront désignés pour recevoir les « archives du TDM », c’est-à-dire les fichiers produits par reproduction d’oeuvres ou de bases, qui auront servi à effectuer les opérations de fouille. Il a été dit lors du colloque qu’une institution comme la BnF s’est déjà positionnée pour jouer ce rôle de « tiers de confiance », mais d’autres établissements pourraient aussi intervenir (l’INIST par exemple ? Ou le CINES ?). 

Or là aussi, il faudra rester très vigilant, car ce dispositif ressemble beaucoup à celui qui a été mis en place pour la consultation des archives du web à la BnF. On sait que pendant longtemps, ces archives,  pourtant très précieuses pour la recherche,  sont restées accessibles uniquement sur place dans les emprises de la BnF. Ce n’est que récemment que plusieurs bibliothèques supplémentaires en région ont été désignées pour servir également de points de consultation. Si la communication des archives des projets de TDM devait aussi uniquement se faire sur place dans un ou deux établissements en France, autant dire que le bénéfice de l’exception serait relativement limité. Il faut que le décret prévoit des marges de manœuvre pour que les tiers de confiance puissent recommuniquer ou offrir des accès à distance à ces fichiers, pour favoriser de nouvelles recherches. 

Même si l’exception a une portée limitée, elle peut quand même avoir une utilité non négligeable. Par exemple, elle va sécuriser la possibilité de faire du TDM à partir de contenus textuels librement accessibles en ligne, notamment des sites comme des archives ouvertes institutionnelles, HAL, Persée, Revues.org ou Hypothèses (ce qui était impossible avant, sauf pour les contenus places volontairement par les auteurs sous Creative Commons). Reste à favoriser au maximum le TDM à partir de ces sources, ce qui passe par la mise en place de moyens techniques (API, formats ouverts, etc) et devrait faire l’objet d’une politique concertée. 

Je précise pour terminer qu’un autre enjeu important se profile pour l’exception TDM à moyen terme : celui de l’adoption de la prochaine directive sur le droit d’auteur. Dans la proposition dévoilée par la Commission européenne en septembre dernier figure bien une exception en faveur du TDM, dont la transposition serait obligatoire pour tous les Etats-Membres. La formulation retenue présente le mérite par rapport à l’exception française de s’appliquer à tous les types d’oeuvres et de données. Elle couvre les activités de recherche scientifique, mais reste valable dans le cadre de partenariats impliquant des acteurs commerciaux. Par ailleurs, elle prévoit explicitement que les clauses contractuelles contraires seront inopérantes. En revanche, il persiste une marge de manoeuvre laissée aux titulaires de droits pour fixer des restrictions techniques aux opérations d’extraction, avec un appel aux Etats pour déterminer à leur niveau les bonnes pratiques en la matière.

Au final, il faut bien sûr se réjouir de l’adoption de cette exception dans la loi numérique, qui a été arrachée de haute lutte grâce à la mobilisation de la communauté des chercheurs et des professionnels de la documentation. Mais il serait naïf de croire que la partie est définitivement gagnée. Beaucoup de ce qui a été obtenu par la loi pourrait hélas être repris dans les décrets et cela reste au niveau européen que persiste l’enjeu décisif, car c’est la directive (dont l’adoption peut encore prendre deux ans) qui déterminera au final le cadre applicable.

Affaire à suivre…