La Bibliothèque de Lyon libère le domaine public avec la Licence Ouverte

Je ne sais pas exactement quand ce changement est intervenu, mais il est loin d’être anodin. La Bibliothèque Municipale de Lyon a modifié les conditions d’utilisation de Numelyo, sa bibliothèque numérique lancée en 2012. A l’ouverture, le choix avait été fait d’appliquer une licence Creative Commons CC-BY-NC-ND (Paternité – Pas d’Usage Commercial – Pas de modification), y compris aux fichiers correspondant à des oeuvres appartenant au domaine public. Or on constate que ce n’est plus le cas à présent : les oeuvres diffusées sont accompagnées de la mention « Domaine public. Licence Ouverte – Open Licence ». En témoigne par exemple l’estampe ci-dessous, signée Rembrandt.

rembrandt
Adam et Eve. Par Rembrandt. Source : Bibliothèque Municipale de Lyon. Domaine Public – Licence Ouverte.

Lire la suite

Comment l’affaire Google Books se termine en victoire pour le Text Mining

Google a lancé son projet géant de numérisation des livres en 2004 et dès l’année suivante, un ensemble d’auteurs et d’éditeurs ont attaqué le moteur de recherche devant les tribunaux pour violation du droit d’auteur. Le procès Google Books est certainement l’un des plus importants de ce  début du 21ème siècle, car il va redéfinir profondément les équilibres en matière d’adaptation du droit d’auteur à l’environnement numérique. Dix ans après le début de l’affaire, une Cour d’appel américaine a finalement donné raison à Google en lui reconnaissant la semaine dernière le bénéfice du fair use (usage équitable). Elle confirme la décision rendue en  2013 par le juge Denny Chin et elle pourrait bien marquer le point final de la procédure, même si les auteurs encore en litige face à Google agitent à présent la menace de saisir la Cour suprême.

J’ai déjà beaucoup écrit sur S.I.Lex à propos de cette affaire Google Books (peut-être plus d’ailleurs que sur aucun autre sujet…) en m’efforçant de couvrir ses différentes phases, aussi bien aux Etats-Unis qu’en France. Ce qui me frappe à la lecture de ce nouveau jugement, c’est le déplacement graduel des enjeux sous-jacents qui s’est opéré au fil du temps. En 2005, la question principale portait sur la réutilisation de contenus protégés (la numérisation, puis la revente de livres) ; aujourd’hui, le vrai problème concerne les données contenues dans les ouvrages et l’usage qui peut en être fait. Le procès Google Books rejoint finalement la problématique du Text et Data Mining (fouille de textes et de données), dont on parle aussi beaucoup en ce moment au niveau européen et en France.

La décision Google Books va constituer un formidable vecteur pour les pratiques d’exploration de textes. Mais ces marges de manoeuvre ne seront ouvertes qu’aux Etats-Unis seulement, en creusant au passage encore plus l’écart avec l’Europe en la matière…

Le glissement des contenus aux données

C’est essentiellement à partir de cette question de l’usage des données contenues dans les livres que les juges d’appel ont accordé le bénéfice du fair use à Google, en considérant que le service qu’il offrait à ses utilisateurs était susceptible d’apporter un bénéfice à la société en termes d’accès à la connaissance, justifiant que l’on écarte l’application des droits exclusifs des auteurs.

Mais ce faisant, ce jugement a conjuré une des grandes craintes que l’on pouvait avoir à propos de cette affaire Google Books : il n’a pas accordé une sorte de privilège exclusif sur cette activité au moteur de recherche, bien au contraire. La firme de Mountain View ne sera en effet pas la seule dorénavant aux Etats-Unis à pouvoir numériser des livres protégés pour fournir des services de recherche et de d’exploration de données. Grâce au fair use, cette même faculté a été ouverte à tous ses concurrents commerciaux, aussi bien qu’aux bibliothèques publiques et aux chercheurs académiques. L’issue de l’affaire Google Books va donc créer aux Etats-Unis un véritable écosystème ouvert en faveur de l’exploration de textes, qui libérera le potentiel offert par ces nouvelles technologies d’analyse computationnelle, sans en réserver les bénéfices à un seul acteur.

La situation outre-Atlantique offre un contraste saisissant avec l’Union européenne, où mis à part l’Angleterre qui a introduit en 2014 une exception en faveur du Text Mining à des fins de recherche, le reste de la zone se débat encore avec la difficulté à réformer le cadre du droit d’auteur. C’est particulièrement vrai pour la France, où la conception « propriétariste » étroite du droit d’auteur qui constitue l’idéologie dominante bloque pour l’instant toute possibilité d’évolution dans le sens des usages.

L’intérêt du public avant tout

L’un des aspects les plus intéressants de cette décision d’appel, c’est d’avoir offert aux trois juges qui composaient le tribunal l’opportunité de rappeler la philosophie générale de la loi sur le droit d’auteur aux Etats-Unis. Ils expliquent notamment que le monopole temporaire reconnu légalement aux auteurs n’a été instauré que pour servir une cause plus élevée de diffusion de la connaissance dans un but d’intérêt général :

Le but ultime du droit d’auteur est de favoriser la progression du savoir et de la connaissance, ce que le droit d’auteur s’efforce d’atteindre en donnant aux créateurs potentiels un droit exclusif de contrôle sur les copies de leurs oeuvres, leur offrant par là une incitation à créer des oeuvres enrichissantes intellectuellement à destination du public […] Ainsi, si les auteurs sont sans aucun doute des bénéficiaires importants du droit d’auteur, le bénéficiaire ultime doit être le public et c’est pour favoriser l’accès du public à la connaissance que des récompenses sont accordées aux auteurs.

La Constitution américaine formulait déjà de tels principes, en affirmant que le droit d’auteur existe pour « favoriser le Progrès de la Science », mais jamais encore la jurisprudence n’avait eu l’occasion de dire aussi nettement que le copyright constitue en réalité avant tout un droit du public.

L’exploration de textes au regard de l’usage équitable

Sur la base de telles prémisses, la Cour d’appel s’est donc logiquement tournée vers une appréciation des buts poursuivis par Google dans son projet et de l’utilité sociale procurée par les services mis à disposition du public. Contrairement aux juges français lorsqu’ils ont été saisis de la même affaire lors du procès Google/La Martinière, les trois juges américains ne se sont pas arrêtés au fait que Google a effectué des copies d’oeuvres protégées ; ils ont aussi cherché à savoir pourquoi il avait opéré ces reproductions.

Dans l’état actuel des choses, Google Books propose essentiellement une fonctionnalité de recherche en plein texte au coeur des livres numérisés, indiquant à l’utilisateur la localisation des occurrences des termes recherchés, ainsi que la visualisation de trois brefs extraits (snippets) et non de l’intégralité des ouvrages. Google propose aussi un service d’exploration de textes (Google Ngram Viewer), permettant de visualiser sous forme de graphiques l’évolution des occurrences d’un terme au fil du temps sur l’ensemble des livres numérisés (ou au choix des sous-ensembles ciblés du corpus).

ngram
Visualisation de résultats dans Google Ngram Viewer.

Pour les juges, résoudre l’affaire a consisté à déterminer si ces usages était bien « transformatifs » (un des quatre critères du fair use) ou s’ils constituaient au contraire pour l’utilisateur un « substitut » aux livres originaux. La réponse à cette question a été que les fonctionnalités de recherche et de fouille de textes présentent en elles-mêmes un caractère « hautement transformatif » :

Le but de Google en copiant les livres originaux protégés est de rendre disponible des informations pertinentes à propos de ces livres, permettant à un chercheur d’identifier ceux contenant un mot ou une expression l’intéressant, tout comme ceux n’incluant pas une telle référence. De plus, avec l’outil Ngrams, Google autorise les lecteurs à connaître la fréquence des usages de mots sélectionnés dans le corpus global des livres publiés à différentes périodes historiques. Nous n’avons aucun doute que le but de ces copies correspond au type de but transformatif décrit [dans la jurisprudence sur le fair use].

La question de l’offre de substituts aux livres originaux se posait particulièrement à propos des entrefilets (snippets) affichés par Google en regard des réponses aux requêtes. Mais là encore, les juges admettent sans difficulté leur caractère « transformatif » quand bien même le texte d’origine est présenté à l’utilisateur :

La séparation des pages en courts entrefilets opérée par Google est conçue pour montrer au chercheur une portion suffisante du contexte dans lequel apparaît le terme recherché pour l’aider à évaluer si le livre correspond bien à ses centres d’intérêt (sans révéler suffisamment de contenus pour menacer les intérêts légitimes de l’auteur). Dès lors, les entrefilets contribuent de manière importante au caractère hautement transformatif de l’objectif consistant à identifier des livres correspondants aux centres d’intérêt du chercheur.

Entrefilets (snippets) affichés par Google en fonction d’une requête.

On notera aussi que le fait que Google soit une société commerciale n’a pas été retenu comme un critère pertinent pour écarter le bénéfice du fair use, et ce pour deux raisons : 1) Google ne vend plus de livres protégés sans accord explicite des titulaires de droits, ni n’affiche de publicité dans l’interface même de Google Books, 2) de nombreux usages d’oeuvres protégées couverts par le fair use comme la citation, la critique, le commentaire ou la parodie peuvent tout à fait être réalisés dans un but de profit.

Un droit à l’extraction automatisée des informations

Lorsqu’on lit un livre papier, l’esprit humain est capable d’en extraire les informations pertinentes et c’est de cette manière que s’opère la transmission du savoir que favorise la lecture. Les partisans du Text et Data Mining estiment que ce « Droit de Lire » doit être reconduit dans l’environnement numérique en permettant l’extraction automatisée d’informations à partir de reproductions d’oeuvres, sans interférence du droit d’auteur qui n’a pas à entraver ce type d’usages (voir la déclaration de La Haye et la campagne « The Right To Read Is The Right To Mine »).

C’est exactement ce qu’ont consacré les trois juges d’appel en rappelant que le droit d’auteur sur une oeuvre protégée ne s’applique pas aux informations sous-jacentes qu’elle peut contenir. Le passage ci-dessous est lumineux de ce point de vue :

La faculté d’un entrefilet à satisfaire le besoin d’un chercheur pour un livre protégé donné découle du fait que l’entrefilet contient un fait historique que le chercheur a besoin de vérifier. Par exemple, un étudiant écrivant un travail sur Franklin D. Roosevelt peut avoir besoin de connaître l’année où Roosevlet a été frappé par la polio. En tapant « Roosevelt Polio » dans Google Books, l’étudiant sera conduit (parmi de nombreuses autres sources) vers un entrefilet correspondant à la page 31 du livre « The Making of Franklin D. Roosevelt » écrit par Richard Thayer Goldberg (1981), expliquant que cette attaque de polio est survenue en 1921. Cela répondra au besoin du chercheur, éliminant certes au passage tout besoin d’acheter ce livre ou de l’obtenir par le biais d’une bibliothèque. Mais ce que le chercheur a obtenu par le biais de l’entrefilet est un fait historique. Le droit d’auteur de Goldberg ne s’étend pas aux faits communiqués à travers son livre. Ils ne protègent que la manière dont l’auteur les a exprimés.

Dès lors les informations – même « encapsulées » dans les livres – doivent rester disponibles. Cela allait de soi à propos de l’opération de lecture individuelle, qui est toujours restée un acte entièrement libre et les juges américains n’ont fait que reconduire cette liberté fondamentale à propos de la lecture automatisée. La différence fondamentale est qu’ils admettent ici l’extraction d’informations y compris s’il est nécessaire de réaliser une reproduction intermédiaire pour l’effectuer.

Un horizon qui s’ouvre pour l’exploration de textes… aux Etats-Unis !

Les acquis de cette décision Google Books vont profiter par ricochet à toutes les bibliothèques partenaires ayant reçu des doubles des copies numériques des ouvrages. On a ici confirmation qu’elles peuvent offrir à leur public des services de recherche et de fouille de données à partir de ces corpus. Ce sera notamment le cas pour le grand entrepôt numérique Hathi Trust, né d’un regroupement d’institutions publiques partenaires de Google, qui a aussi été vainement attaqué en justice par des auteurs américains lui contestant la possibilité d’utiliser ces reproductions.

Plus largement, tous les chercheurs aux Etats-Unis se verront désormais ouvrir des possibilités considérables en matière de Text et Data Mining. En vertu de ce jugement, ils pourront en effet :

  1. Numériser des ensembles très larges de contenus protégés par le droit d’auteur dès lors qu’ils sont accessibles à partir d’une source licite ;
  2. Conserver ces corpus sans limite dans le temps et sans obligation de les détruire une fois utilisés ;
  3. Les transmettre à des tiers, comme l’a fait Google avec ses bibliothèques partenaires, les mutualiser au sein d’entrepôts partagés comme le fait Hathi Trust ;
  4. Développer des fonctionnalités d’indexation et de recherche au sein de ces ensembles ;
  5. Effectuer des analyses computationnelles, en soumettant ces contenus à des traitements opérés par des algorithmes ;
  6. Afficher des extraits des contenus – limités à de courts entrefilets pour ne pas constituer un substitut au texte original – , affiché en regard des résultats de recherche pour les contextualiser ;
  7. Et le tout, même si le projet de recherche possède une dimension commerciale, du moment que les contenus en eux-mêmes ne sont pas revendus !

Avec cette jurisprudence Google Books, les États-Unis viennent donc d’ouvrir à leurs chercheurs un champ immense pour pratiquer le Text Mining, leur conférant un avantage significatif sur leurs homologues européens, même par rapport à l’Angleterre où l’exception introduite l’an dernier est beaucoup moins souple que cette application du fair use américain.

Pendant ce temps, en France…

J’avais déjà analysé dans S.I.Lex une étude récente ayant montré que dans les pays dotés d’une exception dédiée ou d’un système de fair use, les recherches s’appuyant sur le Text et Data Mining étaient en moyenne trois fois plus nombreuses que dans les autres.

Trois fois plus de recherches utilisant le TDM dans les pays de fair use…

La France de son côté – comme souvent hélas pour tous les sujets impliquant le droit d’auteur – fait pâle figure. La loi numérique préparée actuellement par Axelle Lemaire contenait bien à l’origine une exception (limitée) en faveur de l’exploration de textes et de données, mais cette disposition a sauté au fil des pressions exercées par les éditeurs. La question est revenue sur le tapis à l’occasion de la consultation ligne sur le texte qui s’est achevée la semaine dernière. Mais il n’est pas assuré que le gouvernement trouve le courage politique de réintroduire cette exception dans le texte qu’il présentera au Parlement… Le projet ReLIRE à propos des livres indisponibles, que l’on présente souvent abusivement comme la réplique française à Google Books est lui-aussi en complet décalage, puisqu’il n’a consisté qu’à mettre en place une grosse librairie numérique, sans se préoccuper des enjeux pourtant essentiels liés au Text Mining.

Le problème qui affecte la France est en réalité très profond. Là où la justice américaine est capable de dire que le droit d’auteur est avant tout un droit du public, nous restons paralysés par une vision « propriétariste » étriquée, qui rend imperméable les juges à la prise en compte de l’intérêt général. Les vieilles notions figurant dans le Code (la reproduction, la représentation, la courte citation et en général, notre conception étroite des exceptions) sont bien trop pauvres pour appréhender la complexité mouvante des réalités numériques par rapport à l’adaptabilité dont fait preuve le fair use.

Mais le droit n’est pas le seul en cause et les œillères idéologiques jouent aussi un rôle puissant. Lorsque le CSPLA – organe rattaché au Ministère de la Culture – a produit par exemple en 2014 un rapport sur le Text et Data Mining, le juriste Jean Martin, à qui était confiée cette mission, commence dès l’introduction à assimiler l’exploration de textes et de données à une forme de « parasitisme » des oeuvres protégées pour recommander au final au gouvernement… de ne rien faire ! De son côté, l’avocat Richard Malka, dans son pamphlet « La gratuité, c’est le vol » commandé par le SNE,  consacre des  développements particulièrement acerbes au Text et Data Mining :

Une possibilité serait donnée aux utilisateurs de reproduire gratuitement, dans des bases de données numériques, des œuvres protégées afin de permettre des recherches sur ces œuvres visant à produire, par extraction, des données nouvelles.

Si de tels investissements pouvaient être légalement pillés, aucun éditeur n’engagerait désormais le moindre financement pour créer de tels outils. Il n’existe, en réalité, aucune activité économique au monde dont les productions peuvent être librement expropriées pour cause d’utilité publique et sans dédommagement.

[…] Cette destruction de valeur ne profiterait en réalité qu’à des acteurs tels que Google, qui ne tirent pas leur rémunération des banques de données elles-mêmes, qu’ils pourraient ainsi «aspirer», mais de la monétarisation publicitaire du contenu qu’ils offrent. Un tel processus reviendrait ainsi à confier un pouvoir exorbitant sur la connaissance à quelques sociétés, ce qui serait l’opposé de l’objectif affiché.

Le problème, c’est que l’issue du procès Google Books contredit complètement ces prédictions quasi-eschatologiques. Par le biais du fair use, les États-Unis ont au contraire redistribué de manière équitable la capacité d’explorer automatiquement les textes et les données à tous les acteurs commerciaux sans discrimination, mais aussi à leurs institutions publiques et à leurs équipes de chercheurs afin de maximiser l’utilité sociale de ces nouvelles technologies. Quelque part, cette issue est l’une des pires possibles pour Google, qui a longtemps cherché dans cette affaire à s’arroger une exclusivité pour rentabiliser les investissements énormes avancés pour la numérisation des livres. Le risque majeur de l’affaire Google Books, c’était que le moteur de recherche acquiert un titre exclusif sur l’utilisation des contenus. Et le moment où on a frôlé une telle catastrophe, c’est précisément lorsque Google a réussi à négocier un règlement avec les homologues américains du SNE, heureusement dénoncé par la justice ! Heureusement l’affaire est repartie ensuite sur le terrain du fair use et dorénavant, la combinaison de deux facteurs – la transmission de doubles des fichiers à des établissements publics et les possibilités d’usage consacrées par le fair use – garantissent l’ouverture du système, en permettant à une pluralité d’acteurs d’opérer à présent dans le champ du Text et Data Mining.

***

Il devient urgent que les pouvoirs publics français se libèrent de l’emprise des maximalistes du droit d’auteur qui leur hurlent des contre-vérités à l’oreille, avant que les dégâts à l’échelle internationale, notamment pour la recherche, ne deviennent irréversibles.

 

 

 

Peut-on échapper à la « télévisionnisation » de YouTube ?

Voilà à présent deux semaines qu’un vent de panique souffle sur YouTube, suite à un changement dans la politique de gestion des droits d’auteur de la plateforme. Une vague de plaintes sans précédent s’est abattue sur un grand nombre de vidéos postées par des utilisateurs de YouTube. Elle frappe en priorité les « YouTubeurs », cette frange d’utilisateurs entre les pro et les amateurs, qui monétisent leurs vidéos par le biais de publicités. Pour eux, la règle du jeu semble avoir subitement changé. Alors qu’ils pouvaient auparavant réutiliser des contenus protégés en bénéficiant d’une relative immunité, voilà à présent que leurs vidéos sont épinglées, avec pour conséquence le reversement des revenus générés par la publicité au profit des ayants droit.

youtube

Cette modification a un impact profond sur le fonctionnement de YouTube et certains vont jusqu’à parler d’une Copyright Apocalypse qui aurait frappé la plateforme. C’est en fait une nouvelle étape dans la « télévisionnisation » de YouTube, qui choisit de favoriser les producteurs traditionnels de contenus au détriment des amateurs. La question à présent est de savoir s’il est possible d’échapper à ce processus ou si les YouTubeurs sont pris au piège. A mon sens, cet épisode révèle surtout le danger de se placer dans la dépendance contractuelle d’un acteur comme YouTube, capable de changer les règles du jeu du jour au lendemain. Mais il existe heureusement des moyens de contenir cette dépendance : légaliser les usages transformatifs d’oeuvres préexistantes et instaurer une contribution créative pour le financement des amateurs.

Lire la suite

Des partenariats Public-Privé aux partenariats Public-Communs (A propos du Google Cultural Institute)

L’ouverture du Google Cultural Institute aura marqué les esprits cette semaine, notamment à cause de la décision de la Ministre de la Culture, Aurélie Filippetti, de boycotter la cérémonie et de la réaction du gouvernement qui a envoyé Fleur Pellerin à la place dans une certaine confusion.

Mais ces péripéties gouvernementales ont fait oublier ce qui était sans doute le plus important : à savoir que Google a mis en place avec le Google Cultural Institute un site appelé à jouer un rôle non négligeable dans l’environnement numérique, rassemblant plus de 6 millions d’oeuvres en provenance de plus de 400 établissements culturels dans le monde. Voilà ce qu’en dit Le Mouv’ :

L’Institut culturel consiste donc en une plate-forme, sorte de gallerie des oeuvres et créations du monde, qui permet d’accéder à tout un tas d’oeuvres d’arts, mais aussi de monuments ou de merveilles naturelles. Telle une Google Map customisée, cette plate-forme permet aussi bien de voir les Alpes, d’admirer un Van Gogh ou de se balader à l’intérieur du musée d’Orsay. Pour un résultat, il faut le reconnaître, assez bluffant: 40 000 images d’oeuvres sont disponibles, certaines d’entre elles peuvent être étudier à un niveau de détail inégalé et la recherche par date, médium, artiste… est très pratique. Le rêve pour tout étudiant en Histoire de l’art ou Arts Plastiques.

Le site du Google Cultural Institute
Le site du Google Cultural Institute

Faisant suite au Google Art Project lancé en 2011, cette nouvelle plateforme offre aux institutions la possibilité de présenter leurs collections sous la forme d’expositions virtuelles. L’outil est de grande qualité et il restait pour l’instant ouvert uniquement à des institutions partenaires de Google. Mais à l’occasion de cette inauguration du Google Cultural Institute à Paris, la firme de Moutain View a annoncé le lancement d’un autre site, Google Open Gallery, qui permettra à n’importe quel musée, archives, bibliothèque, mais aussi artiste individuel, de charger ses propres images et de les éditorialiser avec des outils gratuits. D’une certaine manière, Google s’oriente vers une forme assez révolutionnaire de « YouTube de l’art et de la culture », avec la force de frappe qu’on lui connaît.

Lire la suite

Et Facebook inventa le Robocopyright « social »…

3 décembre 2013 : alors que nos libertés numériques partent déjà bien en lambeaux, Facebook s’est vu accorder un brevet sur un dispositif de contrôle des contenus circulant sur un réseau social qui fait littéralement froid dans le dos, en mélangeant allègrement le Copyright Madness, Big Brother et Minority Report.

C’est le site TorrentFreaks qui explique que Facebook a déposé un brevet sur une méthode permettant d’utiliser les informations de profils d’utilisateurs et des « signes sociaux » pour déterminer si des contenus partagés sont piratés ou non. Les données mises à contribution pour réaliser ces analyses incluent les centres d’intérêt déclarés par les membres du réseau, leur localisation géographique et leurs relations sociales.

Des systèmes automatiques de filtrage des contenus existaient déjà, et notamment le dispositif ContentID fonctionnant sur YouTube, capable de repérer des oeuvres d’après leurs empreintes et d’appliquer des actions de retrait, de sanction ou de monétisation, en fonction de la volonté des titulaires de droits. Cette application « robotisée » de la règle de droit constituait déjà une forme de police privée du copyright, entraînant des dérapages attentatoires à la liberté d’expression et une fragilisation rampante des droits des internautes.

Mais Facebook franchit cette fois un pas de plus vers la dystopie, car il ne s’agit plus de marquer les contenus, mais les utilisateurs eux-mêmes, en les profilant selon leur « propension à pirater ». Le fonctionnement de la Hadopi soulevait déjà des questions en termes de surveillance des individus et de traitement de données personnelles. Mais ici, le système est infiniment plus pervers, puisque ce sont les individus qui fournissent eux-mêmes les données servant à les contrôler, en acceptant ce type de traitement via les conditions d’utilisation du site qui prévoient que les informations des utilisateurs pourront être utilisées « pour protéger les droits ou la propriété de Facebook ou de tiers« .

On aboutit à quelque chose de potentiellement très inquiétant, et j’ai envie de dire surtout en France, où l’objectif d’arriver à mettre en place un système « d’auto-régulation des plateformes » a clairement été exprimé, tant au niveau de la Hadopi que du rapport Lescure. Cela pourrait même constituer l’enjeu principal de la future loi sur la création, annoncée pour 2014, et Facebook vient de mettre sur la table une proposition en or pour ceux qui rêvent d’un « Robocopyright », capable de réguler la circulation des contenus sans passer par le juge.

Lire la suite

Verdict dans l’affaire Google Books : une grande leçon de démocratie ?

La nouvelle est tombée hier et elle fera date : après plus de 8 années de procédure d’une incroyable complexité, Google a finalement remporté le procès qui l’opposait à la Guilde des auteurs à propos de son programme géant de numérisation Google Books. Le juge Denny Chin, en charge de l’affaire, lui a donné raison sur la base du fair use (usage équitable), une disposition du droit américain qui permet dans certaines situations de se défendre de l’accusation de contrefaçon en cas d’usage d’oeuvres protégées.

The Google Book. Par Jim Barter. CC-BY. Source : Flickr

La défaite est cinglante pour la Guilde des Auteurs, qui restait seule en lutte contre Google après que les éditeurs américains aient décidé de conclure un accord en 2012 avec le moteur de recherche. Denny Chin a en effet rendu un summary judgment, ce qui signifie qu’il a estimé que la balance penchait tellement en faveur de Google qu’il pouvait recourir à une procédure simplifiée. La fermeté du jugement va rendre hasardeux pour la Guilde des Auteurs le fait de se pourvoir en appel, même si ses responsables ont déjà annoncé qu’ils avaient l’intention de le faire.

De quoi était-il exactement question dans ce jugement ? En mars 2011, le juge Chin avait refusé de valider un Règlement par lequel Google, la Guilde des Auteurs et l’Association des éditeurs américains avaient essayé de mettre fin à leur différend sur une base contractuelle. Ils avaient voulu mettre en place un système complexe qui aurait permis à Google, en contrepartie de 125 millions de dollars,  de commercialiser les livres épuisés numérisés par ses soins, sur la base d’un opt-out (option de retrait laissée aux titulaires de droits pour sortir du système). Chin avait refusé d’entériner cette solution, en estimant qu’elle risquait de conférer à Google un monopole de fait sur la numérisation à but commercial, en particulier pour les oeuvres orphelines faisant partie du corpus.

Google a donc été obligé de revenir à l’intention initiale du projet Google Books, à savoir scanner des ouvrages, y compris sous droits, mais uniquement pour en diffuser de courts extraits (snippets) répondant aux requêtes des utilisateurs. Pour aller plus loin (montrer des portions plus larges, vendre des ouvrages), Google doit passer par des accords volontaires, avec les éditeurs et les auteurs (opt-in).

Lire la suite

Un objet qui ne respecte pas les droits du lecteur mérite-t-il de s’appeler livre ?

Hier devant la Commission des affaires culturelles de l’Assemblée était discutée une proposition de loi présentée par le rapporteur Christian Kert de l’UMP, dont le but est d’interdire la gratuité des frais de port afin de préserver les libraires de la concurrence d’Amazon. Au cours de la discussion, la députée Isabelle Attard (EELV) s’est attachée à démontrer qu’une telle mesure « ne peut prétendre changer quoi que ce soit à l’état du commerce du livre en France » et qu’elle revenait à « prendre le problème par le petit bout de la lorgnette ». 

Au lieu d’essayer de rétablir l’équilibre de l’écosystème du livre par le biais d’une Lex Amazon, elle s’est livrée une analyse beaucoup plus générale de la question du livre numérique et a proposé une mesure très intéressante, qui pourrait s’avérer bénéfique pour les libraires, mais aussi pour les lecteurs.

Book, Ball and Chain. Par Kurtis Garbutt. CC-BY-ND. Source : Flickr
Book, Ball and Chain. Par Kurtis Garbutt. CC-BY-ND. Source : Flickr

Lire la suite

Ce que le numérique fait au livre (Interview)

Il y a quelques semaines, Alexis Lhour, étudiant en double cursus ITESCIA / Paris 6, m’a posé une série de questions, en vue d’un mémoire qu’il prépare sur les aspects juridiques du livre numérique.

La discussion passe en revue des sujets comme la nature juridique du livre numérique, l’affaire ReLIRE, Google Books, le crowdfunding, le prix unique du livre numérique, la notion d’exception culturelle.

Avec son accord, je publie les réponses sur S.I.Lex sous la forme d’un billet.

Ecrans infinis. Par fdecomite. CC-BY. Source : Flickr
Ecrans infinis. Par fdecomite. CC-BY. Source : Flickr

Lire la suite

Harlem Shake : encore un mème qui secoue le droit d’auteur

Après le phénomène Gangnam Style en 2012, la folie du Harlem Shake est en train de faire naître à vitesse grand V un nouveau mème, bien parti pour battre tous les records. La vidéo qui a mis le feu aux poudres a été postée seulement le 2 février et déjà plus de 100 000 reprises, parodies, détournements ou remix sont apparus sur Youtube, totalisant plus de 400 millions de vues (avec quelques 70 vidéos à plus de un million de vues chacune).

Contrefaçon dès l’origine

Même si l’on retrouve dans ce nouveau cas des ingrédients semblables à ceux qui ont fait le succès de Gangnam Style, l’arrière plan juridique du Harlem Shake est sensiblement différent. En effet, l’épicentre du phénomène, à savoir la première vidéo postée, constitue une contrefaçon du droit d’auteur, puisque elle réutilise sans autorisation une musique protégée, composée par DJ Baauer. Même dans le cadre plus souple du fair use américain, il est douteux qu’un tel usage d’un morceau de musique puisse être considéré comme légal, alors que Gagnam Style avait été volontairement posté sur Youtube par PSY et son label. Lire la suite

Révélation : c’est Aaron Swartz qui libérait les livres de Google Books sur Internet Archive !

Le 24 janvier dernier, dans la magnifique église à San Francisco qui tient lieu de siège à Internet Archive, une cérémonie a eu lieu à la mémoire de l’activiste Aaron Swartz, dont le suicide il y a quelque semaines a provoqué un véritable électrochoc. A cette occasion, Brewster Kahle, le fondateur d’Internet Archive, a prononcé un discours au cours duquel il a fait une révélation importante à propos d’Aaron Swartz.

http://www.flickr.com/photos/ari/8413719988/
Aaron Swartz memorial at Internet Archive in San Francisco. Par Steve Rhodes. CC-BY-NC-ND. Source : Flickr

Lire la suite

La Lex Google selon Aurélie Filippetti ou le droit d’auteur bientôt dégénéré en un droit d’éditeur

La Ministre de la Culture, Aurélie Filippetti, a lancé ce matin sur BFMTV un ultimatum au moteur de recherche Google, en menaçant de déposer un projet de loi dès la fin du mois de janvier, si aucun accord n’était trouvé avec les éditeurs de presse pour les rétribuer en cas d’indexation de leurs contenus.

Ce projet dit Lex Google, reprenant une loi à l’étude en Allemagne, passe par la création d’un nouveau droit voisin, au bénéfice des éditeurs de presse. J’avais déjà eu l’occasion dans un billet précédent de dire à quel point il était dangereux d’utiliser ce procédé pour faire pression sur Google et Guillaume Champeau sur Numerama avait lui aussi dénoncé les risques de dérives, estimant qu’il s’agirait de la « pire des lois pour Internet« .

La manière dont Aurélie Filippetti a présenté cette Lex Google est vraiment préoccupante, dans la mesure où elle assimile et confond ce nouveau droit voisin à un droit d’auteur.

Lire la suite

Free Adgate : encore un argument en faveur de la contribution créative

La mise en place d’un dispositif de blocage de la publicité par Free activé par défaut sur sa box a fait l’effet d’une bombe ces derniers jours et les commentaires fusent de toutes parts à propos d’une potentielle atteinte d’un nouveau genre au principe de neutralité du web. Devant le tollé soulevé par cette étrange initiative, il semblerait que le FAI s’apprête déjà à faire marche arrière dans les prochains jours, s’en tenant à un coup de semonce adressé à Google, dans la lutte à laquelle se livre les deux opérateurs depuis des mois à propos des accords d’interconnexion.

Group meeting of the walking billboards. Par illuminaut. CC-BY-NC. Source Flickr.

Même si l’affaire pourrait rapidement retomber, il me semble qu’il faudra en tirer les leçons quant à la question de la dépendance de nombreux sites vis-à-vis de la publicité, qui leur permet d’offrir un accès gratuit à l’internaute. Guillaume Champeau, directement concerné par la question à travers Numerama, a parfaitement pointé du doigt le problème et il termine par une conclusion qui mérite à mon sens l’attention :

Les sites concernés peuvent se lancer dans un jeu du chat et de la souris avec Free pour tenter d’échapper au filtrage, ou changer de modèle économique. Ce qui n’est pas sans conséquence. Même si Numerama devenait payant, et même à considérer que nous rassemblions suffisamment d’abonnés pour être rentables, il ne faut pas oublier que la publicité a l’avantage d’offrir un accès gratuit à tous. A ceux qui peuvent se permettre un abonnement payant comme aux autres. Et que par ailleurs, les internautes ne pourront pas multiplier les abonnements à différents sites. La gratuité d’accès ne peut être obtenue que par deux biais : la publicité, ou une forme de licence globale.

Lire la suite

« Information wants to be free », vous vous souvenez ?

C’est sans doute l’une des phrases les plus célèbres prononcées à propos d’Internet : en 1984, l’auteur américain Stewart Brand lance au cours de la première Hacher’s Conference organisée en Californie :

Information wants to be free.

Ces mots deviendront l’un des slogans les plus forts du mouvement de la Culture libre et ils rencontrent encore aujourd’hui des échos importants, avec l’affaire Wikileaks par exemple, les révolutions arabes ou le mouvement de l’Open Data. L’idée de base derrière cette formule consiste à souligner que l’information sous forme numérique tend nécessairement à circuler librement et c’est la nature même d’un réseau comme internet de favoriser cette libération.

Bits. Par sciascia. CC-BY-NC-SA. Source : Flickr.

Mais les choses sont en réalité un peu plus complexes et Stewart Brand dès l’origine avait parfaitement conscience que la libre circulation de l’information était un phénomène qui engendrerait des conflits :

On the one hand information wants to be expensive, because it’s so valuable. The right information in the right place just changes your life. On the other hand, information wants to be free, because the cost of getting it out is getting lower and lower all the time. So you have these two fighting against each other.

D’un côté, l’information veut avoir un prix, parce qu’elle a une grande valeur. Obtenir la bonne information au bon endroit peut tout simplement changer votre vie. D’un autre côté, l’information veut être libre, parce que le coût pour la produire devient de plus en plus faible. Nous avons une lutte entre ces deux tendances.

Ce conflit latent traverse toute l’histoire d’Internet et il atteint aujourd’hui une forme de paroxysme  qui éclate dans une affaire comme celle de la Lex Google.

Encapsuler l’information

Pour obliger le moteur de recherche à participer à leur financement, les éditeurs de presse en sont à demander au gouvernement de créer un nouveau droit voisin à leur profit, qui recouvrira les contenus qu’ils produisent et soumettra l’indexation, voire les simples liens hypertexte, à autorisation et à redevance.

Il est clair que si de telles propositions se transforment en loi dans ces termes, la première tendance de Stewart Brand aura remporté une victoire décisive sur l’autre et une grande partie des informations circulant sur Internet ne pourra plus être libre. La Lex Google bouleverserait en profondeur l’équilibre juridique du droit de l’information.

En effet, c’était jusqu’alors un principe de base que le droit d’auteur protège seulement les oeuvres de l’esprit, c’est-à-dire les créations originales ayant reçu un minimum de mise en forme. Cette notion est certes très vaste puisqu’elle englobe toutes les créations quels qu’en soient le genre, la forme d’expression, le mérite ou la destinationmais elle ne s’applique pas aux idées, aux données brutes et à l’information qui ne peuvent pas faire l’objet d’une appropriation et demeurent « de libre parcours ».

Ces éléments forment un « fonds commun », comme le dit le professeur Michel Vivant, dans lequel chacun peut venir puiser librement sans entrave pour alimenter ses propres réflexions et créations. Tout comme le domaine public, ce fonds commun joue un rôle primordial dans l’équilibre du système, afin que le droit d’auteur n’écrase pas d’autres valeurs fondamentales comme le droit à l’information ou la liberté d’expression.

Créer un droit voisin sur les contenus de presse reviendrait à « encapsuler » l’information dans une carapace juridique et à anéantir une grande partie de ce domaine public informationnel. L’information en elle-même, et non son expression sous forme d’articles, passerait subitement en mode propriétaire, avec peut-être même une mise en péril du simple droit à la citation.

Capsules. Par vinodw. CC-BY. Source : Flickr

A vrai dire, cette tendance à l’appropriation existe depuis longtemps. Elle s’est déjà manifestée par la création d’un droit des bases de données dans les années 90, dont l’application soulève de nombreuses difficultés. Des signes plus récents montrent qu’un revirement plus profond encore est en train de s’opérer dans la conception de la protection de l’information.

Les dépêches de l’AFP ont ainsi longtemps bénéficié d’une sorte de statut dérogatoire, comme si l’information brute qu’elle contenait et qu’elles étaient destinées à véhiculer primait sur le droit à la protection. Les juges considéraient traditionnellement que ces dépêches n’étaient pas suffisamment originales pour qu’on puisse leur appliquer un droit d’auteur, ce qui garantissait leur libre reprise. Mais l’AFP s’est efforcée de renverser le principe, en attaquant dès 2005 Google News devant les tribunaux, ce qui préfigurait d’ailleurs très largement les débats autour de la Lex Google.

Or en février 2010, le Tribunal de commerce de Paris a reconnu que les dépêches pouvaient présenter une certaine forme d’originalité susceptible d’être protégée :

[…] Attendu que les dépêches de l’AFP correspondent, par construction, à un choix des informations diffusées, à la suite le cas échéant de vérifications de sources, à une mise en forme qui, même si elle reste souvent simple, n’en présente pas moins une mise en perspective des faits, un effort de rédaction et de construction, le choix de certaines expressions […]

L’affaire a été portée en appel, mais en attendant, l’information brute se trouve bien à nouveau recouverte par le droit d’auteur.

Demain, tous des parasites informationnels ?

Une affaire récente, qui a défrayé la chronique, va encore plus loin et elle pourrait bien avoir des retentissements importants, puisqu’elle tend à faire de chacun de nous des parasites en puissance de l’information, attaquables devant les tribunaux.

Jean-Marc Morandini vient en effet d’être condamné à verser 50 000 euros au journal Le Point, qui l’accusait de piller régulièrement la partie Médias 2.0 de son site, afin d’alimenter ses propres chroniques. Le jugement de la Cour d’Appel de Paris qui a prononcé cette condamnation est extrêmement intéressant à analyser, car il nous ramène au coeur de la tension autour de l’information libre formulée par Stewart Brand.

En effet, le juge commence logiquement par examiner si les articles repris sur Le Point peuvent bénéficier de la protection du droit d’auteur. Et là, surprise, sa réponse est négative, en vertu d’un raisonnement qui rappelle la position traditionnelle sur les dépêches AFP. La Cour estime en effet que les brèves figurant dans cette rubrique Medias 2.0 constituent des articles « sans prétention littéraire, ne permet[tant] pas à leur auteur, au demeurant inconnu, de manifester un véritable effort créatif lui permettant d’exprimer sa personnalité ». C’est dire donc qu’elles ne sont pas suffisamment originales pour entrer dans le champ du droit d’auteur, le journaliste qui les rédige (Emmanuel Berretta) se contentant de diffuser de l’information brute.

Parasite. Par Clearly Ambiguous. CC-BY. Source : Flickr.

Nous sommes donc bien en dehors de la sphère de la contrefaçon, mais les juges ont tout de même estimé que Morandini méritait condamnation, sur la base du fondement de la concurrence déloyale et du parasitisme. La Cour reconnaît que le journaliste imite Le Point « avec suffisamment de différences pour éviter le plagiat, notamment en modifiant les titres des brèves et articles repris », mais elle ajoute qu’il tend ainsi ainsi « à s’approprier illégitimement une notoriété préexistante sans développer d’efforts intellectuels de recherches et d’études et sans les engagements financiers qui lui sont normalement liés ». Plus loin, elle explique qu’ « il ne suffit pas d’ouvrir une brève par la mention « Selon le journal Le Point » pour s’autoriser le pillage quasi systématique des informations de cet organe de presse, lesquelles sont nécessairement le fruit d’un investissement humain et financier considérable ».

On est donc en plein dans la première partie de la citation de Stewart Brand : « information wants to be expensive, because it’s so valuable« . L’avocat du Point commentait de son côté la décision en ces termes :

Qu’il y ait une circulation de l’information sur Internet, du buzz, des reprises…, c’est normal, c’est la vie du Web, reprend Me Le Gunehec. Nous l’avions dit franchement à la cour d’appel, et elle le sait bien. Mais elle a voulu rappeler qu’il y a une ligne jaune : se contenter de reprendre les informations des autres, sous une forme à peine démarquée, avec quelques retouches cosmétiques pour faire croire à une production maison, cela ne fait pas un modèle économique acceptable. Et on pourrait ajouter : surtout quand cette information est exclusive.

Cette dernière phrase est très importante. Ce qu’elle sous-entend, c’est que celui qui est à l’origine d’une information exclusive devrait pouvoir bénéficier d’un droit exclusif sur celle-ci pour pouvoir en contrôler la diffusion et la monétiser. La logique du droit jusqu’à présent était pourtant exactement inverse : pas de droit exclusif sur l’information elle-même… même (voire surtout) exclusive !

Sans avoir aucune sympathie particulière pour Morandini, il faut considérer qu’un tel raisonnement peut aboutir à faire de nous tous des parasites de l’information en puissance, car nous passons notre temps à reprendre des informations piochées en ligne sur Internet (moi le premier). Certains commentaires ont d’ailleurs fait remarquer à juste titre que cette jurisprudence heurtait de front le développement des pratiques de curation de contenus en ligne.

Revendiquer un droit exclusif sur l’information brute elle-même, différent du droit d’auteur sur son expression, c’est d’une certaine façon courir le risque de permettre l’appropriation de la réalité elle-même. Qu’adviendrait-il d’un monde où l’information serait ainsi protégée ? Certains ont essayé de l’imaginer.

Un monde où l’information est copyrightée ?

Il se trouve que la science-fiction a déjà exploré cette possibilité et la vision qu’elle nous livre est assez troublante. Elle donne beaucoup à réfléchir sur cette crispation que l’on constate à propos du droit de l’information.

Dans sa nouvelle d’anticipation « Le monde, tous droits réservés«  figurant dans le recueil éponyme, l’auteur Claude Ecken imagine justement un monde dans lequel l’information pourrait être copyrightée et les conséquences que cette variation pourrait avoir sur les médias et la société dans son ensemble.

Dans un futur proche, l’auteur envisage que la loi a consacré la possibilité de déposer un copyright sur les évènements, d’une durée de 24 heures à une semaine, qui confère un droit exclusif de relater un fait, empêchant qu’un concurrent puisse le faire sans commettre un plagiat. A l’inverse de ce qui se passe aujourd’hui avec la reprise des dépêches des agences AFP ou Reuters, les organes de presse se livrent à une lutte sans merci pour être les premiers à dénicher un scoop sur lequel elles pourront déposer un copyright.

L’intérêt de la nouvelle est de développer dans le détail les implications juridiques et économiques d’un tel mécanisme. Les témoins directs d’un évènement (la victime d’une agression, par exemple) disposent d’un copyright qu’ils peuvent monnayer auprès des journalistes. Lorsqu’une catastrophe naturelle survient, comme un tremblement de terre, c’est cette fois le pays où l’évènement s’est produit qui détient les droits sur l’évènement, qu’elle vendra à la presse pour financer les secours et la reconstruction.

Et immanquablement, cette forme d’appropriation génère en retour des formes de piratage de l’information, de la part de groupuscules qui la mettent librement à la disposition de tous sous la forme d’attentats médiatiques, férocement réprimés par le pouvoir en place, ce qui rappelle étrangement l’affaire Wikileaks, mais transposée à l’échelle de l’information générale.

Si Claude Ecken s’applique à démontrer les dangers d’un tel système, il laisse aussi son héros en prendre la défense :

Avant la loi de 2018, les journaux d’information se répétaient tous. Leur spécificité était le filtre politique interprétant les nouvelles selon la tendance de leur parti. Il existait autant d’interprétations que de supports. Le plus souvent, aucun des rédacteurs n’avait vécu l’évènement : chacun se contentait des télex adressés par les agences de presse. On confondait journaliste et commentateur. Les trop nombreuses prises de position plaidaient en faveur d’une pluralité des sources mais cet argument perdit du poids à son tour : il y avait ressassement, affadissement et non plus diversité. L’information était banalisée au point d’être dévaluée, répétée en boucle à l’image d’un matraquage publicitaire, jusqu’à diluer les événements en une bouillie d’informations qui accompagnait l’individu tout au long de sa journée. Où était la noblesse du métier de journaliste ? Les nouvelles n’étaient qu’une toile de fond pour les médias, un espace d’animation dont on ne percevait plus très bien le rapport avec le réel. Il était temps de revaloriser l’information et ceux qui la faisaient. Il était temps de payer des droits d’auteur à ceux qui se mouillaient réellement pour raconter ce qui se passait à travers le monde.

Dans un commentaire de la décision rendue à propos de Morandini, on peut lire ceci : « Même sur Internet, le journaliste se doit d’aller chercher lui-même l’information !« . Vous voyez donc que l’on n’est plus très loin de l’histoire imaginée par Claude Ecken…

***

L’information veut être libre. Par Pierre Selim. CC-BY. Source : Flickr.

Information wants to be free… c’était le rêve qu’avait fait la génération qui a assisté à la mise en place d’internet, puis du web, et ce rêve était beau. Mais la puissance de la pulsion appropriatrice est si forte que c’est une dystopie imaginée par la science-fiction qui est en train de devenir réalité, à la place de l’utopie d’une information libre et fluide. Avec l’information brute, c’est la trame de la réalité elle-même que l’on rend appropriable, ce qui rappelle également les dérives dramatiques que l’on avait pu constater lors des derniers Jeux Olympiques de Londres, à l’occasion desquels les autorités olympiques ont défendu leurs droits exclusifs sur l’évènement avec une férocité alarmante.

Il existe pourtant une autre façon de concevoir les choses, à condition de quitter le prisme déformant des droits exclusifs. Au début de la polémique sur la Lex Google, j’avais en effet essayé de montrer que l’on peut appliquer le système de la légalisation du partage non-marchand aux contenus de presse et, couplé à la mise en place d’une contribution créative, il pourrait même assurer aux éditeurs et aux journalistes des revenus substantiels tout en garantissant la circulation de l’information et la liberté de référencer.

L’information veut être libre, c’est sa nature même, mais il nous reste à le vouloir aussi…

Pourquoi la presse devrait soutenir la légalisation du partage non-marchand

On a appris la semaine dernière qu’une loi est en cours d’adoption en Allemagne destinée à taxer les moteurs de recherche et les agrégateurs de contenus qui indexent les articles de la presse en ligne et pointent par des liens vers leurs sites. Ce texte a été surnommé Lex Google, car c’est principalement la firme de Mountain View qui est visée, à travers son service Google Actualités. Cette loi va contribuer à modifier en profondeur l’équilibre du web tel que nous le connaissons, en faisant payer pour de simples liens hypertextes, pour des titres et pour de courts extraits.

Le bateau presse prend l’eau et souffle à l’oreille du législateur des projets de lois inquiétants (Newspaper Boat. Par R. Mahmood.CC-BY-NC-SA. Source : Flickr)

Aussitôt, le Syndicat de la Presse Quotidienne Nationale (SPQN) a interpellé les pouvoirs  publics français afin qu’un dispositif similaire soit instauré dans notre pays. Les éditeurs de presse proposent deux solutions juridiques pour atteindre cet objectif : soit la création d’un nouveau type de droits voisins à leur profit, à l’image de ce qui existe depuis 1985 pour les producteurs de phonogrammes et les artistes-interprètes, soit la mise en place d’une taxe sur les appareils connectés (ordinateurs, smartphones, tablettes). La Ministre de la Culture, Aurélie Filippetti, a déjà répondu favorablement à cette sollicitation, en se prononçant en faveur d’une « taxe Google ».

Lire la suite

Les Copyright Madness de la semaine : les dérives ne prennent pas de vacances

Pour cette semaine, ce n’est pas Calimaq qui est parti à la chasse du Copyright Madness mais  Thomas Fourmeux aka Biblio-veilleur. Une fois de plus, la pêche a été bonne !

Retrouvez Thomas sur Twitter : @fourmeux

Participez à l’aventure collective [Bibliotourisme] : le tour du monde des bibliothèques.

 Prendre son mal en patience :

Si vous pensiez que les JO et son lot de Copyright Madness étaient terminés, vous vous trompiez ! Le CIO a encore frappé… Mickael Phelps, 6 fois médaillé, risque de se voir retirer ses titres.

 

Médailles à la poubelle – Biblioveilleur

Il n’est pourtant pas suspecté de dopage ou d’une quelconque affaire de fraude. Le super nageur a commis l’erreur de se faire prendre en photo portant des vêtements Louis Vuitton. La marque de luxe ne fait pas partie des sponsors officiels du CIO. On se souvient du régime drastique auquel ont été soumis les athlètes en ce qui concerne les sponsors.

On mesure particulièrement le degré de folie du Comité quand on analyse cette histoire à l’aide d’un… calendrier.

Le risque pris par notre malheureux champion ne serait pas arrivé s’il avait attendu quelques jours! En effet, les athlètes étaient liés au CIO et aux sponsors officiels jusqu’au 15 août. Autrement dit, ils ne pouvaient pas faire les panneaux publicitaires pour d’autres marques jusqu’à cette date. Le délit a été commis le 13 (en fait il s’agit de la date de publication des clichés sur les réseaux sociaux). Or, la cérémonie de clôture des Jeux étaient programmés le 12 août ! Les sportifs étaient donc liés contractuellement au CIO alors que les JO étaient terminés.  Pourquoi continuer à soumettre les athlètes à ces conditions aberrantes au-delà des Jeux ?

Lire la suite