Ex machin@ : le juge et la machine

Par un jugement en date du 8 septembre dernier, le Tribunal de grande instance de Paris a condamné Google pour diffamation, au motif que les termes de recherche associés au nom du plaignant par le biais de la fonctionnalité Google Suggest portaient atteinte à son honneur et à sa réputation. Celui-ci avait lui-même été condamné en justice pour corruption de mineure et c’était les mots « viol », « condamné », « sataniste », « prison » ou encore « voleur » qui étaient suggérés aux utilisateurs de Google en regard de son nom.

Comme le relève Guillaume Champeau dans son l’article sur Numerama, cette décision a de quoi surprendre, car elle considère que l’algorithme du moteur de recherche , qui détermine les termes à afficher en fonction des requêtes tapées par les internautes, s’est rendu coupable d’une diffamation. Quelque part, cela revient  à condamner une machine pour avoir commis un acte typiquement humain…

L’article 29 de la loi sur la liberté de la presse définit la diffamation comme :

Toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération de la personne ou du corps auquel le fait est imputé […]

Google a essayé de se dégager de cette accusation en soulignant le caractère automatique du fonctionnement de son moteur :

[…] l’affichage des expressions litigieuses ne saurait caractériser une allégation diffamatoire n’étant pas le fait de la pensée consciente mais un résultat d’algorithme.

les résultats affichés dépendent d’un algorithme basé sur les requêtes des autres utilisateurs sans aucune intervention humaine ou reclassification de ces résultats par Google.

Sur le fond, le juge partageait cette opinion que la diffamation ne pouvait pas être le fait d’une simple machine, mais il a recherché à travers le fonctionnement de l’algorithme de Google les traces d’une « pensée consciente » dont la présence était nécessaire pour condamner Google.

The Ghost in The Shell, en quelque sorte…

Par ailleurs, le TGI a tenté de montrer que l’algorithme n’officiait pas de manière purement automatique, mais que l’on pouvait repérer des interventions humaines susceptibles d’infléchir les résultats du moteur.

Les motifs du jugement commencent par cette phrase aux accents asimoviens, dont la lecture laisse un instant songeur… (les juges lisent-ils Asimov ? Entre deux jurisclasseurs…)

les algorithmes ou les solutions logicielles procèdent de l’esprit humain avant que d’être mis en œuvre

Le juge remarque que Google n’a pas apporté la preuve que « les suggestions faites aux internautes procéderaient effectivement, comme ils le soutiennent, des chiffres bruts des requêtes antérieurement saisies sur le même thème, sans intervention humaine« . Pour contester le caractère purement « objectif » des suggestions, il relève que les différentes fonctionnalités de Google (recherches associés et Google Suggest) ne font pas apparaître les mêmes termes « ce qui laisse penser que les deux services ne reposent pas, comme il est soutenu, sur un pur calcul algorithmique neutre exclusivement basé sur le nombre brut des requêtes des internautes, lequel devrait alors offrir des résultats identiques« . Il remarque également que les résultats ne sont pas identiques sur le moteur de Yahoo!, preuve que les algorithmes sont paramétrés différemment et ce paramétrage ne peut avoir qu’une origine humaine.

Cohérent avec lui-même, il note que des interventions humaines peuvent être prises en compte : le tri préalable effectué par Google parmi les requêtes pour éviter d’afficher des termes offensants ou la possibilité laissée aux internautes de signaler “des requêtes qui ne devraient pas être suggérées”. Tout cela aux yeux du juge montrerait « qu’une intervention humaine est possible, propre à rectifier des suggestions jusqu’alors proposées« .

Humain, trop humain, cet algorithme ! Et Google peut donc se voir condamner pour diffamation…

Guillaume Champeau dans son article voit dans cette décision une illustration de la difficulté à concilier la technologie et le droit. J’y verrai pour ma part une preuve que les juges ont une sérieuse difficulté à saisir la nature du fonctionnement des algorithmes. Ou plutôt que leur perception de la chose varie en fonction du résultat qu’ils souhaitent atteindre (en général, condamner Google !).

En effet, le même TGI de Paris a suivi un résultat exactement inverse l’année dernière pour condamner Google dans son procès l’opposant à La Martinière, dans l’affaire Google Recherche de Livres. Dans le billet que j’avais écrit à ce propos, j’avais essayé de montrer que le juge avait considéré que le moteur de recherche de Google Books fonctionnait de manière aléatoire (ce qui me paraissait hautement contestable).

Un des points cruciaux dans cette affaire était de savoir si Google pouvait revendiquer le bénéfice de l’exception de courte citation pour afficher de brefs extraits des ouvrages qu’il avait scannés sans autorisation. Or le Code indique qu’en plus d’être « courte », une citation doit être «  justifiée par le caractère critique, polémique, pédagogique, scientifique ou d’information de l’œuvre à laquelle elle est incorporée« .

Pour arriver à condamner Google, le TGI a avancé « que l’aspect aléatoire du choix des extraits représentés dénie tout but d’information tel que prévu par l’article L. 122-5.3 du Code de Propriété Intellectuelle ». Aux termes de recherche entrés par l’utilisateur, l’algorithme de Google réagirait de manière purement aléatoire, en renvoyant des extraits au hasard.

J’avais essayé de montrer que cette vision de Google Boks était complètement fantaisiste, car quiconque a utilisé cet outil n’a pu qu’être frappé par la pertinence des résultats de la recherche en plein texte.

Mais là n’est pas la question. Ce qui est frappant lorsqu’on met en regard ces deux jugements, c’est qu’ils reposent sur des conceptions opposées de ce qu’est un algorithme et de son fonctionnement. Dans le premier cas, il s’agirait d’un processus « humanoïde » procédant directement de l’esprit humain et susceptible d’être influencé par des interventions humaines. Dans l’autre, ce serait un pur mécanisme aveugle, frappant au hasard à la manière d’une Chatroulette documentaire

Ce que je trouve amusant, c’est qu’il existe tout un courant de la pensée juridique qui estime que le juge doit se comporter comme… une machine ! Un « paragraphe de l’automate » selon l’expression de Max Weber, appliquant les termes de la loi de manière automatique, en vertu de la seule logique. Voyez par exemple cet extrait (trouvé du premier coup dans Google Books grâce à cet algorithme soit disant aléatoire !).

En réalité, les juges sont tout sauf des automates. Ils suivent le plus souvent des raisonnements téléologiques, en posant d’abord le résultat à atteindre et en faisant en sorte que l’argumentation permette d’y conduire. Et voilà comment d’une affaire à l’autre l’algorithme apparaît sous un jour différent selon l’objectif visé…

Avec les algorithmes, sommes-nous dans l’humain ou dans la machine ? La question est certainement mal posée. A propos de la condamnation de Google Suggest, Cédric Manara interviewé par Le Point.fr déclarait :

Cette affaire est singulière, commente Cédric Manara. Elle montre le glissement entre l’activité humaine et ses répercussions technologiques. Lorsqu’un internaute veut savoir si une personne a été ou non condamnée, cette question se traduit dans le moteur de recherche en affirmation X condamné. Quant au terme sataniste, il est en soi un mot-clé et non une imputation. Il ne devient diffamatoire que dans le contexte de l’affaire présente. Si la condamnation de Google se comprend, il n’en reste pas moins que ce n’est pas son moteur de recherche, mais bien un phénomène humain qui conditionne le fonctionnement des suggestions. Autrement dit, la fascination morbide que nous avons tous pour les faits divers.

L’algorithme de Google procède bien de l’esprit humain, tel qu’il se manifeste à travers les myriades d’interventions humaines qu’il est capable d’enregistrer et de synthétiser, lorsque nous effectuons des requêtes dans le moteur.

Pour saisir la vraie nature des algorithmes, les juges devraient d’abord comprendre que sur Internet désormais les machines, c’est nous.


7 réflexions sur “Ex machin@ : le juge et la machine

  1. Bonjour Lionel,

    Sans avoir vraiment un avis sur le fond du jugement, je ne suis pas vraiment convaincu par votre raisonnement qui me parait être aussi critiquable que celui du juge sur le fonctionnement de l’algorithme de Google.

    Sans doute celui-ci fondamentalement renvoie le résultat de nos tendances de recherche, mais il comprend aussi de nombreux filtres qui eux sont des décisions quasi-éditoriales de la responsabilité directe de la firme.

    Ainsi la question me parait plutôt relever d’une mesure et d’un équilibre : sur quels thèmes et pratiques la firme a l’obligation ou le devoir d’intervenir. La réponse n’est pas évidente, politiquement et éthiquement. Et la position dominante de Google le place, malgré lui, de plus en plus au centre d’un débat fondamental.

  2. C’est surtout cette partie qui me dérange :
    Le juge remarque que Google n’a pas apporté la preuve que « les suggestions faites aux internautes procéderaient effectivement, comme ils le soutiennent, des chiffres bruts des requêtes antérieurement saisies sur le même thème, sans intervention humaine » .

    N’est-on pas présumé innocent jusqu’à preuve du contraire ? ( http://is.gd/fzncN , III – Légifrance )
    J’ai l’impression que ce droit fondamental est de plus en plus malmené…

  3. Moi non plus Lionel, je ne suis pas convaincu, car l’algorithme de Google est loin d’être neutre… Nous avons beau avoir été transformé en machines, il existe de multiples moyens de faire remonter les requêtes : http://affordance.typepad.com/mon_weblog/2010/09/la-reponse-avant-la-question.html

    Mais ce que tu pointes demeure essentiel et montre bien que face à ces questions techniques, les juges n’ont pas le minimum de culture pour comprendre comment cela marche. Il n’y a pas qu’eux d’ailleurs. Hélas. Et c’est bien souvent le problème. ;-)

  4. Le jugement du TGI de Paris concernant Google est sans doute critiquable, mais le moteur de recherche fait effectivement des corrections humaines. il existe même une « blacklist » comme l’indique le blog Searchengine. Cette liste des mots que le moteur de recherche ne veut pas peut se retrouver à l’adresse suivante : http://www.2600.com/googleblacklist/

  5. Les classements sont réalisés à partir d’algorithmes, certes, mais sérieusement la gestion de ces algos dépend de volontés humaines.

    Quand bien même il s’agirait simplement d’un classement, l’utilisation d’un tel classement direct *est* une volonté humaine, consciente des risques liés. C’est d’autant plus vrai ici que la suggestion entraine un effet « boule de neige ». C’est le terme suggéré qui aura tendance à être utilisé, et donc à être encore suggéré.
    Google en était conscient (ou alors il sont vraiment mauvais, et je n’ose y croire), et savait que cela ferait apparaitre des recherches litigieuses (il se sont déjà pris pas mal de procès pour des choses similaires).
    Dès lors, le « mais c’est l’algorithme » ne tient plus. Pour moi c’est le même type de défense que le « j’ai juste jeté des parpaings à partir du pont, ce n’est pas ma faute si quelqu’un passait en dessous à ce moment puis de toutes façons c’est la gravité qui l’a fait tombé, pas moi ».

    Mais surtout, pour avoir travaillé chez un gros concurrent, ces algos ne sont pas neutres. Les critères et pondérations sont modifiés mais aussi les résultats. Il ne s’agit pas de dire « X doit être en premier » mais « X est trop mal/bien classé, ajoutons un peu plus de poids sur tel ou tel réseau de sites ou tel mot clefs lors des recherches de ce type ».
    Il est inimaginable qu’il n’en soit pas de même pour les suggestions, et dès lors c’est clairement un résultat humain. Qui passe par une machine, mais qui vient de paramètres et d’actions humaines.

    Conscience du fait qu’il y aura publication de suggestions litigieuses, qu’elles risquent un emballement par boule de neige, et ajouté au fait que l’algo est lui même guidé par les choix et les corrections permanentes des équipes (qui peuvent tout à fait diminuer le poids des termes « négatifs » comme « arnaque », « viol », etc.) … J’aurai trouvé franchement anormal que le moteur de recherche ne soit pas condamné.
    Si au moins ils auraient pu prouver un « best effort » à éliminer ce genre de problèmes (à priori *et* à après coup), j’aurai pu juger autrement, mais ça ne semble pas être le cas.

    Et c’est *totalement* différent des procès sur le classement des sites avec ceux qui ralent sur le fait qu’ils sont mal classés, que le concurrent arrive en premier, etc : Ici il y a suggestion de quelque chose de non demandé.

    1. @Vous tous,

      Merci pour ces commentaires très éclairants.

      J’ai dû mal m’exprimer dans mon billet, car je ne suis pas fondamentalement en désaccord avec le TGI dans sa décision de condamner Google Suggest, notamment sur la base du fait que l’algorithme de Google prend en compte des interventions humaines, qu’elles soient dûes à des opérateurs de Google ou à des internautes.

      Certaines étapes du raisonnement me paraissent cependant beaucoup trop générales (en particulier le passage : « les algorithmes ou les solutions logicielles procèdent de l’esprit humain avant que d’être mis en œuvre »). Des prémices aussi larges peuvent étendre potentiellement à l’infini le champ de la responsabilité en ligne et je ne pense pas qu’elles doivent être retenues. Elles me paraissent également véhiculer une forme d’anthropomorphisme assez gênante.

      Je trouve par contre très pertinente la formule de Jean-Michel Salaün, qui assimile le paramétrage de l’algorithme de Google à une décision « quasi-éditoriale ». La qualité d’éditeur joue en effet un rôle majeur dans le droit de la responsabilité, que ce soit dans la loi de 1889 sur la liberté de presse ou dans la loi LCEN de 2004. Il me semble que c’est un fil conducteur qui mériterait d’être suivi par les juges, plutôt que de s’aventurer à chercher des traces d’humanité dans les algorithmes…

      A travers ce billet, j’ai surtout voulu montrer que la jurisprudence renvoie des images différentes et inconciliables de ce qu’est un algorithme et du fonctionnement de Google. Les décisions de justice reposent sur des représentations contradictoires et je trouve cela particulièrement gênant. C’est assez grave, car en réalité, cela montre que les juges posent d’abord le résultat qu’ils souhaitent atteindre (condamner ou acquitter) pour construire a posteriori un raisonnement qui y conduit. C’est une sorte de déformation rhétorique de la justice que je trouve très contestable.

      Pour ne rien vous cacher, c’est surtout la décision dans le procès Google Book contre La Martinière que j’ai en travers de la gorge. Si décidé à réaffirmer les principes du droit d’auteur dans toute leur rigidité, le TGI s’est aventuré dans une interprétation du fonctionnement de l’algorithme de Google Book qui ne correspond pas à la réalité (résultats « aléatoires »). Je ne dis pas que Google aurait été sauvé si le juge avait procédé autrement (il y avait d’autres arguments pour le faire chuter), mais il en résulte une fragilisation de la courte citation, ainsi que de la notion d’oeuvre d’information, qui pourraient pourtant jouer un rôle important pour équilibrer le système. C’était l’un des chemins vers un fair use à la française, que cette décision a étouffé dans le berceau;

      Je n’ai bien sûr pas voulu défendre l’idée naïve que les résultats de Google seraient « objectifs » ou « neutres », et d’une certaine façon, il est bon que le TGI ne se soit pas laissé abuser par de tels arguments, qui étaient ceux avancés par Google.

      Mais pour atteindre ce résultat, peut-être aurait-il pu suivre un autre chemin ?

      Ceci étant dit, le fait que nos propres actes de recherche, même les plus infimes, influencent bien les résultats de Google soulèvent des questions assez troublantes à propos de la responsabilité (et de sa dilution). Quelque part, cela me fait penser à la responsabilité de chacun dans le dérèglement climatique ou dans la fonte des pôles… Mais condamne-t-on le papillon dont le battement d’aile a provoqué un ouragan ?

  6. Dans mon entreprise nous avons eu le même type de souci avec Google suggest, qui associait le mot « arnaque » à notre nom systématiquement, alors même que nous avons une satisfaction de notre clientèle plutôt bonne (et j’y veille chaque jour ;-) )

    Mon patron avait été assez virulent contre Google à ce moment-là ( http://www.danielbroche.com/daniel_broche/2010/01/google-arnaque.html ), et il faut reconnaître que nous avions du mal à penser à autre chose qu’un biais racoleur, pas forcément hostile à nous précisément, mais contribuant certainement à créer de la recherche chez le client…

    C’est quelque chose qui peut être désastreux pour un commerçant, qui plus est honnête.

    Je suis d’accord avec toi sur l’incohérence du jugement par rapport à celui concernant La Martinière, en revanche. On ne peut pas d’un côté dire qu’il y a choix aléatoire pour Google Books et choix délibéré pour Google Suggest, ça paraît un peu étrange. Ton avis sur la construction de l’argumentaire en fonction du résultat qu’on veut obtenir me semble malheureusement judicieux… d’autant que Google avait déjà été condamné pour ce type de suggestions avant le jugement La Martinière ( http://www.legalis.net/jurisprudence-decision.php3?id_article=2819 ).

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.