L’anti-protection sociale de Facebook et l’avènement du « providentialisme de plateforme »

Dans un article écrit avec Laura Aufrère en février dernier, nous avions mis en avant l’idée de repenser la protection des données personnelles sous la forme d’une « protection sociale » en la reliant à la dimension collective des données, ainsi qu’à la nécessaire prise en compte du phénomène du Digital Labor auquel les acteurs du capitalisme numérique soumettent les individus. Mais à partir de cette grille d’analyse, il est possible également de jeter un nouveau regard sur le fonctionnement d’une plateforme comme Facebook et de comprendre que celle-ci met d’ores et déjà en oeuvre une certaine forme de « protection sociale ».

Pour être « protégé », cliquez ici.

C’est du moins ce que la firme de Mark Zuckerberg essaie de nous faire croire, car un examen plus attentif montre que Facebook déploie plutôt une « anti-protection sociale » qui renverse littéralement la logique sur laquelle les droits sociaux ont été construits. Alors que la protection sociale possède une dimension « universelle », la protection que Facebook déploie obéit en effet, via le profilage des individus, à une logique « assurantielle » (forme à laquelle le néo-libéralisme cherche d’ailleurs à réduire méthodiquement l’ensemble des droits sociaux).

Un certain nombre d’auteurs, comme Olivier Ertzscheid, insistent sur le fait qu’une plateforme comme Facebook véhicule implicitement un projet politique, mais on peut dire que cette « crypto-politique » de Facebook contient déjà une dimension sociale et peut-être serait-il même plus juste d’affirmer qu’il s’agit avant tout d’une « politique sociale ». D’autres observateurs ajoutent que le degré de puissance atteint par Facebook fait de plus en plus ressembler la plateforme à un « Quasi-Etat ». Or cet embryon d’Etat possède en réalité davantage les traits d’un Etat social que ceux d’un Etat gendarme.

C’est assez logique étant donné que, comme l’Etat-providence, le site de Mark Zuckerberg assoie son pouvoir sur les « statistiques » à savoir la maîtrise des informations collectées à propos de la population. Si on avait déjà l’habitude de parler de « capitalisme de plateforme » à propos des GAFAM, sans doute faut-il ajouter une dimension à ce cadre d’analyse en identifiant l’avènement d’un « providentialisme de plateforme » qui en constitue le prolongement.

Protection des « groupes vulnérables »

Un des premiers éléments qui font songer à une « protection sociale » mise en oeuvre par Facebook est celui de sa politique de modération de contenus. Suite au scandale Cambridge Analytica, la plateforme a cherché à faire preuve de transparence en publiant les règles complexes que ses armées de modérateurs doivent appliquer pour décider de la suppression de contenus jugés inappropriés ou choquants. Or on constate que cette modération est articulée à la notion de « groupes vulnérables » auxquels une protection plus forte est accordée :

Facebook officialise dans ces documents l’existence de « groupes vulnérables », qui disposent de protections supplémentaires, comme « les chefs d’Etat, les témoins et sources, les militants et les journalistes ». Mais aussi de « caractéristiques protégées » contre les propos haineux : « La race, l’ethnie, le pays d’origine, la religion, l’orientation sexuelle, le sexe, le genre, l’identité de genre, le handicap ou la maladie. » Facebook apporte aussi, depuis l’an dernier, « certaines protections » aux migrants.

On est bien ici dans une logique de « protection » et, à première vue, on pourrait la dire « sociale » dans la mesure où les individus sont protégés en fonction des groupes auxquels ils appartiennent. Mais cette façon de prendre en charge les « vulnérabilités » est justement aux antipodes de la manière dont la protection sociale « étatique » fonctionne. Le bénéfice des droits sociaux ou l’accès aux services publics est construit sur la base d’un principe d’égalité, qui n’empêche certes pas la prise en compte de la situation concrète des personnes, mais qui interdit d’opérer des discriminations sur la base de caractéristiques ethniques, sexuelles ou identitaires.

Les différentes facettes de la protection sociale qui saisissent les individus à travers des situations concrètes, mais jamais par un « profilage ».

Or ici, la « protection » assurée par Facebook vis-à-vis de ses membres fonctionne intrinsèquement sur le mode du profilage, et donc incorpore dès l’origine une dimension « discriminante » (quand bien même celle-ci pourrait être vue comme « positive »). C’est ce lien avec le « profil » des individus qui rattache ce mode de fonctionnement à la logique des assurances privées, dont les prestations et le prix peuvent varier selon les caractéristiques des individus (les fameux bonus/malus qui demain pourraient d’ailleurs dépendre de collectes de données personnelles), tandis que la protection sociale universelle bénéficie justement indistinctement à tous.

On est donc bien ici face à ce que l’on pourrait appeler une « anti-protection sociale » et c’est une inversion du même ordre qui pourrait survenir si on appliquait les principes du Big Data à la distribution des aides sociales, comme c’est aujourd’hui clairement envisagé dans certains pays. La chercheuse américaine Virginia Eubanks en dénonce les risques de dérives en des termes qui rappellent étrangement les principes de fonctionnement de la modération sur Facebook (voir cet article sur InternetActu) :

Des systèmes d’éligibilité automatisés, des algorithmes de classements, des modèles de prédiction des risques contrôlent les quartiers qui doivent être policés, quelles familles peuvent obtenir des aides, qui peut accéder à un emploi, qui doit être contrôlé pour fraude. […] ce contrôle s’exerce sur des membres de groupes sociaux plus que des individus : gens de couleurs, migrants, groupes religieux spécifiques, minorités sexuelles, pauvres et toutes populations oppressées et exploitées. Les groupes les plus marginalisés sont ceux sur lesquels le plus de données sont collectées. Et le problème, souligne Virginia Eubanks, c’est que « cette collecte de données renforce leur marginalité » en créant « une boucle de rétroaction de l’injustice » qui renforce à son tour la surveillance et le soupçon.

Intérêts légitimes de Facebook et bien social

Un autre lien intéressant entre la « politique sociale » et Facebook est apparu avec la mise à jour des conditions d’utilisation en vue de leur mise en conformité avec le RGPD (Règlement Général de Protection des Données) avant son entrée en vigueur le 25 mai prochain. Un des principes importants de ce texte est qu’il soumet les plate-formes à l’obligation de recueillir un « consentement libre et éclairé » des utilisateurs pour pouvoir opérer des traitements de données à caractère personnel. Comme j’ai déjà eu l’occasion d’en parler, c’est d’ailleurs en grande partie sur l’interprétation de la portée de cette notion que va se jouer la capacité du RGPD à apporter une protection réelle aux données personnelles. Mais le texte comporte néanmoins aussi une « faille » qui permet aux plateformes de contourner l’obligation de recueil du consentement en se basant sur un autre fondement pour traiter des données. Elles peuvent en effet invoquer pour cela un « intérêt légitime » à effectuer tel ou tel traitement, sachant que la notion n’est pas réellement définie dans le RGPD.

Or il est extrêmement intéressant de regarder comment Facebook a défini dans ses nouvelles conditions d’utilisation ses « intérêts légitimes ». Il en mentionne une série, qui sont quasiment tous plus ou moins directement rattachés à une question de « protection des personnes ». La société met notamment en avant l’impératif d’assurer la sécurité du site contre les intrusions ou les piratages, ainsi que de garantir un environnement sûr pour les mineurs (ce qui fait à nouveau penser à la notion de « groupes vulnérables ») :

  • Offrir, personnaliser et améliorer les Produits Facebook. Pour les personnes n’ayant pas atteint l’âge du consentement dans leur État membre, nous modifions nos Produits Facebook afin d’assurer des protections spéciales et des fonctionnalités restreintes concernant les données utilisées en matière de sélection publicitaire. Ceci inclut le traitement des informations que les personnes en dessous de l’âge requis nous ont autorisés à recevoir par l’intermédiaire des paramètres de l’appareil qu’elles activent, afin d’offrir les fonctionnalités et les services couverts par ces paramètres.
  • Promouvoir la sécurité et l’intégrité, notamment par l’intermédiaire d’outils conçus spécialement pour contrer les menaces qui pèsent sur les personnes qui n’ont pas atteint l’âge de la majorité.

Mais de manière plus surprenante, Facebook revendique également comme un intérêt légitime le fait d’agir dans le sens du « bien social » :

Faire des recherches et innover pour le bien de tous. L’intérêt légitime sur lequel nous nous appuyons pour ce traitement est le suivant :

  • améliorer les connaissances actuelles et la connaissance académique des questions sociales importantes afin de changer notre société et le monde de manière positive.

On est donc bien ici à nouveau dans l’idée d’une « politique sociale » mise en oeuvre par la plateforme à partir du traitement des données de ses utilisateurs. On peut aussi relever que Facebook s’efforce de donner l’impression que « l’intérêt légitime » prévu par le RGPD ne renvoie pas à « son » intérêt privé, mais qu’il s’agit en réalité de l’intérêt de la société dans son ensemble (et donc de l’intérêt général).

Le lien affiché avec la recherche est aussi significatif et certains observateurs ont déjà fait remarquer que c’est en s’associant à des programmes de recherche que Facebook commence développer une forme de « politique sociale ». Dominique Boullier a ainsi publié un article remarquable sur InternetActu à propos d’un projet de recherche conduit en partenariat avec l’université de Stanford portant sur les inégalités sociales, pour lequel Facebook a remis à des chercheurs l’intégralité des données de ses utilisateurs américains :

Facebook (et plus précisément Mark Zuckerberg) décide de s’attaquer aux inégalités et se donne donc un agenda politique, ce qui est plutôt intéressant alors que toutes les firmes ont de fait un agenda politique qui n’est jamais explicité, mais mis en acte et souvent révélé après coup (du fait de leurs conséquences en matière de discriminations, d’environnement, etc.) […] Si Facebook choisit d’investir dans une telle politique, ce choix a plus de poids que celui de bon nombre d’États, mais il a « l’avantage » d’être soustrait à toute décision politique publique. Facebook se dote donc comme n’importe quel état d’une politique sociale pourrait-on dire, sans pour autant avoir de compte à rendre comme n’importe quel gouvernement : la politique sans les inconvénients de la politique en quelque sorte.

Paternalisme industriel 2.0

Cette « politique sociale » de Facebook reste souvent implicite ou difficile à déceler, mais elle apparaît aussi parfois de manière éclatante. Ce fut le cas cette semaine lorsque Mark Zuckerberg a révélé lors de la conférence F8 l’arrivée prochaine d’une fonctionnalité de « Dating » sur la plateforme, destinée à concurrencer des sites comme Tinder ou AdopteUnMec en favorisant les rencontres amoureuses. Cette évolution était assez prévisible, mais ce qui est plus surprenant, c’est que Faceboook a surtout annoncé son intention de se démarquer des applications existantes en «encourageant les relations authentiques et durables, pas seulement les aventures d’un soir».

Après de telles déclarations, qui peut sérieusement douter que Facebook n’ait pas une « politique sociale », articulée autour d’une certaine vision de la société et des rapports humains qu’elle entend faire advenir dans la réalité par le biais de ses fonctionnalités et de ses algorithmes ? Si les éléments précédents pouvaient rapprocher Facebook d’un Quasi-Etat, ici c’est plutôt le visage d’une « Quasi-Eglise » qu’il prend, car seules les institutions religieuses se permettent de faire à ce point intrusion dans les rapports interpersonnels par le biais de la morale. Dans le billet qu’il a consacré à ces nouvelles évolutions liées au dating, Olivier Ertzscheid pointe aussi la volonté « totalisante » qui anime Facebook :

Le métier de Facebook c’est de produire une réalité sociale englobante et aussi immersive que possible […] Tout doit naître, croître et mourir dans la plateforme qui se vit comme une matrice à la fois sociale, économique et politique. Et cette réalité sociale englobante et immersive ne peut pas se permettre de faire l’économie de la rencontre amoureuse. Pour le dire autrement, il n’est pas « tolérable » pour l’ADN de Facebook que ce qui est tout de même le ressort essentiel de nos vies et de nos émotions puisse échapper au regard de la plateforme ou se jouer en dehors de ses murs.

Or outre les églises, on peut trouver dans l’histoire d’autres exemples d’institutions desquelles on pourrait rapprocher Facebook dans cette volonté d’englober l’individu dans toutes les facettes de son existence. Ce fut aussi le dessein des grandes entreprises « paternalistes » de la fin du 19ème siècle qui fournissaient à leurs ouvriers une certaine forme de protection (logement, soins, éducation, etc.) en contrepartie d’un contrôle accru débordant largement de la sphère du travail dans la vie privée.

L’article Wikipédia consacré au paternalisme industriel contient de ce point de vue ce passage intéressant :

L’efficacité du paternalisme est un avantage incontestable pour les ouvriers. Pour attirer la main-d’œuvre, l’emploi industriel doit être désirable : l’entreprise se devait donc de se différencier de ses concurrents en offrant « quelque chose en plus ». Fixer la main-d’œuvre est nécessaire. Pour cela, le départ de l’ouvrier lui était rendu coûteux par l’offre d’avantages suffisants pour que le coût d’opportunité de son départ soit dissuasif. L’entreprise paternaliste pénètre tous les aspects de la vie privée de ses ouvriers : logement, consommation, éducation, protection sociale, loisir… 

Le paternalisme industriel visait un contrôle total ; il complétait hors de l’usine la discipline industrielle. Selon Perrot, le paternalisme suppose le soutien des employés à ce mode de gestion : « il ne peut y avoir de paternalisme sans consentement. » La relation entre le patron et le travailleur est telle une relation père/fils. Le patron se donne comme père à travers l’existence d’une autorité de père dont le seul souci est le « bien commun ». Il est également mère par son souci de bien-être matériel et moral qui le conduit à mettre à la disposition des ouvriers logements, écoles, lieux de loisir… Goff analyse le paternalisme comme « le silence et la parole » ; il permettrait :

  • d’intégrer la vie hors usine du travailleur dans un espace privé, identifié à l’entrepreneur et placé sous son contrôle,
  • de trouver le moyen de faire consentir les ouvriers à l’autorité du patron.

A l’heure du Digital Labor qui transforme les simples utilisateurs de services en «travailleurs de la donnée», il n’est pas si étonnant de voir les grands capitalistes numériques emprunter le même chemin pour déployer un « Paternalisme industriel 2.0 », sachant que le paternalisme fut historiquement l’une des racines de la protection sociale, à côté du mutualisme imaginé par les ouvriers eux-mêmes, avant que l’Etat-providence ne prenne le relais en assumant l’essentiel de ces fonctions. Chez Facebook, ce paternalisme d’un nouveau genre n’apparaît jamais aussi clairement que lorsque Mark Zuckerberg s’adresse à la « communauté » de ses utilisateurs par de grands discours qu’il prononce annuellement. En juin 2017, il tenait ces propos où l’idée de protection sociale affleure à nouveau :

Ces 10 dernières années, Facebook s’est consacré à connecter amis et familles. Sur cette base, notre prochain objectif sera de développer une infrastructure sociale pour notre communauté : pour nous soutenir, pour nous garder en sécurité, pour nous informer, pour l’engagement civique et pour l’inclusion de tous.

Se protéger de l’individu comme risque social

Si l’on peut dire que Facebook commence à mettre en oeuvre une « anti-protection sociale », c’est parce qu’il inverse littéralement le sens que l’on peut donner à l’idée d’une protection contre les risques sociaux. Le Préambule de la Constitution de 1946 indique quel était le sens de la protection sociale au sens traditionnel du terme :

La Nation assure à l’individu et à la famille les conditions nécessaires à leur développement.

Elle garantit à tous, notamment à l’enfant, à la mère et aux vieux travailleurs, la protection de la santé, la sécurité matérielle, le repos et les loisirs. Tout être humain qui, en raison de son âge, de son état physique ou mental, de la situation économique, se trouve dans l’incapacité de travailler a le droit d’obtenir de la collectivité des moyens convenables d’existence.

Il s’agissait donc, au nom d’un principe de solidarité, de mettre en place des institutions visant à garantir les individus contre des risques sociaux (maladie, accident, chômage, etc.) ou à leur fournir des prestations nécessaires à leur développement et à leur dignité (éducation, retraite). Voir aussi ci-dessous cette lumineuse intervention du juriste Alain Supiot qui en retrace l’histoire et la philosophie :

Pour comprendre pourquoi « l’anti-protection sociale » de Facebook fonctionne en sens inverse, il me semble important de faire un détour par le cauchemardesque Social Credit System qui est en train d’être mis en place en Chine pour attribuer un « score de confiance » aux individus à partir de multiples données liées à leur comportement social.

La chercheuse Antoinette Rouvroy a donné récemment une interview à ce sujet comportant ce passage qui me paraît important pour comprendre le but réel visé par ce dispositif :

Ce projet de social credit scoring implique une surveillance continue. Son objectif est la normalisation des comportements : réformer les psychismes en vue de produire des sujets ayant (ré) intégré l’idéal de fiabilité. L’évaluation continue des individus par la publication d’une « note de fiabilité » individuelle évolutive, calculée à partir de l’ensemble des données numériques émanant des comportements, est de nature à décourager l’insincérité, la déloyauté, l’infidélité…  […]

[La gouvernementalité algorithmique] épuise par avance – par l’optimisation et la préemption – la part d’incertitude radicale des comportements humains, ce qui résistait au calcul.

On comprend ici mieux en quoi consiste l’inversion : la protection sociale traditionnelle était le moyen qu’une société se donnait pour garantir les individus contre la réalisation de risques sociaux imprévisibles, là où le Social Credit System protège au contraire la société contre les « risques » liés à l’imprévisibilité des comportements humains, en cherchant à les standardiser au maximum et en prévenant les « déviances » par rapport à une norme sociale encodée algorithmiquement. Protéger l’individu contre les risques pour qu’il puisse exercer ses libertés dans la société ou se protéger des libertés de l’individu considérées comme un risque pour la société : telle est l’inflexion en cours qui renverse le sens de la protection sociale. Et à terme ce lien s’établira de manière plus directe encore, puisque le gouvernement chinois a l’intention de subordonner le bénéfice des prestations sociales au maintien d’un score élevé. L’anti-protection sociale aura alors dévoré la protection sociale classique en la soumettant à sa logique.

***

Ne nous y trompons pas : il n’existe en réalité qu’une différence de degré, et non de nature, entre le Social Credit System chinois et la direction que prend peu à peu Facebook. La différence réside essentiellement dans la séparation (relative…) qui persiste encore chez nous entre l’Etat et ces grandes entreprises numériques, là où elle est en train de s’effondrer en Chine. Mais la volonté de plus en plus manifeste de Facebook de mettre en oeuvre une politique sociale ouvre la voie à l’avènement d’un « providentialisme de plateforme ». Et il est d’autant plus inquiétant de ce point de vue de voir nos Etats-Providence affaiblis commencer déjà à abandonner aux GAFAM certaines de leurs fonctions, comme des formations aux étudiants et aux chômeurs, la réalisation d’applications de santé à partir des données des malades ou l’aménagement de zones urbaines.


6 réflexions sur “L’anti-protection sociale de Facebook et l’avènement du « providentialisme de plateforme »

  1. La première partie de l’article se contredit, car FB ne met pas en place une protection sociale au sens de « sécurité sociale » mais plutôt une protection des droits des minorités . En droit FR on a ce genre de lois donc ça n’est pas une mauvais chose même si ce rôle ne devrait pas devoir être tenu par des acteurs privés. Je suis d’accord avec les parties suivantes sur l’église FB, les rencontres et la vision paternaliste. Je pense qu’il faut le mettre en rapport avec les ambitions politiques de Zuckerberg et qu’on va vers un Social Crédit Rating soft.

    1. Bonjour et merci pour ce commentaire.

      J’ai repris la première partie de l’article pour détailler un peu le point sur la protection des « groupes vulnérables ».

      Je pense qu’il y a un lien avec la protection sociale, car on commence à voir justement dans certains pays (notamment les États-Unis) des applications du Big Data et des algorithmes à la distribution d’aides sociales, avec des résultats souvent très inquiétants en terme de stigmatisation des populations les plus fragiles.

      Voir notamment les travaux de la chercheuse Virginia Eubanks http://www.internetactu.net/2018/01/15/de-lautomatisation-des-inegalites/

      Facebook n’a pas (encore…) d’aides sociales à distribuer, mais la manière dont il procède pour identifier des vulnérabilités par profilage est identique et je serai prudent avant de déclarer que cela conduira à « protéger les droits des minorités ».

      Des expériences de recherche ont par exemple montré que l’algorithme de Facebook a tendance à moins montrer aux femmes d’informations parlant de violences faites aux femmes https://www.numerama.com/tech/349357-comment-facebook-place-les-gens-dans-des-cases-pour-leur-distribuer-de-lactu.html

      On voit donc bien comment, sous couvert de protéger, ce système de profilage aboutit au contraire à des dérives préoccupantes.

  2. Très intéressant. C’est la suite d’une histoire multi-millénaire :
    Le monothéisme et l’industrialisation des croyances (ou plutôt des imaginaires ?)
    L’imprimerie et l’industrialisation de l’expression.
    Le capitalisme et l’industrialisation de la production.
    Le marketing et l’industrialisation des comportements.
    Et maintenant le web 2.0 et l’industrialisation de la pensée (et des sentiments ? Et des imaginaires, pour boucler la boucle ?)

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.