Répondre à Homo Economicus, n°1 : Les données numériques

Répondre à Homo Economicus, n°1 : Les données numériques

Alors que les pouvoirs en place s’affairent à transformer les individus en agents économiques flexibles, notre lecture du monde est constamment orientée, consumée par le rapport marchand, et donc toujours incomplète. Cette série d’articles propose quelques pistes de réflexions pour court-circuiter certaines certitudes, questionner le cadre de pensée.

 

« Moi, ça ne me dérange pas qu’on prenne mes données si elles sont bien utilisées »

 

Ah, je l’ai entendue un paquet de fois, cette phrase. Elle est prononcée par les mêmes personnes qui n’ont « rien à cacher ».  Mais que dit-on vraiment, lorsque l’on affirme que nous n’avons rien à cacher, que nos données peuvent être « bien utilisées » ?

Commençons par définir ce dont nous discutons : le monde occidental a produit des machines qui nous assistent et/ou nous dirigent dans nos actions quotidiennes et nos prises de décision. Parmi elles, les outils du numérique – nous parlons principalement des ordinateurs et des smartphones pour simplifier – sont des incontournables que la majorité des individus utilisent aujourd’hui. Bon. Il se trouve que ces outils produisent des data, des données, qui sont le résultat de leur utilisation. C’est inévitable. Les objets numériques enregistrent des informations, qui vont de leur temps d’utilisation aux différentes actions que l’on effectue grâce à eux ― que ce soit dans notre façon d’écrire, de communiquer, nos comportements d’achat, nos habitudes quotidiennes… Cela produit donc des données, que l’on peut utiliser, il est vrai, de différentes façons. Mais existe-t-il une « bonne façon » de le faire, comme le prétendent certaines personnes ? Quels critères utilisent-ils pour juger du bien ou du mal fait par l’utilisation des données ?

 

Comment sont utilisées nos données ?

 

Le cycle de vie d’une donnée est plutôt simple : elle est produite, enregistrée, stockée, sélectionnée, puis utilisée et/ou vendue. Quand on donne l’accès aux données – que l’on produit inévitablement – on donne l’accès à la lecture de nos comportements, mais apparemment, ça ne serait pas si grave, du moment que les philanthropes qui les utilisent, les vendent (principalement les GAFAM) et les achètent, en feraient bon usage.

« Google, Facebook, Twitter, Apple, Amazon, etc. sont les services idéaux d’un nouveau panopticon numérique. Ils récupèrent et revendent des échantillons individuels de nos vies, avec lesquels ils produisent une vaste gamme d’instruments servant à catégoriser, prédire et influencer les comportements. Le monopole de ces informations et leur revente donnent à ces services un pouvoir de conditionnement social sans précédent dans l’histoire. Notre acquiescement à l’accumulation continue de données contribue de manière déterminante à cette concentration de pouvoir » [1]

Voici un premier point intéressant à ce propos. Dans cet article on comprend que fournir nos données permet de renforcer le pouvoir de ceux qui les prélèvent. Nous n’avons rien à nous reprocher, nous utilisons ces outils « de la bonne façon », mais est-ce vraiment ce que nous souhaitons ? Une concentration des pouvoirs et une dépendance à une minorité d’acteurs ? Participer à l’élaboration de notre prison ?

L’article explique aussi très bien qu’un site comme Google, par exemple, n’a pas pour raison d’exister le fait d’être un moteur de recherche pertinent qui ouvre les portes de la connaissance au monde entier de façon égalitaire. En réalité, c’est bel et bien la mise en relation des différentes recherches pour établir des profils de consommateurs et les revendre qui permet à l’entreprise de fonctionner. Comme toute entreprise, ces acteurs sont à la recherche d’un bénéfice, de la création de valeur ajoutée, en somme. C’est leur unique objectif et ça le restera, car c’est ainsi que fonctionne le système qui leur permet d’exister.

Quand nous livrons nos données, nous participons de facto au renforcement du monde qui permet la production de ces données. Ce monde, c’est celui du capitalisme, dernier rejeton de la civilisation occidentale ; celui qui provoque en ce moment même la 6ème extinction de masse ; celui qui, pour nous fournir cette technologie, exploite des populations entières, tue des humains, défigure la terre, ravage les écosystèmes, et autres joyeusetés…

Dire qu’il existe une « bonne façon » d’utiliser nos données, c’est admettre que nous sommes dépossédés du pouvoir d’organisation politique. C’est aussi affirmer qu’il est préférable qu’un groupe d’experts gère de façon « rationnelle » le reste des individus, grâce à des savoirs et des outils non-démocratiques. C’est également ne pas considérer le fait que le traitement de ces données permet essentiellement au système de se maintenir, en renforçant son ubiquité, sa force de coercition, son contrôle des corps et des esprits.

 

Quel est ce monde, celui des données ?

 

« Une nouveauté technologique, quelle qu’elle soit, n’apparait que dans un contexte économique, culturel et social déterminé ». [2] Ce monde, c’est celui façonné par la logique productiviste et consumériste, dont les technologies numériques sont des outils d’optimisation du fonctionnement et dont les données sont un levier de contrôle et d’analyse des comportements des individus qui le composent. Pour tous ceux, donc, qui clament la neutralité des données et le fait que le bien-fondé de leur utilisation dépend des bonnes ou mauvaises intentions, il est important de rappeler que la collecte et l’utilisation des données sert systématiquement à renforcer notre adhésion au monde.

La collecte et le traitement de nos données n’est donc pas neutre, au moins en ce sens qu’elle sert à minima à nous faire adhérer à la vision du monde proposée par l’entité qui les utilisent. Julien Arzam nous donne une parfaite illustration de ce constat lorsqu’il écrit, à propos de Facebook, « Chaque participant au site justifie son utilisation en voulant la rendre inoffensive et nécessaire. L’usage serait maîtrisé, réfléchi et seuls les autres s’en serviraient à mauvais escient. Là encore le déni est manifeste. Il est en effet impossible d’agir en purs esprits qui pourraient distinguer fins et moyens. Utiliser Facebook, quelles que soient les fins, c’est cautionner un moyen, et croire qu’un usage subversif du site est possible, revient à se chercher des excuses, car en définitive c’est Facebook qui gagne »[3].

Il explique aussi, pour montrer à quel point ces acteurs ont su développer une emprise sur les corps et les esprits, la chose suivante :

« Il est possible de connaître le degré d’émancipation d’une société très simplement. Il suffit pour cela d’interroger les valeurs dominantes qu’elle se donne et, par exemple, d’étudier ce qui concrètement, en son sein, est qualifié de liberté. Aujourd’hui, dans les sociétés développées, le site Facebook est associé, dans l’imaginaire collectif, à la liberté : liberté de communiquer, de transmettre des informations, de mettre en scène son existence, liberté de découvrir ses amis sous un nouveau profil, liberté de se faire connaître…Rappelons tout de même que la liberté correspond à l’état de celui qui n’a pas de maître, car l’emploi de la liberté par les usagers de Facebook pourrait laisser croire le contraire ». Nous prenons l’exemple de l’iconique Facebook, mais cela se confirme partout : une liberté qui repose sur la capacité technique d’un acteur à nous « fournir de l’émancipation », ici, en l’occurrence, en échange de nos données, est fortement discutable. La liberté, c’est, finalement, ne pas avoir besoin de l’outil pour vivre.

Tout aussi essentiel, mentionnons Lewis Mumford, qui nous rappelle que toute technologie complexe est « autoritaire » par essence en ce qu’elle dépend d’un réseau d’experts, de financiers, d’ingénieurs, et finalement d’un système sociotechnique mondialisé qui n’en permet pas une gestion démocratique. C’est donc un monde où l’humain est enfermé dans une obligation de vivre au travers des outils, biens et services, proposés par des entreprises qui accaparent les richesses et la force de travail des autres pour s’assurer le pouvoir.

 

Mais si nos données personnelles permettent une publicité ciblée qui nous oriente vers le meilleur achat pour nous, qui nous conseille le meilleur contenu culturel selon nos goûts, quel est le problème ?

 

Il serait plus juste de parler d’une méthode de profiling qui nous segmente en différentes catégories de consommateurs dans le but d’alimenter le marché et vendre les produits de l’industrie, plutôt que d’évoquer une réelle participation à notre bien-être. Catégories dans lesquelles nous entrons, d’ailleurs, quasi-systématiquement, parce que les algorithmes ont réussi à nous y orienter et non car elles reflètent nos désirs profonds. Finalement, cela revient à dire que notre bien-être se résume à la satisfaction de nos besoins de consommation, eux-mêmes dérivant du monde civilisé et du mode de vie qu’il impose.

Prenons l’exemple de la personne qui mesure ses performances sportives avec des applications pour illustrer succinctement le mécanisme. Avec mon application, je commence par produire des données, qui renseignent plusieurs entreprises sur ma condition physique, mon profil sociologique, etc. Grâce à ces informations, ces mêmes entreprises seront en mesure de me vendre des produits et des services. Je veux m’améliorer, et l’on me propose les meilleures options de consommation pour y parvenir. Nous voyons ici se dessiner un monde limité aux expériences proposées par les entreprises, un monde où l’argent, par l’optimisation qu’il va fournir, va jusqu’à réguler la qualité de nos performances physiques.

 

Nos données personnelles pourraient être utilisées par l’administration pour améliorer notre sécurité, pour mieux comprendre ce que veulent les gens, pour leur donner plus de pouvoirs au sein des institutions, ce serait une bonne chose non ?

 

Malheureusement, le Big Data, qui permet effectivement la surveillance – trop souvent confondue avec la sécurité – et l’étude des comportements, n’échappe pas à la règle : en alimentant le big data, on permet l’émergence de la « data gouvernance » ou « gouvernance algorithmique ». On permet l’émergence d’un monde qui nous appréhende selon ce que nous sommes « numériquement ». Un monde, donc, qui nous oblige à utiliser ses outils numériques pour y vivre. La tendance actuelle, dans les métropoles, est clairement au suréquipement des infrastructures et des individus en appareils numériques.[4] Cela maximise notre dépendance et notre utilisation de ceux-ci. L’humain devient un flux, analysable, catégorisable, et de ce fait, orientable. En définitive, facile à gérer. Nous sommes loin de la « prise de pouvoir » et de la « participation citoyenne » vantée par les acteurs de la smart city.

« En 2014, Pôle emploi a révélé avoir mené une expérimentation en Poitou-Charentes. Il s’agissait de « cibler » les demandeurs d’emplois les plus susceptibles de ne pas chercher d’emploi en se basant sur des critères en apparence anodins : la situation familiale (mères célibataires), scolaire (non ou peu diplômés) et géographique (habitants de petits villages bonjour !) pour savoir qui traquer. Les individus, ainsi sélectionnés, ont eu la chance de voir leurs démarches de recherche d’emplois scrutées par une équipe indépendante (du reste du personnel de Pôle emploi) en se basant sur des critères déjà statistiquement surreprésentés parmi les personnes radiées pour leur peu d’entrain à quémander un turbin d’esclave ».[5]

En fait, c’est là tout le paradoxe : nous disons ne pas avoir de problème avec l’utilisation de nos données si elles le sont à bon escient, mais voilà, nous les donnons sans avoir le contrôle sur ce qui va en être fait et, surtout, nous les donnons à des entités qui ont un intérêt marchand et/ou coercitif, en contradiction avec le prétendu bien être qu’elles feignent nous fournir.

Et puis, accepter que nos données soient utilisées par les institutions est souvent trompeur. La pratique nous est vendue sous couvert de « sécurité », mais il ne faut pas oublier qu’elle est principalement utilisée par l’Union Européenne (pour ne citer que cette institution) dans le but de ficher et de surveiller les manifestant·es, les militant·es, les migrant·es, les expulsé·es…[6] et tout un florilège d’individus qui ne sont pas compatibles avec le système. La collecte systémique d’une masse considérable de données permet aussi l’émergence de la police/justice prédictive. Ficher les éléments perturbateurs, bloquer les trains pour empêcher une manifestation car on sait qui y va, où et à quelle heure, anticiper les rassemblements, bloquer administrativement… Le système opprime pour se défendre.

L’alimentation de notre profil numérique ne s’arrête pas aux données récoltées de façon organique. Une fois analysées, les données permettent de « suspecter » des comportements. Cela fait 3 jours que votre GPS indique être tout près de celui de votre collègue de travail entre 21h et 7h du matin. Ne seriez-vous pas en train de tromper quelqu’un ? Vous avez recommencé à fumer, on ne ferait pas une petite dépression par hasard ? Un club de sport ? Finalement, on dirait que ça va mieux ! Évidemment, ces interprétations orientent les algorithmes dans ce qu’ils nous suggèrent et les entreprises dans ce qu’elles nous vendent.

Nous pouvons aussi rappeler que ce qui est légal aujourd’hui peut devenir illégal demain. Rien ne nous garantit que nos recherches sur tels sujets, nos achats de tel contenu culturel ou encore nos affinités avec tels individus sur les réseaux ne pourront pas un jour nous être reprochés. Peut-être que nous qui n’avons rien à nous reprocher, nous nous verrons demain pénalisé·es sur notre salaire d’un montant proportionnel au temps d’utilisation de notre smartphone sur le lieu de travail. Bref, nos données nous concernent, et leur utilisation par des tiers nous est néfaste, qu’on le veuille ou non.

 

Si nos données personnelles sont récoltées par les médecins et les pharmaciens pour améliorer la qualité des soins, on ne peut pas dire qu’il s’agit d’une mauvaise utilisation quand même ?

 

La médecine, c’est l’angle indiscutable de la techno-critique. Ça, on n’y touche pas. Pourtant, si ce n’est pas pour réfuter le principe d’amélioration de la pratique de la médecine, il est plus que pertinent de discuter de son fonctionnement actuel.

Commençons par constater que, depuis que nous collectons des données et utilisons des technologies de pointe dans le domaine médical, celui-ci emprunte de plus en plus de codes et d’usages au domaine économique. Le simple fait que l’on parle de notre « capital santé » nous met la puce à l’oreille. Ensuite, le fait que nous soyons passé·es d’une appréhension qualitative de la maladie – quels sont les symptômes, que ressent le ou la patiente, les signes que le médecin peut analyser… À une approche quantitative : quels sont les taux, les doses, les fluctuations de tel ou tel élément… Concrètement, notre médecine s’est mise à considérer les corps comme des entités quantifiables, qui pourraient être contrôlées, gérées, améliorées, et autres qualificatifs issus du jargon économique.

L’exemple du diabète est fascinant : Pour savoir si une personne souffre du diabète, on contrôle son taux de sucre. Au-dessus d’un certain taux, vous êtes malades, en dessous vous ne l’êtes pas. C’est tout. « Ceci conduit à assimiler la maladie aux troubles quantitatifs détectés et la réduire en grande partie à cela. Malheureusement, la limite est difficile à fixer, car deux personnes présentant exactement les mêmes signes peuvent avoir des taux assez différents, et inversement. On constate, de plus en plus, que pour un taux donné, certaines présentent des signes, d’autres non. Bien sûr, plus le taux est élevé, plus la maladie est certaine, mais plus bas existe une zone intermédiaire floue, entre le normal et le pathologique, zone ou la maladie n’est que probable, ou possible, et qui a été appelée zone limite ».[7] Qui dit maladie dit traitement, et cette zone limite permet donc d’élargir la population à traiter. Ainsi, en 1971, seulement 2% de la population française présentait des signes de diabète, mais 10 à 20% de la population pouvait être assimilée à des « diabétiques limites ». Vous la voyez, la part de marché qui s’agrandie ?  Nous ne sommes pas résumables à des chiffres, et en cela, il conviendrait donc de changer d’approche.

Ces données que nous récoltons pour améliorer notre pratique médicale servent donc principalement à créer une définition technique et quantitative de la « bonne santé », qui se matérialise dans un corps idéal, qui n’existe pas. La médecine dite moderne, de pointe, s’évertue principalement à effacer les imperfections, les écarts entre la réalité de notre corps et celle de ce « corps modèle », qui, répétons-le, n’existe pas. Nous avons intégré culturellement cet idéal de la bonne santé, et donc une façon de pratiquer la médecine qui cherche à l’atteindre.

Nous sommes donc à la recherche du corps que l’on nous propose dans les publicités, la condition physique selon les taux découverts par les nutritionnistes, les dents de telle actrice. Nous voulons nous calquer sur ces chiffres : ils sont des marqueurs sociaux, des preuves, des références, des conditions… Ils nous épargnent l’effort de ressentir. « J’ai pris le médicament et, depuis, ça va beaucoup mieux », disait Michel, 10 minutes après avoir ingurgité un placébo.

Finalement, la médecine moderne est critiquable sur de nombreux points, comme le fait qu’elle ne remplit pas sa promesse de « nous faire vivre plus longtemps »[8], et d’autres, que nous ne développerons pas ici. Mais retenons que la collecte des données dans ce domaine a au moins les résultats suivants : Une déshumanisation de la pratique, qui nous conduit à traiter les individus comme des entités quantifiables et donc une perte de tout rapport sensible aux corps ; une privatisation du domaine de la santé, aux mains d’experts et d’industriels, donc l’émergence d’une logique marchande et toutes les dérives qui l’accompagnent. Un tel système est, de plus, totalement dépendant d’une économie mondialisée et basée sur des industries de masse, donc, non-viable à moyen ou long terme.

Affirmer que nos données peuvent être bien utilisées est donc au mieux une ignorance, un déni, au pire un mensonge. Rappelons qu’aucune technologie n’est neutre puisque le système qui permet son émergence ne l’est pas, et que son utilisation permet principalement le renforcement de ce système. Il est aujourd’hui assez clair que les pouvoirs (économiques et politiques) en place dans les pays occidentaux s’orientent vers une numérisation massive des territoires et des populations. Nous le savons, l’utilisation (souvent forcée) de ces outils renforcent leur pouvoir et leur légitimité. Lutter contre, c’est donc s’attaquer à toutes ses manifestations, même celles que l’on croit « bonnes », pour empêcher cette centralisation du pouvoir et le renforcement de notre dépendance vis-à-vis de ce monde. C’est aussi favoriser l’émergence ou la consolidation de tout ce qui n’en dépend pas.

Hugo Desprez

Retrouvez l’intégralité de la série Homo Economicus

 

Références :

[1] Il est venu le temps de la déconnexion… Google : conditionnement social et totalitarisme smart. Paru dans lundimatin #25, le 15 juin 2015, consulté le 30/05/2019

[2] ANDERS Gunther, L’Obsolescence de l’homme. Sur la destruction de la vie à l’époque de la troisième révolution industrielle, tome II, 2011, p. 216.

[3] AZAM Julien, Facebook Anatomie d’une chimère,  p. 50.

[4] À ce sujet, voir notamment FABUREL Guillaume, Les métropoles barbares.

[5] GO Julie, Big data: La vie en mode binaire, paru dans CQFD n°132 (mai 2015), rubrique Chronique du monde-laboratoire, mis en ligne le 21/06/2015, consulté le 30/05/2019

[6] THOREL Jéröme, EU DATABASE NATION(S): Surveiller et punir en Europe, le 26 mai 2011, consulté le 30/05/2019

[7] ABOULKER Jean-Pierre ABOULKER Ségolène, Nous sommes tous des malades limites, Jean-Pierre et Ségolène Aboulker, Survivre… et Vivre n.10, octobre-décembre 1971, p. 14-16

[8] STRAUSS Ilana, Does medecine actually make people live longer?, 2019

 

Pour approfondir le sujet :

Regardez la lumière, mes jolis

SADOWSKI Jathan et PASQUALE Frank, The spectrum of control: A social theory of the smart city

DUGAIN Marc et LABBÉ Christophe, L’homme nu. La dictature invisible du numérique, 2016

ODENT Michel, L’humanité survivra-t-elle à la médecine ?, 2016

BAQUÉ Philippe, Homme augmenté, Humanité diminuée, D’Alzheimer au transhumanisme, la science au service d’une idéologie hégémonique et mercantile » 2017

 

Pas de commentaire pour le moment

Écrire un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.