Enfermés dans le futur
À grands coups d’algorithmes, il faudrait extraire de nos comportements passés les germes de notre vie future, pour mieux nous « manager ». Quitte à en effacer le présent.

« Il y a dans l’esprit je ne sais quelle horreur (j’allais dire phobie) de la répétition. [...] L’esprit [...] répugne à la redite [...] il tend toujours à trouver la loi d’une suite, à passer à la limite (comme disent les mathématiciens), c’est à dire à dominer, à surmonter, à épuiser en quelque sorte la répétition prévue. Il tend à réduire à une formule l’infinité dont il identifie les éléments. » Il y a dans ces mots de Paul Valéry issus de La politique de l'esprit sans doute une bonne partie de ce qui motive le désir d’automatisation qui parcourt la société technologique. À la fois défiance dans le facteur humain, et conviction profonde qu’il y a toujours dans le passé de quoi prédire le futur en se basant sur les bonnes données, la détestation de la répétition est la manifestation d’un souhait d’emprise sur le futur.
De l'automatisation au contrôle
Dans son livre de référence l’Âge du capitalisme de surveillance, Soshana Zuboff, professeure émérite à l’Université d’Harvard, décrit comment les entreprises de la tech, Google, Facebook, Apple, Amazon et consorts, assises sur des montagnes de données, ont peu à peu préféré s’en servir pour façonner le monde plutôt que le prédire. Car il est bien plus facile pour eux de faire coller la réalité à la prédiction plutôt que l'inverse.
Une formidable asymétrie de connaissance (et donc de pouvoir) s’est développée ces dernières années à leur profit, tirant parti de la lenteur institutionnelle à répondre à une situation inédite, dans un territoire (la collecte des données) alors vierge de toute loi. Le Règlement général sur la protection des données (RGPD), aussi imparfait soit-il, n’est par exemple entré en vigueur... qu’en 2018. Soshana Zuboff pointe d’autres éléments qui ont accéléré la montée en puissance de ces mastodontes : le rythme effréné et sans entraves de l’innovation technologique, la « guerre à la terreur » déclarée suite aux attentats du 11 septembre 2001 qui a ouvert la porte aux surveillances de tout poil...
Cette connaissance de tous les instants s’est doublée d’une capacité sans limite à influer sur nos comportements. D’abord parce que notre vie a désormais un point de passage obligé que nous transportons toujours avec nous : notre téléphone. Celui-ci nous rend à la fois émetteur d’informations en continu (sur nous-mêmes, les autres, nos habitudes, nos déplacements, qui nous fréquentons ou comment nous dormons) et récepteurs d’une multitude de signaux (notifications, invitations, conseils bienveillants) qui sont autant d’occasions de nous « pousser » dans une direction ou une autre. C’est le « nudge », cette subtile façon, issue des sciences comportementales et répandue par la technologie, de « guider nos choix sans nous donner l’impression de les réduire » dans les mots de Richard Thaler (prix Nobel d’économie en 2017).

La dépossession du réel
Auscultés, disséqués, tiraillés d’un côté ou de l’autre, nous voici donc les jouets d’entités qui semblent avoir en commun leur incapacité à supporter l’indéterminé. Car vouloir à tout prix maîtriser le futur, n’est-ce pas aussi craindre sa propre faillibilité ? Qu’est le désir de contrôle si ce n’est la peur du lâcher-prise ? C’est une méfiance intrinsèque dans l’autre qui est à l’œuvre, manifestée par le désir insatiable de voir ses propres besoins assouvis, au mépris de ceux des autres.
Ce mouvement de reconfiguration du réel n’est pas très loin de celui qui anime les instigateurs ou amateurs de fake news. La philosophe Judith Butler a consacré un article au deuil insupportable des soutiens de Donald Trump, confrontés à la défaite de leur champion. « Je ne peux pas vivre dans un monde dans lequel l’objet auquel je tiens est perdu. Je détruirai donc le monde qui me renvoie à ce que j’ai perdu, ou je quitterai ce monde en recourant à la fiction », écrit-elle en se mettant dans leur peau. « Celui ou celle qui souffre de ce type de déni préfère détruire la réalité, halluciner une réalité préférée, plutôt que d’enregistrer le verdict de perte délivré par la réalité. Il en résulte une rage destructrice qui ne se donne même pas la peine de fournir un alibi moral. »
Mais si les amateurs que nous sommes touchent assez vite les limites de leur propre pouvoir et finissent par choisir la fiction comme échappatoire, les tenants du « capitalisme de surveillance » théorisé par Soshana Zuboff disposent eux de ressources quasi infinies. Pourquoi en être réduit à fantasmer une réalité alternative (où l’on serait du côté des vainqueurs) quand on peut tout simplement plier le monde pour le faire correspondre à ses rêves ? Le « Big Other » qu’elle décrit n’emprunte pas la terreur arbitraire que pratique le Big Brother de Georges Orwell. Celui-ci vise la société parfaite, définie par la classe ou la race, quand le monstre métaphorique de Soshana Zuboff cherche à automatiser la société au bénéfice de retombées garanties aux maîtres du jeu, par la connaissance absolue de chacun.
Faire croire que l’on se contente de prédire sans intervenir, que la question est libre d’advenir, est une mystification. Connaître, c’est forcément pouvoir influencer. Et nos interrogations sont peu à peu façonnées pour coller aux réponses déjà prêtes. Ce n’est pas sans rappeler Jeopardy, le jeu télévisé diffusé depuis les années 60’ aux États-Unis, et où les candidats s’évertuent, en partant de réponses (clues), à retrouver la question. Un jeu que Google semble avoir gagné depuis longtemps, nudgant avec facilité les millions de requêtes soumises à son moteur de recherche chaque jour vers une panoplie de suggestions prédigérées.
Prédire le consommateur, prédire le citoyen
Malheureusement, le triptyque profilage/prédiction/orientation a déjà débordé le champ de l’économie pour investir celui de la société. Véronica Barassi professeur à l’université de St. Gallen, met des mots sur cette gradation : « chaque individu est profilé simultanément en tant que consommateur et en tant que citoyen ». Et de s’interroger : est-ce le citoyen qui devient un consommateur comme un autre, ou l’État qui devient une entreprise comme une autre...?
L’État qui n’a d’ailleurs pas attendu l’avènement de la technologie pour infantiliser un citoyen considéré comme faillible par nature. François Sureau, avocat et écrivain membre de l’Académie française s’alarme de la croissance dans le droit de formes de définition a priori de notre liberté. Il prend l’exemple de la loi dite « anticasseurs » du 10 avril 2019, qui permet le contrôle individuel de tous les participants à une manifestation. Donc non pas de celui qui se serait rendu coupable d’une incivilité, mais bien de tous ceux qui pourraient y venir. Voilà donc que l’on cherche à « intimider non le délinquant mais le citoyen lui-même ». Un citoyen désormais « supposé défaillant dans son intelligence et donc dans ses choix ».
Nous devrions donc consentir un lâcher-prise total envers celles et ceux qui savent — mieux que nous. De l’État, pour nous protéger malgré nous, à notre frigo connecté, avide de nous proposer de nouvelles recettes pour rentrer dans les clous des exigences de notre assureur santé. Assistés d’intelligences « artificielles » prédictives et bienveillantes, nous voilà condamnés à être d’éternels enfants. Or faire un choix, exercer son libre-arbitre est un exercice mental sain et nécessaire. Dans une famille, l’objectif de l’éducation est bien l’autonomie de l’enfant.
Oui mais voilà : « les gourous de la high-tech et les prophètes de la Silicon Valley ont créé un nouveau récit universel qui légitime l’autorité suprême des algorithmes et du Big data. » Yuval Noah Harari, historien, écrivain, et Professeur à l'université hébraïque de Jérusalem, nomme cette nouvelle croyance le « Dataïsme » : « de la même façon que les tenants de l’économie libérales croient en la main invisible du marché [le fait que l’offre et la demande, par la grâce de la concurrence, se réguleront naturellement], les adeptes du dataïsme croient en la main invisible du flux de données ». Qu’il suffit d’amasser et de connecter suffisamment d’informations pour que l’ordre du monde en émane comme une évidence. Tout nous invite, dans une douce indolence à nous laisser guider pour notre propre bien.

Se focaliser sur la destination, c'est supprimer le rôle du voyage
Vouloir absolument connaître à l’avance ce qui nous attend est-il vraiment souhaitable ? Car chaque pas change le voyage... et donc la destination. Emil Cioran, qui est peut-être le plus grand philosophe pessimiste du 20e siècle, s’inquiète ainsi des utopies — non pour ce qu’elles annoncent de notre futur, mais pour ce qu’elles font à notre présent : « n’ont pas d’avenir ceux qui vivent dans l’idolâtrie du lendemain. ». Un chemin tracé à l’avance serait une dégradation de notre conscience, car le voyage ne s’arrête jamais.
Mieux, il est même salvateur que le futur se refuse. Contemporain de Cioran, Max Horkheimer, dans ses Notizen, s’inquiète de l’élimination de tout antagonisme. Déception, douleur, expérience des limites, sont de puissants moteurs. « Sans besoin il n’y a pas de plaisir, sans chagrin pas de bonheur, sans la mort la vie n’a pas de sens. Moins nous rencontrons la frustration, plus la réalité s’assombrit. » Le futur de satisfaction continue que nous promettent les algorithmes cajoleurs répond peut-être à nos besoins immédiats, mais il met nos désirs sous l’éteignoir. Ce que nous voulons n’est pas toujours ce que nous aimons, l’étude de l’addiction nous le montre très bien. Réduire l’individu à des besoins à assouvir, c’est le dégrader. François Sureau : un tel individu est « prêt à ce que la liberté de tous s'efface pour peu qu'on paraisse lui garantir la sienne, sous le forme d'une pleine capacité de jouissance des objets variés qu'il aime ».
Les plus grands voyageurs — ceux dont le chemin à parcourir est le plus long — sont les enfants. Véronica Barassi décrit comment ils sont profilés sur la base de leur famille et des groupes sociaux auxquels ils appartiennent dès leur naissance. Des classifications qui les suivent tout au long de leur vie et perpétuent les inégalités (voir aussi Virginia Eubanks : L’Automatisation des inégalités), freinent la mobilité sociale, mais surtout « impactent leur droit à l’auto-détermination et à l’autonomie morale » comme le montrent aussi les travaux d’Helen Nissenbaum de l’université de Stanford. Automatisation contre auto-détermination : la prédictibilité enferme et c’est bien notre liberté qui est en jeu. Un indice : aux États-Unis, l’industrie publicitaire détient en moyenne 72 millions de « points de donnée » sur un enfant avant même qu’il atteigne ses 13 ans. De quoi l’« enfermer » très tôt dans le futur qu’on lui promet.

Plaidoyer pour l'imprévu
Le monde est déterminé - mais pas absolument prédictible. Miguel Benasayag, philosophe, psychanalyste, chercheur en épistémologie : « on est en train d’éclipser la singularité du vivant ». Une singularité qui repose sur « le non calculable, le non prédictible, la contingence. [...] On peut modéliser l’ADN et les chromosomes, mais le problème vient de ce qu’on prend le modèle pour la chose. » Et le résultat pour la cause... C’est la nature même de l’évolution que de procéder par erreurs et par tâtonnements. Il faut reconnaître le potentiel créateur de la déviance plutôt que de céder à la force normative du précédent.
L’automatisation est une standardisation. Écrit dans les années 50’ mais publié pour la première fois en 1982, L’univers irrésolu de Karl Popper est sous-titré « Plaidoyer pour l’indéterminisme ». Ce (très) grand philosophe des sciences les décrit comme « l’art de la sursimplification systématique — comme l’art de discerner ce que l’on peut avantageusement omettre ». Il part de la description du Démon de Laplace, une expérience de pensée établie au début du XIXe siècle par le mathématicien français Pierre-Simon Laplace, dans laquelle un Être doté de capacités de calcul illimitées serait en mesure de prédire rationnellement tous les états futurs du monde, à condition de connaître son état à un moment donné, sur la base des lois de la nature. Une vision du déterminisme « dur » très proche de ce que nous promet la technologie aujourd’hui. Et Popper de résumer : « le Démon de Laplace n’est pas autre chose qu’un scientifique humain idéalisé. [...] Le projet de prédiction [...] se réduit à un problème de calcul ».
Karl Popper ne nie pas le déterminisme du monde (« je le tiens d’ailleurs pour irréfutable »), c’est la posture dogmatique qu’il critique. Il ne s’agit pas d’être complètement in-sensés, mais de réintroduire de l’ambiguïté, de l’incertitude, de l’imprévu. « L’indéterminisme d’un dieu jouant aux dés, ou de lois probabilistes, ne parvient pas à faire une place à la liberté humaine. Car ce que nous cherchons à comprendre n’est pas uniquement comment nous pouvons agir d’une manière imprévisible et fortuite, mais comment nous pouvons agir délibérément et rationnellement ». Être naïfs sans être simplistes. Être scientifiques dans être scientistes.
Peut-on encore être « chez soi » ?
« S’il fallait définir [un] but fondamental, ce serait de créer un espace numérique qu’on puisse appeler chez-soi. C’est-à-dire un lieu où l’on se sent en sécurité, seul ou avec ses proches, à l’abri du regard des autres, libre de pouvoir se relâcher en toute tranquillité : un lieu où être soi-même. » Ces jolis mots sont tirés d’une recension du livre de Soshana Zuboff dans La Revue durable.
Les espaces intimes sont devenus extrêmement durs à trouver. Nous devons tous les jours arbitrer les informations que nous acceptons ou non de partager. Un choix tout sauf éclairé, alors même que nous sommes contraints d’adopter des outils digitaux de plus en plus intrusifs (banque, école, santé...). Et tant pis pour les petites lignes auxquelles nous souscrivons sans les comprendre : refuser risquerait de nous exclure de la vie économique et sociale. Véronica Barassi parle de « résignation numérique » et de « conformisme forcé ». Qui peut vraiment choisir entre attendre 4 à 5 semaines avant de voir un docteur, ou trouver un rendez-vous le jour-même en ligne — au prix de quelques données ?
Elle décrit cette « dataification » comme un arbitrage quotidien, une négociation morceau par morceau. Elle recommande une sélection attentive des données que l’on partage. Carissa Véliz, Professeur à l’Université d’Oxford et autrice de « Privacy is Power » y ajoute la technique de l’obfuscation qui consiste à donner volontairement de fausses informations « quand leur collecte n’est pas justifiée ou leur protection insuffisante ». Mais par-dessus tout, il faut garder en tête qu’il n’y a pas de chez soi sans chez nous. À chaque fois que nous cédons un peu d’information sur nous, nous exposons aussi les autres. Nos données de localisation « disent quelque chose sur nos voisins, nos collègues de travail ». Notre profil mental ou physiologique enrichi celui des gens qui ont les mêmes caractéristiques. « Si le premier pas est de protéger notre propre vie privée, le second est bien de faire attention à celle des autres ».

Dans ce rapport de force, le Démon de Laplace est faillible, et ses pendants (algorithmes, intelligence artificielle...) le sont tout autant. Leurs échecs sont autant de rappels salvateurs, de brèches dans lesquelles il faut s’engouffrer. Véronica Barassi a lancé le « Human Error Project » qui braque les projecteurs sur ces algorithmes aux résultats ouvertement racistes, discriminatoires ou tout simplement absurdes : un vendeur de graines d’oignon a vu sa publicité censurée par Facebook car considérée comme « contenu à caractère sexuel ».
Récemment, Kaitlyn Tiffany, journaliste à The Atlantic, a décrit comment elle ne se reconnaissait plus dans les contenus vidéos qu’agrégeait pour elle l’application TikTok. « Ce n’est pas tant que l’algorithme se trompe » lui a répondu le chercheur Julian McAuley de l’Université de San Diego, « mais plutôt vous qui avez le sentiment que vos actions passées [sur lesquelles sont basées les recommandations] ne sont pas représentatives de ce que vous êtes aujourd’hui. » Comme Pascal écrivait que « l’Homme passe infiniment l’homme », l’Homme passe aussi infiniment l’algorithme. Et par la sur-simplification qu’il défend, le dataïsme est un inhumanisme.