Outils pour utilisateurs

Outils du site


conferences:cretins:zuboff

Shoshana Zuboff : “Le capitalisme de surveillance transforme la vie en une matière malléable”

Mis en ligne le 25/09/2019

Et si les géants du Web ne cherchaient plus seulement à capter et à monétiser nos données, mais à prédire et à influencer nos comportements ? C’est l’hypothèse forte de l’universitaire américaine Shoshana Zuboff dans son essai retentissant “L’Âge du capitalisme de surveillance”. Nous l’avons interrogée. [Privacy Badger a remplacé ce bouton AddThis.] Shoshana Zuboff

Professeure émérite à la Harvard Business School, elle a été l’une des premières à prendre la mesure des transformations induites par l’informatique et la robotique dans le monde du travail. Après In the Age of the Smart Machine: The Future of Work and Power (« À l’âge de la machine intelligente. Le futur du travail et du pouvoir» ; Basic Books, 1988, non traduit), son dernier essai, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (« L’âge du capitalisme de surveillance. Le combat pour un futur humain et la nouvelle frontière du pouvoir » ; Public Affairs, 2018, en cours de traduction chez Zulma), a été salué mondialement. Publié dans n°133 Octobre 2019 Tags

Shoshana Zuboff, Capitalisme, Surveillance, Numérique, Technologie, Gafam, ville

Selon vous, nous vivons à l’âge du « capitalisme de surveillance ». Que voulez-vous dire ?

Shoshana Zuboff : Comme l’a montré l’économiste Karl Polanyi dans La Grande Transformation [1944], le capitalisme est fondé sur une dynamique qui le pousse à transformer en marchandises ce qui était jusque-là hors marché. Avec le capitalisme de surveillance, il s’agit de capter l’expérience humaine dont on se sert comme d’une matière première pour la transformer en prévisions comportementales monnayables sur un nouveau marché. Nous sommes censés être les usagers de Google et de Facebook, mais ces plateformes utilisent les informations sur nos comportements privés pour les transformer, grâce aux algorithmes d’intelligence artificielle, en prédictions comportementales. Certaines de ces données peuvent être utilisées pour l’innovation et l’amélioration de leurs services. Cependant, la plus grande part est valorisée pour leur fonction prédictive.

Un exemple ?

Cela a commencé avec le click-through rate [« taux de clics »], le pourcentage d’internautes qui cliquent sur la publicité d’un annonceur lorsqu’ils la voient sur leur écran. Développé par Google en 2001, il permet aux firmes de savoir si et quand leur publicité attire leur client. Il s’est imposé comme la pierre angulaire du marché de la publicité en ligne. Aujourd’hui, les algorithmes prédictifs ont envahi tous les secteurs : on prédit le comportement des consommateurs dans les supermarchés, leurs habitudes alimentaires et sanitaires, les usages des conducteurs automobiles, etc. Dans un mémo de 2018, Facebook prétend que son « IA Hub » qui traite quotidiennement des milliards de données est capable de produire « 6 millions de prédictions de comportement humain par seconde ». Prédire le futur est une aspiration fondamentale de l’humanité. Mais nous avons créé des machines qui se nourrissent de données afin de prédire les comportements quotidiens des individus.

Google, pionnier de cette transformation, ne l’avait pas planifiée. Comme si tout cela avait surgi de manière contingente…

La surveillance n’était pas inscrite dans l’« ADN » de la révolution technologique. Et on peut concevoir d’autres formes d’organisation du monde numérique. Au départ, les fondateurs de Google Larry Page et Serguey Brin méprisaient la publicité. La plateforme voulait « organiser l’information mondiale et la rendre accessible et utile », mais elle n’avait pas de clients ni de marchandises au sens propre. Au début des années 2000, la bulle numérique risquant d’éclater, les investisseurs ont menacé de se retirer si l’entreprise ne trouvait pas un modèle économique plus rentable. L’« état d’exception » a été déclaré, les services de recherche en intelligence artificielle mis en branle pour trouver un moyen de valoriser les données… Un jour d’avril 2002, un incident survint : cinq pics successifs à cinq moments de la journée pour une seule requête – « nom de jeune fille de Carol Brady », du nom d’un personnage de série télé. La question avait été posée pendant l’émission Qui veut gagner des millions ?, diffusée sur les cinq fuseaux horaires américains. Une révélation pour les ingénieurs de Google ! Les requêtes des usagers pouvaient être utilisées comme des signaux permettant de prévoir des événements avant qu’ils n’apparaissent sur les radars des médias traditionnels. Jusque-là, grâce à l’algorithme PageRank, les requêtes étaient utilisées dans le but d’améliorer la vitesse, la précision et la pertinence du moteur de recherche. Et les données excédentaires étaient traitées comme des « déchets». D’un coup, il apparaissait qu’ils recelaient un formidable pouvoir de prédiction. L’expérience humaine, traduite en données, pouvait être transformée en prédictions comportementales.

Cela ne se réduit-il pas à une sophistication de la publicité ?

La surveillance ciblée est apparue avec la publicité, mais ce n’en est pas le seul usage. Tout acteur cherchant à influencer nos comportements peut s’en servir, comme on l’a vu avec le scandale Facebook-Cambridge Analytica, qui a révélé la capacité d’utiliser le dispositif pour infléchir l’opinion du citoyen. Facebook l’avait revendiquée dès 2012 lors de l’expérience sur la « contagion des émotions » : en envoyant des mots tristes ou joyeux sur le fil d’actualité de deux panels d’usagers, le réseau a pu induire des émotions et des attitudes correspondantes. Ce tournant a fait pivoter le système du savoir vers le pouvoir : on pouvait alors ajuster, enrôler et modifier les comportements afin que les prédictions aient une plus grande fiabilité.

Vous prenez également l’exemple du jeu Pokémon GO.

Mis sur le marché par Nintendo, The Pokémon Company et Niantic Labs, ex-filiale de Google, Pokémon Go est d’abord apparu comme un jeu de réalité augmentée. Puis on a découvert qu’il recelait une composante commerciale – « Lieux sponsorisés ». Les entreprises comme McDonald’s pouvaient payer pour figurer parmi les sites du terrain de jeu dans le but de drainer vers elles les joueurs. C’est l’un des laboratoires d’expérimentation typiques du capitalisme de surveillance : les gens croient qu’ils sont en train de jouer, alors que leur action est manipulée par des intérêts économiques dissimulés.

La surveillance est un mécanisme réfléchissant – qui nous renvoie nos faits et gestes sous le mode de recommandations – et un mécanisme productif – qui transforme les traces numériques de nos comportements en prédictions vendues à des tiers. Pour saisir les deux faces du phénomène, vous employez le terme de « rendition » [« restitution »]. Que signifie-t-il ?

C’est un terme issu de l’ancien français. Le verbe « rendre » veut aussi bien dire « donner en retour » que « produire » (l’arbre rend ses fruits), « remplir une obligation » ou « faire allégeance» (comme dans l’expression « rendre à César ce qui est à César »). La captation de l’expérience humaine par le capitalisme de surveillance a tous ces sens. C’est un processus technique de restitution : grâce aux capteurs présents dans nos rues, dans nos voitures, dans nos maisons, dans nos téléphones portables, notre quotidien est agrégé par l’intelligence artificielle et restitué sous forme de « données comportementales ». Mais c’est également un processus social d’allégeance : les activités sociales exigent dorénavant que nous restituions notre expérience à une plateforme numérique. Pour accéder aux devoirs de nos enfants depuis la plateforme éducative de l’école et qui, aux États-Unis, est fournie par Google, pour consulter les résultats de nos tests sanguins sur les plateformes de santé, pour organiser un dîner ou pour échanger des photos de vacances avec nos amis via les médias sociaux, à chaque fois, nous nous sentons obligés de rendre disponible notre expérience. Nous devons « rendre » nos vies pour qu’elles puissent être captées sur les chaînes de montage du surplus comportemental du capitalisme de surveillance.

Pourquoi nous sentons-nous obligés de le faire ?

D’abord, parce que nous ne mesurons pas tout ce que cela implique. Ces technologies pénètrent dans nos vies de manière indétectable. Et les notices censées permettre un consentement éclairé nous submergent sous un langage que personne n’a le temps de lire. Ensuite, parce qu’on nous a persuadés que la destruction de la vie privée était nécessaire. Si vous avez l’audace de dire non, cela ne marche plus. Sur Nest Thermostat, un système de gestion thermostatique de Google, si vous refusez que vos données domestiques soient partagées, la compagnie cesse de mettre à jour le logiciel. Du coup, vos canalisations risquent de geler et vos alarmes de sonner à tout bout de champ. Le fonctionnement du service est conditionné à notre soumission volontaire à une surveillance unilatérale, secrète et illimitée. Pour échapper au sentiment d’impuissance, on se dit que c’est normal. Nous sommes psychiquement désarmés.

Pour vous, les remèdes envisagés pour assurer la « propriété » ou la « portabilité » des données, comme le règlement général sur la protection des données [RGPD] mis en place par l’Union européenne, passent à côté du problème. Pourquoi ?

Parce que les données ne sont pas individuelles. Elles ne peuvent donc pas être protégées individuellement. On fait comme si les données se réduisaient à ce que chacun d’entre nous dit, publie, poste, stocke, etc. Et on se demande comment récupérer ou être rémunéré pour ce que l’on donne. Mais les données ne sont pas personnelles, c’est un produit « dérivé ». Si je publie une photo de mon visage sur un réseau social, c’est une simple image pour moi. Mais les opérateurs peuvent la comparer à des dizaines d’autres photos de moi ou d’autres qui existent sur le Net ou qui seront demain captées dans la rue grâce à la reconnaissance faciale. Pour eux, l’image de mon visage, ce sont également des milliers de muscles qui permettent d’analyser mes émotions et de prédire mon comportement. Le « surplus comportemental » n’est pas seulement dérivé de ce qu’on donne, mais de ce que nous n’avons aucune intention de donner – les logiciels de géolocalisation et les applications embarquées dans nos téléphones qui permettent d’utiliser notre voix, nos photos, nos contacts et les contacts de nos contacts, etc. Tout cela permet de collecter des informations que l’on n’avait pas l’intention de divulguer et de déduire des comportements que l’on n’avait pas l’intention de révéler. Donc, même si la propriété des données personnelles était assurée à 100 % – ce qui est impossible, car personne ne dispose du temps ni de l’énergie nécessaires –, cela ne couvrirait qu’une infime fraction de ce qui est capté.

Google pourrait objecter qu’ils ne vendent pas une information individuelle mais une data collective produite par leurs soins. Le consommateur pourrait, lui, considérer qu’il acquiert ainsi des informations précieuses, par exemple sur les risques d’avoir une maladie… Bref, chacun ne pourrait-il pas tirer un bénéfice commun du traitement des data ?

C’était le rêve initial de la révolution digitale: grâce à toutes ces données, la société pourrait acquérir une masse d’informations qui lui permettrait de mieux se connaître et de mieux se gouverner. Et c’est aussi l’argument avancé par les dirigeants de Google. Combien de fois ai-je entendu Eric Schmidt, son ex-PDG, affirmer : « Rassurez-vous, nous ne vendons pas d’informations personnelles. » Si nos informations ne sont que la matière première d’un produit dérivé, il n’empêche que, pour créer ce produit, il faut récolter une masse considérable d’informations. La collecte de données a commencé avec les économies d’échelle et de portée – des données de plus en plus nombreuses et variées. Mais l’intensité de la compétition a ouvert un troisième front : les économies d’action. La grande idée est d’intervenir dans notre comportement pour nous guider de sorte que notre action soit plus conforme aux prédictions… et alignée sur les besoins du marché. La destruction de la vie privée porte ainsi atteinte à notre capacité d’agir. Loin d’être utilisée pour guérir le cancer, éviter la catastrophe écologique ou soigner la faim dans le monde, l’information sert à remplir les objectifs commerciaux de clients privés – pas les nôtres. La seule chose qui pourrait limiter l’extension du capitalisme de surveillance, c’est la loi. Mais, aux États-Unis du moins, aucune loi n’a été conçue à cet effet. Loin du rêve de Gutenberg d’un partage des connaissances, nous revenons à une ère pré-Gutenberg de concentration du savoir et du pouvoir entre les mains d’une minorité.

« Dans une ville connectée, tout ce qui survient est une “donnée urbaine” que tout le monde peut utiliser… mais que seul Google est capable de traiter de manière efficace et prédictive » Shoshana Zuboff

Selon vous, les plateformes numériques cherchent à établir des « zones d’expérimentation » où elles peuvent donner libre cours à leur ambition de modifier nos comportements. Quelle est la prochaine « zone d’expérimentation » ?

La ville. Elle offre un espace idéal pour tester la manière dont on peut remplacer le gouvernement démocratique par la gouvernance algorithmique. La filiale de Google Alphabet, Sidewalk Labs, qui installe depuis plusieurs années des kiosques wi-fi gratuits dans les grandes villes, fait pression pour conclure un accord avec la ville de Toronto pour la gestion de son front de mer. La déclaration initiale de cet accord stipule que tout ce qui se passe dans cette zone est dorénavant une « urban data » [« donnée urbaine »]. Dans votre appartement, dans votre voiture, dans la rue ou dans un café, que cela implique des êtres humains, des machines ou des animaux, tout ce qui survient dans cet espace est une « donnée urbaine » que tout le monde peut utiliser… mais que seul Google, ou éventuellement Amazon, est capable de traiter de manière efficace et prédictive.

La gestion algorithmique, dites-vous, permet de faire fi de la loi. En quel sens ?

Les citoyens se rassemblent dans la Cité et recourent à la politique pour décider comment ils veulent vivre ensemble. Dans la ville-Google, on peut se passer de cet art de régler les conflits. En lieu et place d’une discussion sur le type de voisinage que vous souhaitez, des algorithmes définiront les paramètres optimaux, comme le niveau de bruit acceptable. C’est ainsi que la computation informatique remplace la délibération démocratique. Or, quand ils sont élaborés par des capitaux privés, les algorithmes ont tendance à favoriser les propriétaires de ces capitaux privés.

Les données ont tout de même besoin d’être mises en commun pour être optimisées… Du coup, quelle serait l’alternative ?

Nous devrions affirmer le principe selon lequel chaque personne a le droit de décider si et comment ces données peuvent être utilisées. À l’heure actuelle, il n’y a pas de contrôle démocratique de la surveillance. C’est un assaut contre la souveraineté individuelle qui contribue à une concentration sans précédent du pouvoir de façonner le comportement humain. Ce que j’appelle le « pouvoir instrumental » : un pouvoir qui transforme la vie en une matière malléable.

N’y a-t-il pas un fossé entre la surveillance qui s’exerce dans les pays démocratiques et celle qui se pratique en Chine, par exemple avec le système de « crédit social » ?

En Chine, le « pouvoir instrumental » sert les objectifs d’un État autoritaire, ce qui fait basculer l’ensemble du système de ses objectifs commerciaux vers des objectifs sociaux et politiques. Ce n’est pas la voie obligée, mais c’est une possibilité in­scrite dans les méthodes du capitalisme de surveillance. On le voit en Chine, mais on l’a vu aussi avec Cambridge Analytica aux États-Unis.

Mais, fondamentalement, le modèle de la surveillance est-il économique ou politique ?

C’est un modèle de société qui, pour résoudre les problèmes, ne table plus sur la démocratie et l’égalité, mais sur un savoir asymétrique et un pouvoir instrumental capable d’imposer son harmonie à la société. La tendance en Occident est d’utiliser le pouvoir instrumental en vue de servir les objectifs privés du marché plutôt que des objectifs politiques. Mais le capitalisme de surveillance tend à étendre les zones d’expérimentation où il peut modeler les comportements à sa guise. Cela a déjà migré de l’économie à la vie sociale. La question est : jusqu’où le pouvoir instrumental va-t-il s’étendre pour établir son contrôle ?

conferences/cretins/zuboff.txt · Dernière modification : 2024/01/28 23:48 de 127.0.0.1