Accueil Revues Revue Numéro Article

Multitudes

2010/1 (n° 40)


ALERTES EMAIL - REVUE Multitudes

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 88 - 103 Article suivant
1

Plutôt qu’une menace pour les droits individuels au respect de la vie privée et à la protection des données personnelles, l’enregistrement massif et systématique de données, le « data mining » et le profilage sont les instruments d’une transformation des rationalités, stratégies et tactiques de gouvernement.

2

Cette révolution du pouvoir, tranquille et sans douleur apparente, repose sur l’intensification du phénomène contemporain d’enregistrements systématiques et de « digitalisation de la vie même », à laquelle concourent les institutions publiques et privées, mais aussi les individus eux-mêmes qui, spontanément, volontairement ou non, conservent, publient et multiplient leurs traces digitales. La révolution du pouvoir que nous voulons ici évoquer s’appuie sur une série de dispositifs technologiques de détection, de classification et d’évaluation anticipative des comportements humains : une informatique qui prend de plus en plus « d’autonomie », une biométrie qui devient « dynamique » ou encore des environnements et une vidéosurveillance toujours plus « intelligents » [1][1] Pour une part encore au stade de prototypes..

3

De fait, ce nouveau type de pouvoir consacre un régime de visibilité et d’intelligibilité des individus d’une efficacité, d’une finesse et d’une omniprésence jusque-là jamais atteintes, tout en plongeant dans l’ombre, dans l’invisible et dans l’indicible une bonne part de ce qui reste, malgré tout, intraduisible sous forme de données digitales. L’intelligence et l’« efficacité » de ces dispositifs – se présentant à la fois comme des interfaces cognitives et des instruments de gouvernement – consistent dans le fait qu’ils sont capables d’interpréter eux-mêmes les données qu’ils enregistrent en fonction de critères de normalité ou d’anormalité, de désirabilité ou d’indésirabilité, d’intérêt ou d’indifférence. Soit une puissance qui réside dans les algorithmes de corrélations statistiques, mis en œuvre pour un « contrôle » ou plutôt une anticipation d’un genre nouveau.

Incommensurable avec les différents arts de gouverner décrits par Foucault sous les traits du pastorat, de la raison d’État, de la police ou encore du libéralisme, la gouvernementalité algorithmique dont nous voulons ici décrire quelques traits saillants confirme néanmoins, si besoin en était, l’indistinction radicale entre modes de production du savoir et modalités d’exercice du pouvoir, dans la mesure précisément où ce nouveau mode de gouvernement se présente à la fois comme un ensemble d’interfaces cognitives et comme moyen de prédire, de prévenir et d’orienter certains comportements humains.

Anticiper ce que « peuvent » faire les individus

4

C’est d’abord à une difficulté d’ordre épistémologique que la gouvernementalité algorithmique tend à proposer des solutions, à travers des applications impliquant des dispositifs de biométrie dynamique, de vidéosurveillance intelligente, d’environnements intelligents, d’informatique ubiquitaire et fonctionnant de manière autonome. L’une des principales difficultés – et l’un des principaux objectifs – de l’action gouvernementale des bureaucraties tant privées que publiques est bien évidemment la structuration du champ d’action possible des individus, ce qui présuppose une certaine capacité à anticiper, à identifier par avance « ce que peuvent » les corps et les esprits. Comment calculer, faire le compte de ce qui n’est pas actuellement perceptible aux sens ? Comment atteste-t-on du « réel » futur, lorsque ni le témoignage, ni l’aveu, ni aucun discours expert ou d’autorité ne semblent plus suffisamment crédibles pour rendre visible ce qui n’existe encore qu’en germe dans l’actuel ? Comment connaître à l’avance les intentions de consommation ? Comment connaître les intentions criminelles ? Comment « éprouver » l’actuel – par quels tests, quelles expériences – de manière à ce qu’il révèle ses potentialités futures, ses virtualités ? Si la tâche peut apparaître humainement réalisable dans des microcosmes sociaux efficacement régis par un contrôle social de proximité, l’anticipation du « possible » ne semble plus à la portée du calcul humain dès lors que l’activité gouvernementale porte sur des populations (de citoyens, d’étrangers, de consommateurs…) éminemment diversifiées, multiculturelles, mouvantes. L’intensification sans précédent des « flux » de personnes, d’objets et d’information dans un monde dit « global », le souci de remplacer par des dispositifs technologiques moins onéreux le personnel de sécurité déployé depuis le 11 septembre 2001 dans tous les lieux stratégiques, la place centrale occupée par la minimisation des risques et de la contingence dans les registres politiques et commerciaux, et tout simplement les avantages qu’elle représente, tant pour les individus que pour les bureaucraties privées et publiques, en termes de confort, d’efficacité, d’interaction, sont autant de facteurs qui contribuent sans doute à expliquer l’émergence de la gouvernementalité algorithmique.

Afin de cerner la gouvernementalité algorithmique comme « objet », nous décrirons très brièvement les différents moments ou facettes de la production de savoir (à travers la récolte et le traitement des données) et de l’exercice du pouvoir (à travers les pratiques de profilage) qui l’actualisent. La présentation chronologique et la séparation de ces différents aspects – intimement interdépendants dans les faits – sont bien sûr tout à fait artificielles et ne sont produites ici que pour rendre manifeste l’impossibilité de séparer savoir et pouvoir en montrant toutefois que le type de récalcitrance (obstacle ou résistance) qui peut être opposé au gouvernement algorithmique varie en fonction de la facette considérée. La force du gouvernement algorithmique, les raisons pour lesquelles il ne rencontre que peu ou pas d’obstacle et très peu de récalcitrance, tient aux rapports inédits qu’il noue avec la temporalité (s’attachant à gouverner le potentiel, le virtuel plutôt que l’actuel), avec les sujets (auxquels il ne s’adresse que très indirectement, et auxquels il paraît donc inoffensif), et avec le « réel » à partir duquel il gouverne, et dont il semble émaner spontanément.

La collecte massive et systématique de données, ou la « digitalisation de la vie même »

5

Par « digitalisation de la vie même » nous entendons non seulement la banalisation de l’enregistrement de données biométriques, mais encore, et plus largement, l’enregistrement systématique, sous forme de « traces » digitales, des comportements [2][2] Nous entendrons la notion de « comportement » dans... humains individuels ou collectifs, y compris parmi les plus triviaux (ceux qui passent même inaperçus de la part de ceux qui les adoptent, et qui précisément n’« intéressent » personne, n’étant pas en eux-mêmes tenus pour signifiants). Ce phénomène de traduction du monde physique et de ses habitants en données métabolisables par les systèmes informatiques n’est désormais plus limité, ni même freiné de manière essentielle par une inaccessibilité technique ou économique, ni par une récalcitrance significative du public. Le caractère virtuellement infini des capacités de stockage et la diminution corrélative du coût des mémoires digitales facilement interconnectées, la banalisation d’une surveillance démocratique et égalitaire qui ne prétend plus cibler personne a priori, mais s’applique à tout le monde par défaut, ont tôt fait d’éroder les réticences et résistances. Par ailleurs, l’argument suivant lequel « qui n’a rien à cacher n’a rien à craindre de la surveillance », ajouté au confort de l’immédiateté, aux vertus de l’interaction et à la valorisation de l’exposition personnelle l’emporte largement sur les réticences au dévoilement de la vie privée et de l’intimité, d’autant que l’effacement de ses traces digitales demande, de la part de l’individu, une démarche active, leur conservation étant par défaut [3][3] Antoinette Rouvroy, « Réinventer d’art d’oublier et....

Nouveaux savoirs statistiques : le data mining

6

La disponibilité de cette très grande quantité de données brutes, pouvant souvent rester anonymes, annonciatrice d’une « mémoire digitale totale » distribuée dans quantité de banques de données constamment enrichies et actualisées, est une condition préalable au fonctionnement du gouvernement algorithmique dans la mesure où ce n’est qu’à condition de disposer de ces très grandes quantités de données que les opérations de « data mining » sont concevables.

7

Le « data mining » a notamment été défini dans un document émanant du United States General Accounting Office comme l’application de la technologie et des techniques de banques de données (comme l’analyse statistique et la modélisation) dans le but de découvrir les structures cachées et les relations subtiles entre données, et d’en inférer des règles permettant la prédiction de résultats futurs. Les objectifs du data mining vont de l’amélioration des prestations et performances des services à la détection de terroristes potentiels en passant par la détection des fraudes, gaspillages et abus, l’analyse d’informations scientifiques et de recherche, la gestion des ressources humaines, la détection d’activités criminelles ou l’identification de structures de comportements menant à de telles activités. Le même rapport mentionnait qu’une grande partie du data mining réalisé par l’État fédéral américain impliquait l’usage de données à caractère personnel extraites de banques de données constituées par des organisations relevant tant du secteur privé que public [4][4] Report to the Ranking Minority Member, Subcommittee....

8

On a pu observer que la qualité de ces prédictions reposait bien moins sur le caractère sophistiqué de l’algorithme que sur le seul caractère massif des données exploitées : une prédiction est plus fine si elle repose sur une grande quantité de données traitée à partir d’un algorithme simple que le contraire [5][5] Voir notamment Ian Ayres, Super Crunchers: Why Thinking-by-Numbers.... Un tel constat est, bien entendu, absolument relatif, et peu intéressant en tant que tel, si ce n’est qu’il permet de cerner la nature du savoir produit par de telles pratiques : ce savoir purement prédictif s’écarte largement de ce que l’on considère spontanément comme un savoir des causes ou des justifications des comportements.

9

Rompant avec les ambitions modernes de la rationalité déductive reliant les phénomènes observables (c’est-à-dire les phénomènes préalablement sélectionnés comme objets d’observation et d’analyse en fonction de critères d’intérêt explicites ou implicites) à leurs causes, la rationalité statistique suit une logique inductive bien particulière dès lors qu’elle tire sa force du traitement automatisé d’informations dont la seule qualité est l’aspect massif : indifférente aux causes des phénomènes, cette rationalité s’ancre dans l’observation purement statistique de corrélations (indépendantes de toute logique) entre données recueillies d’une manière absolument non sélective dans une variété de contextes hétérogènes les uns aux autres.

Nouveaux pouvoirs statistiques : le profilage

10

Face au foisonnement anarchique et à l’irrégularité des comportements humains, le profilage algorithmique (reposant sur les opérations de récolte de données et d’établissement de corrélations qui le précèdent et que nous venons de décrire) permet d’inférer, avec une certaine marge d’incertitude, de la seule présence de certaines caractéristiques observables chez un individu donné, d’autres caractéristiques individuelles non observables, actuelles ou futures. Le profilage dispense de l’évaluation individualisée des risques, du mérite, des propensions diverses, des besoins de chaque individu et permet d’objectiver et d’optimiser les autorisations d’accès à certains lieux, les mesures de contrôle administratif ou policier, la distribution ou la répartition des opportunités, des ressources et des offres de biens et de services en fonction des prédictions associées non plus à chaque personne individuellement, mais à chaque profil (on parle par exemple à cet égard de profils de consommateurs, de profils de risque… l’administration fiscale dispose d’une série de profils de fraudeurs). Les profils, sans identifier personne, assignent les mêmes « prédictions » comportementales à tous ceux qui se trouvent présenter un certain nombre d’éléments repris dans lesdits profils quelles que soient les spécificités biographiques ou autres qu’ils puissent présenter par ailleurs. L’évaluation du mérite et du besoin, des aptitudes et des faiblesses des individus, voire de leurs intentions, tâche délicate s’il en est et que l’on sait rarement exempte de préjugés, est rendue progressivement redondante par la grâce du profilage qui évite de devoir s’intéresser aux individus en tant qu’individus. Ne fonctionnant plus sur la base de catégories socialement éprouvées, à la différence par exemple du profilage ethnique auquel il est recouru plus ou moins explicitement et plus ou moins systématiquement dans le contexte pénal américain [6][6] Bernard E. Harcourt, Against Prediction: Profiling,..., le profilage algorithmique jouit en outre d’une aura d’impartialité et pourrait – bien paradoxalement – passer pour attester du triomphe de l’analyse rationnelle sur les biais entachant la perception humaine, alors même que, comme nous l’avons vu, c’est bien de l’abandon des ambitions de la rationalité déductive qu’émerge la rationalité algorithmique de ce nouveau type de gouvernement.

11

Rouages interdépendants d’un processus de production de savoir continu, dynamique et récursif, c’est donc comme ressort d’un même métadispositif gouvernemental qu’il faut concevoir la récolte massive de données a priori non finalisée (data warehousing), la production de corrélations statistiques entre ces données, et sur cette base, de certaines structures de comportements ou profils (data mining), et, in fine, l’assignation des individus à ces profils.

Une temporalité actuarielle et préemptive

12

C’est aussi dans la mesure où l’usage de plus en plus systématique du data mining et du profilage répond à un glissement stratégique ou tactique dans la gestion de l’incertitude, que ces nouveaux dispositifs sont symptomatiques d’une nouvelle forme de gouvernementalité. La focalisation sur la prédiction s’accompagne d’un glissement, stratégique ou tactique, qui concerne la cible du gouvernement : le « gouvernement statistique» [7][7] Sur la notion de gouvernement statistique, voir Antoinette... vise non plus à maîtriser l’actuel, à dompter la sauvagerie des faits, mais à structurer le possible, à éradiquer le virtuel, cette dimension de possibilité ou de potentialité d’où provient que l’actuel tremble toujours un peu d’un devenir « autre » qui constitue, justement, sa singularité et sa puissance [8][8] Voir notamment Giorgio Agamben, Potentialities: Collected..., alors même qu’il n’est pas empiriquement connu (et qu’il ne peut, par définition, jamais l’être). Le résultat en est que l’on assiste à l’abandon progressif, par le pouvoir, de l’axe topologique – orienté vers la contrainte des corps et la maîtrise du territoire – au profit de l’axe temporel – la structuration du champ d’action possible des corps, la maîtrise, à un stade préconscient si possible [9][9] Suivant la logique actuarielle même qui compte comme..., de ce que peuvent les corps [10][10] Brian Massumi, « Perception attack. Note sur un temps.... Un glissement stratégique de cible s’opère donc ici de l’axe topologique de l’actualité du corps vers l’axe temporel du possible, du probable, du virtuel.

La gouvernementalité statistique s’intéresse donc à quelque chose de relativement abstrait, et somme toute fantomatique : la prédiction et surtout la préemption des comportements. Elle adhère anticipativement au « réel » qu’elle entrevoit et, dans la mesure où ses dispositifs servent souvent des objectifs de sécurité au sens large, qu’il s’agisse de prévention du terrorisme ou plus globalement de définir des profils à risque (économique, financier,…), on peut dire qu’il s’agit surtout d’adhérer à un réel évité, qui se vérifie dans la seule mesure où il ne se produit pas, fantomatique donc. Comme le dit Frédéric Neyrat, « inversant l’axe du temps, la politique-fiction devient ici véritablement fantasmatique. Mais au prix d’un oubli des conditions de la catastrophe qui a eu lieu (…) La biopolitique des catastrophes s’inscrit dans une temporalité qui a pour fonction de gérer la maintenance du présent par pré-vision du possible, prévenant ainsi la possibilité d’une écopolitique transformatrice » [11][11] Frédéric Neyrat, « Biopolitique des catastrophes »,.... Le corps statistique, corps infra- et supra-individuel serait dès lors porteur d’une « mémoire du futur » [12][12] De la même manière, à travers les métaphores réductionnistes... alors que les raisons d’être des politiques qu’il sert sont précisément d’en éviter l’actualisation.

La « dividualisation » des sujets de la gouvernementalité algorithmique

13

À cet aspect quelque peu spectral du gouvernement statistique correspond un rapport particulier aux sujets, aux individus – un rapport fait d’évitement lui aussi. Les sujets « constitués » par ce type de gouvernement algorithmique ne sont plus nécessairement des sujets moraux : ce type de gouvernementalité s’accommode très bien de l’amoralité des sujets, de leur incohérence. L’unité à laquelle s’adresse le pouvoir n’est plus l’individu unitaire, figure centrale du libéralisme, doué de capacités d’entendement et de volonté, identifié à un territoire corporel – cet individu-là n’intéresse plus (directement) le pouvoir. Pour structurer le champ d’action possible des individus, le pouvoir n’a plus à s’exercer physiquement sur des individus identifiables ou identifiés, ni à assortir ses injonctions de menaces de sanction. Le gouvernement algorithmique gouverne à présent en s’« adressant » uniquement et directement aux multiples facettes hétéroclites, différenciées, contextuelles, éminemment changeantes, qui sont les miroitements partiels – fractions ou instantanés – d’existences individuelles dont il peut à présent ignorer la complexité et la vitalité. Si l’objectif reste bien de produire in fine des comportements réguliers, c’est-à-dire prévisibles, les outils de cette rationalité gouvernementale n’ont plus pour but d’inciter directement des individus unifiés et rationnels à obéir à la loi, mais bien plutôt de les affecter, à un stade préconscient si possible en anticipant ce qu’ils pourraient être ou faire en fonction non pas de leur histoire ni de leur volonté, mais de ces miroitements partiels, éclats dividuels et digitalisés qui sont ce dont s’occupe le gouvernement algorithmique.

14

La mesure de toute chose est « dividuelle » [13][13] Gilles Deleuze, « Post-scriptum sur les sociétés de..., à la fois infra- et supra-personnelle, rhizomatique, constituée d’une multitude de représentations numérisées, potentiellement contradictoires entre elles et en tout cas hétérogènes les unes aux autres. C’est cet « être » numérique constamment décomposé, recomposé, composite, qui intéresse à présent directement le pouvoir : l’instabilité du « dividu », cette unité dépourvue de for intérieur, correspond à l’absence de projet et d’hypothèse du gouvernement.

15

Dans un régime de gouvernementalité statistique, il n’est plus attendu du sujet qu’il soit d’un seul bloc, ni qu’il fasse preuve de l’intériorisation des normes en s’identifiant et en rendant compte de soi auprès d’un pouvoir identifiable ; le « pouvoir » – ou ce qu’il en reste – tolère d’autant mieux les irrégularités, les contradictions, les incohérences des individus, qu’il produit leurs corps statistiques non plus en fonction de la manière dont les individus se perçoivent, s’assujettissent ou se subjectivisent, mais en fonction de ce que ces corps pourraient faire, en fonction des virtualités dont ils sont porteurs. Voilà qui nous éloigne du fonctionnement disciplinaire, puisque, comme le constatait Brian Massumi, « il n’y a tout simplement rien à quoi s’identifier ni à imiter. Les alertes ne présentent aucune forme idéologique ou représentative et, puisqu’elles demeurent vagues quant à la source, à la nature et au lieu de la menace, elles ont très peu de contenu. Ce sont des signaux sans signification. Elles ne présentent distinctement qu’un « contour d’activation » : une variation dans l’intensité du sentir à travers le temps. Elles ne s’adressent pas à la cognition des sujets, mais plutôt à l’irritabilité des corps. Les signaux perceptifs sont utilisés pour activer directement la sensibilité des corps plutôt que pour reproduire une forme ou pour transmettre un contenu défini » [14][14] Brian Massumi, « Peur, dit le spectre », Multitudes,....

Des corps sans événement

16

Le prisme représentationnel institué par l’usage actuariel de la statistique « dividualise » ou disperse les individus à la différence des modes de gouvernement fonctionnant au droit ou à la morale, qui présupposent justement des sujets doués d’entendement et de volonté, des sujets moraux donc. Toujours déjà traduits, réduits, disloqués en réseaux de localisations, éventuellement multiples, dans des tables de variations actuarielles, les individus ne sont plus saisis, dans le gouvernement statistique, par leurs ressorts réflexifs (qui ne disparaissent pas pour autant).

17

Le pouvoir qui s’exerce ainsi ne consiste donc plus à influencer le résultat du rapport réflexif des individus à la norme morale ou à la règle de droit en rendant l’obéissance plus avantageuse que la désobéissance, en modulant la probabilité et/ou la sévérité des sanctions dont la norme est assortie. Non, le gouvernement statistique, ignorant tout des motivations psychologiques des sujets, des mécanismes favorables ou défavorables à l’obéissance, transfigure les sujets moraux en simples coordonnées dans des tables statistiques de calcul actuariel, et gouverne en se passant par exemple des catégories juridiques du dommage, de la faute, du lien causal.

18

Ce glissement gouvernemental n’est pas sans effet sur la manière dont nous nous percevons nous-mêmes, dont nous percevons nos communautés, et sur notre capacité de jugement moral et d’action politique [15][15] Jonathan Simon, « The Ideological Effects of Actuarial.... Les comportements des individus qui peuvent être prédits sur la base massive d’opérations de data mining et de profilage sont le plus souvent dépourvus de toute inscription dans des contextes collectifs, et même intentionnels [16][16] Antoinette Rouvroy, « Governementality in an Age of.... À la différence des méthodes plus anciennes de profilage catégoriel, le profilage plus dynamique et individualisé que permettent les techniques de data mining classent les individus dans une multitude de catégories hétérogènes les unes aux autres, d’une très grande plasticité, constamment évolutives, de telle manière que, ces classifications ne recoupant aucune catégorisation socialement éprouvée (appartenance ethnique, genre, préférences sexuelles, opinions politiques, convictions religieuses…), leur contestation au moyen d’actions collectives devient impensable, quels que soient de fait leurs effets potentiellement discriminatoires. Le caractère inintelligible, étranger à la rationalité déductive, des processus algorithmiques empêche de fait toute contestation à leur endroit.

Le « réel » concerné par ce gouvernement ne semble plus alors composé que de corps statistiques, incommensurables aux corps vivants, socialement et physiquement éprouvés, si l’on entend par « corps vivant » : consistant au-delà de la seule agglomération d’éléments, d’une consistance qui signifie à la fois que ce corps tient ensemble et qu’il est susceptible d’événement. N’est-ce pas précisément cette consistance, en ce qu’elle est ce qui rend susceptible d’événement, qui est exclue du gouvernement algorithmique ?

La force inoffensive de l’objectivité

19

La force de ce gouvernement réside très précisément dans le rapport qu’il noue au réel. C’est parce que, par la grâce des algorithmes de corrélation statistique, le savoir prédictif sur lequel il fonctionne fleurit « dans » un réel digitalisé (une « mémoire digitale totale » qui est aussi de la sorte une « mémoire du futur ») que le gouvernement algorithmique semble particulièrement « objectif », enraciné dans le « réel ». Que ce soit là éventuellement une illusion ne change rien : que le réel soit partiel, que la prédiction soit autoréalisatrice, que l’actuariel ne soit pas le réel, que l’efficacité qui sous-tend l’appel à ces pratiques soit autoréférée, tout cela peut toujours être montré, mais ne changera rien au fait que ce qui apparaît est la possibilité de gouverner les sujets, ou du moins leurs comportements, comme si c’était la réalité même de ces comportements qui en appelait à un tel gouvernement : non plus gouverner le réel, mais gouverner à partir du réel, tel qu’il est vraiment, et donc de manière inoffensive. Ceci signifiant dès lors aussi que l’accord – réel ou supposé – de ce qui est gouverné est acquis.

20

On peut considérer qu’on est de la sorte face à la génération quasi spontanée de « corps statistique » à partir du « réel brut » – nonobstant l’intermédiation technologique nécessaire au calcul et aux opérations algorithmiques qui en constituent le « métabolisme ». Le gouvernement qui met en place une telle génération cache ainsi sa puissance normative sous l’apparente neutralité de l’immanence et de l’« adéquation » au réel. C’est à ce titre qu’il s’agit d’une application de la statistique, qui s’est certes émancipée de la tutelle de l’État, mais qui permet d’autant mieux d’en rencontrer les objectifs, à savoir : croiser un enjeu purement descriptif, appuyé par une pratique prétendument neutre de récolte de données, et un enjeu normatif.

21

Cette possibilité d’entrecroiser le descriptif et le normatif repose essentiellement sur le fait que la capacité réflexive de ce qui est décrit et gouverné est toujours elle-même littéralement « prise en compte », puisque c’est à partir d’un réel que les sujets composent eux-mêmes par leurs différents comportements qu’ils sont gouvernés : c’est parce que l’action normative produite par une connaissance « objective » du détail des comportements des sujets ne repose que – ou plutôt pourrait toujours ne reposer que – sur la capacité réflexive de ceux-ci (sur leur auto-contrôle, fût-il redistribué de manière dividuelle, leur sens commun, leur souci rationnel de leur confort ou de leur sécurité…) que la statistique ne relève pas d’une forme de gouvernement tyrannique [17][17] Dans Thomas Berns, Gouverner sans gouverner. Une archéologie.... C’est ainsi que la dénonciation d’un tel gouvernement comme agi de l’extérieur est vaine non seulement au sens d’inefficace, mais aussi d’infondée.

Gouverner par les traces

22

La puissance d’un tel gouvernement réside donc dans son caractère essentiellement « inoffensif » : c’est aussi à ce titre qu’on doit comprendre que ses sujets sont gouvernés par les traces qu’ils laissent. Nulle naïveté ou paresse des sujets dans cette nouvelle forme de servitude volontaire. Nulle ruse supplémentaire du gouvernement, non plus. La question n’est ni que le sujet laisserait plus de traces qu’avant, ni que le « pouvoir » disposerait de nouveaux outils pour analyser des traces tellement infimes qu’on n’y prendrait pas garde. La question est bien plutôt que de nouveaux sujets sont produits, ces fragments infra-individuels qui agissent à un niveau collectif, lequel consiste dans les corrélations d’un ensemble de traces.

23

Comme on l’a vu, ce ne sont pas les sujets, les individus, qui se trouvent objectivés par les dispositifs d’observation et de prédiction, mais seulement – et c’est en cela que le gouvernement statistique est inoffensif – leurs miroitements distincts et fragmentés, digitalisés, infiniment corrélables et donc « pertinents » à un niveau collectif. Comme cibles et supports du pouvoir, ou plutôt du gouvernement, ils ne sont jamais saisis que partiellement, à travers la multitude changeante des profils auxquels ils correspondent simultanément ou alternativement, et non plus en tant qu’individus unifiés, dotés d’une continuité et d’une cohérence internes, d’un for intérieur, d’une biographie propre. Ainsi fragmentés, « dividuels », les sujets deviennent eux-mêmes la source ultime, agissante, performante, de la construction du savoir qui porte sur eux, et des normes qui les régissent.

24

C’est à ce titre que l’adhérence du gouvernement statistique à ses multiples objets hétérogènes qui composent le réel, et donc au réel lui-même, peut être totale : les sujets, « dividualisés », se prêtent entièrement à leur propre gouvernement statistique, par les traces qu’ils laissent, par la répétition et/ou le fléchissement de ces traces, sans qu’aucune instance extérieure de surveillance active, aucune règle, aucune médiation – sinon une intermédiation purement technologique – ne soient désormais plus nécessaires. C’est à ce titre aussi qu’on peut considérer que ce gouvernement statistique maintient et continue de supposer la réflexivité de ce qui est gouverné, alors même que cette réflexivité parvient à se passer d’une véritable intentionnalité qui réclamerait un questionnement sur les fins.

Produire les corps statistiques qui rendent dociles aux normes

25

Dans le modèle de la société disciplinaire, le pouvoir s’actualisait par la production de corps identifiés, stables, fixes, assujettis par la norme, rendus dociles à la faveur de leur assignation et de leur attachement direct et passionné aux institutions spécifiques dans lesquelles ils sont organisés, contrôlés en fonction des tâches spécifiques qu’ils ont à y accomplir. Le gouvernement algorithmique quand à lui se désintéresse tant des « unités » constituées par les corps individuels que des « masses » constituées par les populations, pour privilégier quelque chose de beaucoup plus abstrait, de beaucoup plus fantomatique : la prédiction et surtout la préemption des comportements, par l’application d’algorithmes de profilage à des quantités massives de données, et par la structuration (physique, architecturale, informationnelle) du champ d’action possible des individus. C’est à ce titre que l’on assiste, comme dit plus haut, à l’abandon progressif de l’idée d’une maîtrise « topologique » des corps par le pouvoir au profit d’une structuration du champ d’action possible des corps, de la maîtrise de ce que peuvent les corps[18][18] Brian Massumi, « Perception attack. Note sur un temps....

26

La gouvernementalité algorithmique opère et procède alors d’une véritable inversion par rapport à toutes les conceptions qu’on a pu développer précédemment de la relation du corps à la norme, y compris les conceptions développées suivant la perspective foucaldienne de la discipline, à savoir : penser la production de corps dociles.

27

Le gouvernement algorithmique ne fonctionnerait plus tant à la domestication, à la disciplinarisation des corps, à leur assujettissement à la norme et à la subjectivation par la norme, qu’à la domestication de la norme par le corps (statistique) et donc à même les corps, à la faveur d’une confiscation ou d’une absorption par la technologie du processus d’élaboration des normes.

28

Dans le cas de cette nouvelle normativité, les performances, régulières ou irrégulières par rapport à la norme statistique, influent directement sur la norme statistique elle-même, suivant un processus quasi physique, pourrait-on dire. En effet, elles sont toutes enregistrées, et ces enregistrements sont tous également susceptibles d’enrichir le corps statistique. Au lieu d’induire une docilité des corps physiques, la normativité statistique ou algorithmique est elle-même disciplinée, façonnée (attuned) par le réel, par les pratiques positives, par les événements du réel. Sous cette modalité de gouvernement, la norme est immanente au corps statistique, un corps infiniment multiple de chiffres dont le métabolisme algorithmique produit et affine en permanence des corrélations à partir des bases de données en perpétuelle expansion.

29

En insistant sur cette adhérence de la norme au réel et en notant que cela témoigne d’une inversion du rapport de la norme aux corps – la première étant désormais domestiquée par les seconds –, nous voulons avant tout pointer un danger absolument général, de nature paradoxale, propre certes à toute forme de gouvernement statistique, mais rendu d’autant plus vif par sa forme algorithmique contemporaine : le danger d’une forme de gouvernement qui parviendrait à se penser et à se légitimer par son inoffensivité, sa bénignité ; une forme de gouvernement qui serait d’autant plus prégnante qu’elle apparaîtrait inoffensive, et qui apparaîtrait comme d’autant plus inoffensive qu’elle ne porterait directement que sur la norme elle-même et non plus sur les individus. Car le caractère préemptif de l’action de ce gouvernement, visant à empêcher l’actualisation de certaines virtualités, produit bien entendu des effets réels de pouvoir, avant tout et déjà par la réduction du spontané et l’éradication de l’intempestif [19][19] Antoinette Rouvroy, « Governmentality in an Age of.... C’est ce qui nous invite à faire retour vers la norme juridique, mais dans la seule mesure où celle-ci aurait trouvé dans ces nouvelles normes rivales qui nous occupent l’occasion d’une refondation.

Normativité algorithmique contre normativité juridique

30

Il y a dans tout cela quelque chose qui dérange, et que les juristes pensent peut-être un peu trop rapidement pouvoir qualifier en termes d’intrusion dans la vie privée ou de violation des règles de protection des données à caractère personnel, quitte éventuellement à suggérer des modifications du régime juridique pertinent [20][20] Voir notamment Serge Gutwirth, Yves Poullet, Paul De Hert,.... Pourtant, ces régimes juridiques sont, en l’état, inaptes à fournir aux individus les conditions de réalisation de contre-conduites ou de résistance, prisonniers qu’ils sont d’une sorte d’individualisme méthodologique aveugle aux effets que nous venons de mentionner de la digitalisation de la vie même.

31

Attachés à la figure de l’individu, du sujet de droit, ces régimes juridiques ignorent le fait que le type de gouvernementalité statistique ou algorithmique qu’elle rend possible n’a plus pour cible privilégiée l’actualité de l’individu identifié, sujet de droit, sujet de données, juridiquement protégé dans son autonomie, sa clôture, son intimité, mais une virtualité, un ensemble multiple de « devenirs-autres », atteints par ce biais « dividuel » pointé par Deleuze dès 1990 [21][21] Gilles Deleuze, « Post-scriptum sur les sociétés de.... Face, par exemple, aux dispositifs de biométrie prédictive dont le but n’est plus seulement ou plus du tout l’identification ni l’authentification, mais bien plutôt la prédiction des comportements et intentions à des fins de prévention et de préemption, on perçoit bien que les revendications faisant de la proclamation et de la mise en œuvre d’un « droit à l’anonymat » manquent partiellement leur cible.

32

Par ailleurs, l’abondance des études, rapports et publications dédiés à la problématique attestent des difficultés d’application, de l’insuffisance, voire de l’inadéquation, des régimes juridiques de protection de la vie privée [22][22] Le droit à la protection de la vie privée, du secret... et de protection des données à caractère personnel [23][23] Le droit à la protection des données à caractère personnel... face à la gouvernementalité découlant du recueil massif et continu de données personnelles et contextuelles en tous genres, de leur traitement à des fins générales de profilage notamment, de leur conservation par défaut sans que soit énoncée a priori de finalité spécifique. Il est d’ailleurs loin d’être établi que, techniquement, toutes ces données soient assimilables à des données à caractère personnel (c’est-à-dire relatives à des individus identifiés ou identifiables) au sens du régime juridique de protection [24][24] À côté de cet aspect technique, on doit noter que cette..., alors même que l’impact de ces traitements sur les personnes peut être au moins aussi significatif et potentiellement défavorable que le traitement de données à caractère personnel au sens traditionnel du terme [25][25] Pour une évaluation de la pertinence et de l’applicabilité....

On se trouve donc face au paradoxe suivant : quand bien même le caractère objectivement personnel des données en jeu est difficilement attestable, leur inscription dans le cadre général d’une gouvernementalité statistique – qui ne se définit pourtant pas par le traitement qu’il entend leur réserver et ne se soucie pas des personnes, mais seulement des fragments « dividuels » de celles-ci au point que leur accord pourrait toujours être supposé –, induit la possibilité d’une action sur les environnements qui les dépasse nettement. Un élément extrêmement concret témoigne de ce paradoxe : les données dont l’anonymat est effectivement garanti permettent néanmoins l’identification des sujets qu’elles concernent par leur simple mise en corrélation. Pourtant, la gouvernementalité qu’elles servent ne réclame en fait même plus cette identification dans la mesure où la seule personnalisation des environnements – physiques et informationnels – est suffisante, et permet effectivement de structurer le champ d’action, et de pensée, possible.

Trois « métadroits »…

33

Bien au-delà du seul droit au respect de la vie privée et à la protection des données à caractère personnel brandis habituellement dans ce cadre, trois « métadroits » nous semblent permettre de maintenir une perspective juridiquement cohérente et adéquate aux sujets du gouvernement algorithmique d’une part, et constitutive de la possibilité de modes d’existence minoritaires ou expérimentaux, d’autre part. Ces trois « métadroits » renvoient aux capacités subjectives d’oubli, d’indiscipline, de réflexivité et de témoignage que le droit, implicitement, suppose, rencontre, appelle, et qui sont, tout aussi bien, menacées par cela même qui fait l’objectivité et l’efficacité de la gouvernementalité algorithmique.

Que ces « métadroits » n’aient jamais été consacrés ni exprimés par aucun texte résulte en partie de leur nature juridiquement paradoxale : sources et instruments de possibles récalcitrances individuelles à la loi qui, toujours, les présuppose, ces trois « métadroits » bornent la puissance du droit qu’ils contribuent, de ce fait, à légitimer. Le respect du contrat et du serment par des êtres capables d’oubli, le respect de l’interdit légal par des individus doués d’entendement et de volonté physiquement capables d’enfreindre la loi, le débat judiciaire par lequel les parties contestent la qualification juridique de leurs actes,… tout cela atteste à la fois du pouvoir du droit et de sa différence d’avec les systèmes de domination, lesquels ne laissent rien subsister des capacités de récalcitrance.

Le premier « métadroit » : droit à l’oubli

34

Dans la mesure où il institue le corps statistique au départ de l’enregistrement, par défaut, de tous les événements, de tous les comportements, signifiants ou non pour ceux dont ils émanent, le gouvernement algorithmique constitue une sorte de « mémoire digitale totale » aux capacités de stockage virtuellement infinies, de nature à porter atteinte à la capacité d’oubli. Un droit à l’oubli se trouvait de fait garanti par l’obscurité pratique dans laquelle tombaient la plupart des faits et gestes posés, des phrases prononcées, une fois passé le temps nécessaire à l’oubli humain. La très grande facilité de récupération et de recoupement des données enregistrées dans différents contextes, à différentes périodes, pour la construction et l’actualisation de profils d’utilisateurs, de consommateurs, de délinquants potentiels, de fraudeurs… peut affecter aux individus les traces de leurs comportements passés au titre d’un destin identitaire, au risque de les empêcher d’innover dans leurs usages des services et des technologies, de modifier leurs comportements de consommateurs, de repartir à zéro dans leurs rapports à la société, à ses lois, à ses opportunités… [26][26] Antoinette Rouvroy, « Réinventer l’art d’oublier et...

Le second « métadroit » : droit à la désobéissance

35

La possibilité de désobéissance est, elle aussi, affectée par le caractère toujours plus préventif et préemptif du pouvoir, visant non plus à interdire ni sanctionner certains actes illégaux ou dangereux, mais à les rendre physiquement impossibles. Alors que cette impossibilité de désobéissance offre à la loi une effectivité inédite, la possibilité de désobéir apparaît comme constitutive de la résistance, comme garantissant des marges d’expérimentation normative, et comme permettant par exemple la mise en débat des règles de droit positif devant les cours et tribunaux, évitant ainsi la rigidification – par dépolitisation – des normes. Les gains d’« efficacité » offerts par le gouvernement préemptif ont un coût. S’ils dispensent, ne fût-ce que partiellement, de l’instance juridictionnelle – puisque les dispositifs préventifs et préemptifs évitent a priori que soient commis des actes illégaux, dangereux, imprudents ou jugés indésirables – et si donc le juge n’est plus guère appelé à décider de l’imputabilité, de la responsabilité et de la sanction, cette évacuation du juge déséquilibre l’architecture démocratique qui repose précisément sur la division du pouvoir, et sur une relation récursive entre les institutions législative et judiciaire (le juge, constatant l’injustice d’une loi, rend publique cette injustice, ce qui peut obliger le législateur à en changer).

Le troisième « métadroit » : droit de (se) rendre compte

36

La possibilité de se rendre compte et de rendre compte [27][27] Voir à ce sujet Judith Butler, Giving an Account of... de ce qui nous fait agir, par le langage notamment, et y compris en justice, semble également compromise. Puisque le savoir sur lequel fonctionne la gouvernementalité algorithmique émane spontanément d’une sorte de mémoire digitale totale, que le sens n’est plus construit, mais donné, immanent au « réel » et découvert dans les relations subtiles entre données, il n’est plus nécessaire de rien expliquer ni de rien interpréter. La connaissance purement prédictive n’équivaut en rien à ce que l’on considère spontanément comme un savoir des causes ou des justifications des comportements. Ceci signifie aussi que le gouvernement statistique du réel ne permet pas aux gouvernés de « rendre compte », par le langage, la plaidoirie, de leurs actions, attitudes, choix, etc. À l’évacuation du juge correspond l’évacuation d’une possibilité, pour le justiciable, de faire valoir son désaccord fondamental avec une norme qu’il estime injuste, ou les raisons personnelles et contextuelles qui justifient ou excusent son infraction ou doivent lui valoir la reconnaissance de circonstances atténuantes.

37

Les impossibilités de la désobéissance et de l’oubli, de même que l’érosion des possibilités de (se) rendre compte de ce qui nous fait agir bornent de manière extérieure le processus normatif que nous décrivons ici, au même titre que la loi trouvait dans les réalités de la désobéissance et de l’oubli (ou même de la prescription) ses limites, son amont et son aval.

38

Ménager aux individus la possibilité d’exercer ces trois « métadroits » ou aptitudes – droit à l’oubli, droit à la désobéissance, droit de (se) rendre compte – revient à organiser la possibilité, pour les sujets, de créer un « dehors », un espace non identique au « réel » statistiquement enregistré, d’où éprouver [28][28] L’épreuve est liée à l’expérience de l’extériorité,... et interrompre l’autoréférentialité de ce « réel ». Les possibilités d’oublier et de se faire oublier, de désobéir, de (se) rendre compte des raisons de nos actions (ces raisons fussent-elles authentiques ou non), nous apparaissent aujourd’hui essentielles à la possibilité même du droit, de cette cohérence qui fait la puissance de la normativité juridique, mais réinscrites dans le cadre du gouvernement algorithmique et des nouvelles normativités qu’il ouvre.

39

Au-delà donc d’une application formaliste du droit positif, il conviendrait sans doute d’en faire l’instrument de protection de ces trois « métadroits ». Il s’agirait, en d’autres termes, de raviver, sous les formes fossilisées des droits subjectifs, le feu de leur signification structurelle comme instruments de protection de la vitalité sociale et politique.

Pour une critique généalogique de la gouvernementalité algorithmique

40

Dans tout cela, l’infrastructure « matérielle » n’est pas indifférente. Les dispositifs technologiques développés et déployés notamment dans le cadre des programmes-cadres de recherche et développement de la Commission européenne, en ce qu’ils traduisent le monde physique et ses habitants sous forme de « flux d’information, de boucles d’informations projectives et prospectives évoluant parfois heure par heure » [29][29] Frédéric Neyrat, « Biopolitique des catastrophes »,..., se présentent à la fois comme des interfaces cognitives et comme des instruments de gouvernement. Ce faisant, ces dispositifs font échapper le « savoir - pouvoir » qu’ils produisent à la fois aux tests de la validité scientifique et aux épreuves de la légitimité démocratique. Les caractères d’immanence, d’ubiquité, de multimodalité, d’interopérabilité, d’évolutivité en temps réel, qui font à la fois la fluidité et l’élégance de ces dispositifs, en consacrent aussi l’insaisissabilité – l’immunité en quelque sorte.

41

Dans la mesure où ce « savoir-pouvoir » revêt, dans le cadre de la gouvernementalité algorithmique, toutes les apparences de spontanéité et d’inoffensivité, il devient absolument crucial d’interroger non plus seulement le savoir statistique ou algorithmique, difficile à éprouver, mais les modes de production de ce savoir. C’est au stade de l’élaboration des directives et projets de recherche et développement que doit intervenir l’exercice essentiel de la problématisation politique. Les consortiums de recherche financés en tout ou en partie par l’Union européenne pour développer et déployer l’innovation technologique dans le domaine de l’observation des personnes (pour des finalités aussi diverses que la sécurité, le marketing, l’assistance aux personnes, le divertissement…) ont ainsi à leur tête des industriels qui se trouvent concrètement en position privilégiée pour (se) ménager des espaces règlementaires favorables à un certain nombre de technologies et de dispositifs qui, comme on l’a vu, gouvernent les comportements.

42

Consciente de l’impact sociétal des innovations concernées, la Commission européenne tend à favoriser aujourd’hui les consortiums de recherche appliquée associant des équipes de sciences humaines aux concepteurs technologiques et aux industriels. Reste à voir si la critique qui pourra ainsi s’exprimer de l’intérieur et dès le stade du design technologique portera aussi sur les logiques, stratégies et tactiques de gouvernement consciemment ou inconsciemment véhiculées et mises en œuvre par ces dispositifs.

43

Tout ceci invite à revigorer « le vif » de ce qui a fait la posture foucaldienne : une approche généalogique articulant les modes de production du savoir aux modes d’exercice du pouvoir. Face à l’insaisissabilité des manifestations du pouvoir dans la gouvernementalité statistique, dont l’emprise sur le réel se fait à travers des éléments infra- et supra-individuels, sur le mode différé et contre-factuel, qui affecte les sujets plutôt qu’il ne les influence, on ne saurait se dispenser de questionner la généalogie des dispositifs technologiques.

Notes

[1]

Pour une part encore au stade de prototypes.

[2]

Nous entendrons la notion de « comportement » dans son sens le plus large, incluant les attitudes, choix, préférences exprimées, trajectoires, activités et interactions humaines.

[3]

Antoinette Rouvroy, « Réinventer d’art d’oublier et de se faire oublier dans la société de l’information », in S. Laourt (éd.), La sécurité de l’individu numérisé, L’Harmattan, 2008, p. 249-278.

[4]

Report to the Ranking Minority Member, Subcommittee on Financial Management, the Budget, and International Security, Committee on Governmental Affairs, U.S. Senate, Data Mining. Federal Efforts to Cover a Wide Range of Uses, May 2004, http://www.gao.gov/new.items/d04548.pdf.

[5]

Voir notamment Ian Ayres, Super Crunchers: Why Thinking-by-Numbers is the New Way to be Smart (using data to make better predictions), Bantam, 2007.

[6]

Bernard E. Harcourt, Against Prediction: Profiling, Policing, and Punishing in the Actuarial Age, University of Chicago Press, 2007 ; Bernard E. Harcourt, « Critique du champ pénal à l’âge actuariel », Parisian Notebooks, The University of Chicago Center in Paris, 2007, n° 3.

[7]

Sur la notion de gouvernement statistique, voir Antoinette Rouvroy et Thomas Berns, « Détecter et prévenir : de la digitalisation des corps et de la docilité des normes. », Lebeer Guy et Moriau Jacques (éds.), (Se) gouverner. Entre souci de soi et action publique, P.I.E. Peter Lang, 2009 (à paraître).

[8]

Voir notamment Giorgio Agamben, Potentialities: Collected Essays in Philosophy, Stanford, Stanford University Press 1999.

[9]

Suivant la logique actuarielle même qui compte comme « conditions préexistantes » et met à charge des souscripteurs plutôt que de l’assureur les dommages causés par des circonstances connues du souscripteur au moment de la signature du contrat.

[10]

Brian Massumi, « Perception attack. Note sur un temps de guerre », Multitudes, 2008/4, n° 34, p. 74-83.

[11]

Frédéric Neyrat, « Biopolitique des catastrophes », Multitudes, n° 24 [online], printemps 2006.

[12]

De la même manière, à travers les métaphores réductionnistes et essentialistes ayant accompagné la « nouvelle » génétique humaine, le génome apparaît comme recelant la « mémoire du futur », une mémoire d’autant plus fiable qu’elle n’est pas immédiatement accessible aux sens ordinaires (les vérités cachées apparaissent toujours plus crédibles, plus fiables que ce qui est disponible à la perception humaine sensible, inévitablement biaisée). Justifiant le déploiement d’une « médecine prédictive », ainsi que la responsabilisation des « patients par anticipation », invités à adapter leur mode de vie, leurs choix reproductifs et familiaux aux « risques spécifiques » auxquels les exposent certaines particularités de leur génome, la « généticisation » privilégie la valeur prédictive de l’information génétique au détriment des informations relatives aux disparités socio-économiques et environnementales « actuelles » qui peuvent pourtant contribuer à expliquer les différences inter-individuelles en termes de risques pour la santé. Voir Antoinette Rouvroy, Human Genes and Neoliberal Governance. A Foucauldian Critique., Routledge-Cavendish, 2008.

[13]

Gilles Deleuze, « Post-scriptum sur les sociétés de contrôle » in Pourparlers, Éditions de Minuit, 1990, p. 244, parle notamment de « la nouvelle médecine « sans médecin ni malade » qui dégage des malades potentiels et des sujets à risque, qui ne témoigne nullement d’un progrès vers l’individuation comme on le dit, mais substitue au corps individuel ou numérique le chiffre d’une matière « dividuelle » à contrôler. »

[14]

Brian Massumi, « Peur, dit le spectre », Multitudes, 2005/4, n° 23, p. 135-152.

[15]

Jonathan Simon, « The Ideological Effects of Actuarial Practices », Law and Society Review, 1988, vol. 22, n° 4, p. 772.

[16]

Antoinette Rouvroy, « Governementality in an Age of Autonomic Computing: Technology, Virtuality and Utopia » in Mireille Hildebrandt, Antoinette Rouvroy (eds.), Autonomic Computing and the Transformations of Human Agency. Philosophers of Law meet Philosophers of Technology, (à paraître). Disponible en ligne : http://works.bepress.com/antoinette_rouvroy/26

[17]

Dans Thomas Berns, Gouverner sans gouverner. Une archéologie politique de la statistique, PUF, 2009, il est montré combien ce fut là l’objet d’un débat explicite, à la fin du XVIe siècle, lorsque les premiers projets de recensement de personnes et des richesses furent projetés.

[18]

Brian Massumi, « Perception attack. Note sur un temps de guerre », Multitudes, 2008/4, n° 34, p. 74-83.

[19]

Antoinette Rouvroy, « Governmentality in an Age of Autonomic Computing. Technology, Virtuality and Utopia.», Op. cit.

[20]

Voir notamment Serge Gutwirth, Yves Poullet, Paul De Hert, Cécile de Terwangne and Sjaak Nouwt, (éds.), Reinventing Data Protection?, Springer, 2009.

[21]

Gilles Deleuze, « Post-scriptum sur les sociétés de contrôle » in Pourparlers, Éditions de Minuit, 1990, p. 244.

[22]

Le droit à la protection de la vie privée, du secret des lettres et de la correspondance, et du domicile est notamment énoncé à l’article 8 de la Convention européenne des droits de l’Homme. Le second paragraphe du même article énonce les conditions de légitimité des ingérences de l’État – ou de tiers, par l’effet horizontal de la Convention – dans la vie privée des individus. Il faut que ces ingérences soient nécessaires, dans une société démocratique, à la protection d’intérêts légitimes prépondérants, qu’elles soient strictement proportionnées à la poursuite de ces intérêts prépondérants.

[23]

Le droit à la protection des données à caractère personnel – qui n’épuise pas le régime de protection de la vie privée – a été récemment institué au rang de droit fondamental par l’Article 8 de la Charte des Droits Fondamentaux de l’Union Européenne. Ses principaux instruments de protection sont la Convention n° 108 du Conseil de l’Europe sur la protection des personnes physiques à l’égard du traitement automatisé de données à caractère personnel et la Directive européenne 95/46 sur la protection des données à caractère personnel, à laquelle les législations nationales des États membres se conforment.

[24]

À côté de cet aspect technique, on doit noter que cette catégorie des données personnelles, comme celle de la vie privée, et plus que tout autre régime de protection, ne se réduit pas à sa seule définition objective et trouve son sens, en amont, de manière politique et dialectique, dans son rapport à des actes de pouvoir. Or c’est une nouvelle fois sur ce seul terrain objectif que se meut le gouvernement algorithmique, en évacuant, comme on l’a vu, toute perception des problèmes posés à partir d’un point de vue finaliste et en dépolitisant de la sorte les enjeux.

[25]

Pour une évaluation de la pertinence et de l’applicabilité du régime européen de protection des données à caractère personnel aux traitements de données impliqués dans les dispositifs d’intelligence ambiante, voir Antoinette Rouvroy, « Privacy, Data Protection, and the Unprecedented Challenges Raised by Ambient Intelligence », Studies in Ethics, Law and Technology, Berkeley Electronic Press, Vol 2, Issue 1, Article 3, 2008, p. 1-54.

[26]

Antoinette Rouvroy, « Réinventer l’art d’oublier et de se faire oublier dans la société de l’information », Version augmentée du texte paru dans l’ouvrage collectif édité par Stéphanie Lacour, La sécurité de l’individu numérisé – Réflexions prospectives et internationales, L’Harmattan, 2008.

[27]

Voir à ce sujet Judith Butler, Giving an Account of Oneself, Fordham University Press, 2005.

[28]

L’épreuve est liée à l’expérience de l’extériorité, faite par la convocation de témoins, preuves, répétitions… Voir Avita Ronell, Test Drive. La passion de l’épreuve. Traduit de l’anglais par Christophe Jaquet, Stock, 2009.

[29]

Frédéric Neyrat, « Biopolitique des catastrophes », Multitudes, n° 24 [online], printemps 2006.

Résumé

Français

Dans ce texte, Antoinette Rouvroy et Thomas Berns décrivent le métabolisme normatif qui s’impose dans les pratiques statistiques contemporaines, de la digitalisation de la vie au profilage. Comment cela produit un nouveau type de norme ? Comment cela gouverne ? Quel type de sujet cela gouverne et cela produit ? Quel rapport les normes entretiennent-elles aux comportements ? Quel usage du droit envisager face à ces normativités rivales ?

English

The New Statistical PowerThrough what forms of normative metabolism does the collection of statistical data shape our policies and everyday lives? Which type of subjects does it produce? How does it govern us? How can one use the resources of the law in relation to these creeping forms of normativity? These are some of the questions raised by this article.

Plan de l'article

  1. Anticiper ce que « peuvent » faire les individus
  2. La collecte massive et systématique de données, ou la « digitalisation de la vie même »
  3. Nouveaux savoirs statistiques : le data mining
  4. Nouveaux pouvoirs statistiques : le profilage
  5. Une temporalité actuarielle et préemptive
  6. La « dividualisation » des sujets de la gouvernementalité algorithmique
  7. Des corps sans événement
  8. La force inoffensive de l’objectivité
  9. Gouverner par les traces
  10. Produire les corps statistiques qui rendent dociles aux normes
  11. Normativité algorithmique contre normativité juridique
  12. Trois « métadroits »…
  13. Le premier « métadroit » : droit à l’oubli
  14. Le second « métadroit » : droit à la désobéissance
  15. Le troisième « métadroit » : droit de (se) rendre compte
  16. Pour une critique généalogique de la gouvernementalité algorithmique

Article précédent Pages 88 - 103 Article suivant
© 2010-2017 Cairn.info