CAIRN.INFO : Matières à réflexion

1Reconnaître des personnes, des objets ou des formes dans des images, classer les pages du web avec un moteur de recherche en fonction des recherches passées de l’utilisateur, recommander un bien culturel, un trajet ou un amant, trier les spams, personnaliser une publicité, etc. Les calculs des services numériques empruntent de plus en plus une forme prédictive s’appuyant sur des méthodes d’apprentissage statistique (machine learning). Mais au-delà les mondes numériques stricto sensu, la prédiction calculée devient aussi, dans la police, l’assurance, la gestion des entreprises, la surveillance, la justice, l’attribution de crédits et certaines politiques publiques, une technologie de plus en plus fréquemment mobilisée pour promettre la modernisation des services tout en installant un nouveau régime d’anticipation des événements. Technique de calcul profitant du développement des données massives, la prédiction constitue aussi un principe d’intervention inédit dans et sur la société. Sur la base de régularités observées, ces dispositifs calculatoires rationalisent le futur en le rendant disponible à des formes d’action préventives (Rouvroy et Stiegler, 2015). Ils installent l’estimation probable au cœur de toutes projections temporelles et contribuent ainsi à la « dé-futurisation » du possible (Esposito, 2011). Même si la réalité effective de leurs utilisations est parfois très éloignée de beaucoup de discours qui spéculent déjà sur leurs conséquences, un régime original de compréhension de nos sociétés, comparable à la parole divinatoire (Lazaro, 2018), se dessine dans les laboratoires de recherche et dans les premiers déploiements de ces techniques.

2Dans ce dossier de Réseaux, nous avons choisi de désigner ces techniques et le régime d’anticipation qu’elle figure sous le nom de « machine prédictive ». Son objectif est de porter à la discussion scientifique des travaux relatifs à la place croissante prise par les décisions algorithmiques engageant des prédictions. Les articles qui le composent cherchent à prendre au sérieux l’hypothèse selon laquelle une nouvelle forme de quantification pénètre progressivement de nombreux secteurs d’activité. L’intention qui a présidé à la conception de ce dossier est qu’avant d’engager l’analyse sur les effets de la prédiction sur les mondes sociaux dans lesquels elle s’installe, il est d’abord essentiel d’enquêter dans l’univers scientifique qui a donné le jour à cette nouvelle promesse. Aussi une partie importante des articles rassemblés dans ce dossier portent-ils sur l’histoire scientifique des machines prédictives, les controverses qui les ont fait naître et sur le travail de ceux qui conçoivent et implémentent ces outils. Le calcul prédictif n’a rien de nouveau, mais les formes qu’il prend aujourd’hui lui confèrent un caractère inédit. L’accès à des volumes de données considérables et les nouvelles possibilités offertes par les capacités de calcul des processeurs graphiques (GPU) rendent désormais possible la mise en œuvre de méthodes d’apprentissage artificiel (machine learning) qui rencontraient précédemment de fortes limitations. Ces méthodes permettent d’apprendre « automatiquement » des structures caractéristiques dans des bases de données massives afin d’en extraire des classifications (par la reconnaissance de patterns, la détection de clusters ou l’induction de modèle). Parmi les différentes familles de méthodes d’apprentissage (Domingos, 2015), l’une d’elles, l’apprentissage profond (deep learning) connaît aujourd’hui un succès considérable. Alors qu’elle a longtemps été considérée comme une impasse scientifique, la technique des « réseaux de neurones » est parvenue à lever des verrous technologiques jusqu’alors bloqués et constitue aujourd’hui un foyer d’attraction considérable dans les débats sur l’innovation numérique. NIPS (Neural Information Processing Systems), la conférence scientifique qui est au cœur de cette renaissance, a vu son public multiplié par quatre en deux ans. Les grandes compagnies du web débauchent dans les laboratoires de recherche les rares chercheurs du domaine. Les pionniers, comme Geoff Hinton, Yann LeCun, Andrew Ng ou Yoshua Bengio, sont devenus de véritables célébrités académiques. La presse spécialisée ne cesse de vanter les prouesses réalisées par la mise en œuvre des méthodes d’apprentissage profond. La traduction automatique, par exemple, dont l’augmentation des performances était bloquée à un taux de 0,4 % par an, a brusquement vu celui-ci être porté à 7 % lorsque Google a implémenté des techniques de deep learning dans son système (Lewis-Kraus, 2016). Même si elles ne concernent que des tâches somme toute assez restreintes et spécialisées, les succès rencontrés par ces techniques sont au cœur d’une vaste entreprise de redéploiement des formes de calculabilité dans nos sociétés.

3Les techniques étudiées dans les articles de ce numéro sont aujourd’hui identifiées sous le nom d’« Intelligence artificielle ». Ce vocable dont l’histoire est ancienne et chaotique a fait un surprenant retour en 2015 pour inscrire des avancées techniques importantes dans une promesse de grande envergure. Depuis bientôt soixante-dix ans, par vagues faisant se succéder espoirs et déceptions, le terme d’Intelligence artificielle suscite de toute part des réflexions de nature ontologique sur les fondements de l’intelligence et de la machine. Il a ceci de particulier que, chaque fois qu’il s’invite dans le débat public, ce qu’avant la période actuelle il a déjà fait au début des années 1960 et au milieu des années 1980, il mobilise sans retenue les vertiges de la science-fiction, le déterminisme technologique des innovateurs, les prophéties de rupture des prospectivistes et les alarmes effrayées des éthiciens. Il n’est pas toujours facile dans ce tumulte de rappeler qu’« Intelligence artificielle » est le nom donné, de façon irrégulière, à des artefacts programmés pour comprendre et agir avec pertinence (i.e. « intelligemment ») sur leur environnement. Aussi le premier objectif de ce dossier de Réseaux est-il de revenir au plus près du fonctionnement de ces techniques et de ceux qui les conçoivent afin d’observer ce dont il est réellement question. Inspirés par des approches d’histoire, de philosophie et de sociologie des sciences et des techniques, plusieurs articles de ce dossier proposent d’explorer le fonctionnement des techniques prédictives afin de montrer comment celles-ci s’inscrivent dans des controverses scientifiques, mobilisent des infrastructures de données particulières, engagent des visions et des perspectives qui ont une généalogie ancienne. Cependant, ce renouveau de l’Intelligence artificielle s’articule aussi étroitement à un ensemble multiforme de processus de rationalisation des activités qui traverse différents univers sociaux. Comment des technologies de prédiction peuvent-elles s’insérer dans différentes organisations pour les transformer et dans la vie quotidienne des individus pour les guider dans leur choix ? La deuxième direction donnée aux articles de ce dossier est de comprendre la manière dont les machines prédictives s’encastrent dans un certain nombre de situations sociales et de contextes organisationnels.

Explorer les machines prédictives

4Pour entrer dans ce dossier, c’est une approche philosophique qui est d’abord proposée. Dans un article sur « La prédiction algorithmique comme activité sociale », Tyler Reigeluth montre que, à l’abord des nouveaux enjeux de la calculabilité algorithmique, la philosophie de la technique de Gilbert Simondon retrouve une actualité toute particulière. Discutant une approche qui avait été développée dans un précédent numéro de Réseaux par Antoinette Rouvroy et Thomas Berns (2013), Tyler Reigeluth suggère que le questionnement critique des sciences humaines et sociales à l’endroit des machines à prédire risque toujours de reconduire une adéquation entre norme technique et automatisme. Le biais « discursif » conduisant à décrire le fonctionnement des techniques comme des « programmes » amène à conclure qu’elles sont les instruments d’une normalisation des comportements et des activités. Tyler Reigeluth explore une autre direction pour mettre en évidence ce que l’on peut appeler l’inventivité « extradiscursive » de la technique, sa part d’indétermination qui ne peut être décrite comme le « signe d’un dysfonctionnement ou d’une déraison ». Pour effectuer ce parcours, l’auteur s’appuie successivement sur les modèles de la cybernétique – très à l’honneur dans de nombreuses contributions de ce numéro – et sur un texte de Gilbert Simondon sur le cycle de l’image, dont les trois phases sont l’anticipation, l’expérience et la systématisation. Il montre que, à travers les méthodes d’apprentissage, la statistique n’est plus seulement une technique de savoir mais qu’elle est aussi une activité, un comportement de la machine elle-même, qui recèle une part d’inventivité. Le partage entre machine (automatisme) et organisme (invention) paraît alors insuffisant pour rendre compte de la normativité des algorithmes apprenants, un thème qui, dans des langages différents, va fréquemment faire retour dans d’autres articles de ce dossier.

5En contrepoint de cette approche abstraite, c’est une contribution ethnographique à la compréhension du travail de conception des machines prédictives qu’apporte l’article de Jean-Sébastien Vayre. Il s’appuie sur des observations et des interviews recueillies au sein d’entreprises de datascience développant et implémentant pour leurs clients des solutions d’analyse des données à base d’apprentissage artificiel. L’auteur montre avec précision comment ces nouvelles techniques déplacent le point d’impact de l’intervention du développeur dans la fabrication de la prédiction. Que le théâtre d’intervention du programmateur ne soit plus la conception de modèles, n’empêche en rien – bien au contraire – qu’il ne s’implique très activement dans d’autres étapes de la fabrication des machines prédictives, étapes que Jean-Sébastien Vayre décompose en trois « cadrages » différents, ceux de l’environnement d’apprentissage, du traitement et de la politique des « machines à prédire ». Il commence par souligner que, face aux données, les concepteurs font effectivement montre d’un certain agnosticisme. Dans l’état d’esprit « a-normatif » que l’on associe à la disparition des hypothèses préalables (Anderson, 2008), les concepteurs s’ouvrent à un véritable « pluralisme prédictif » en donnant toutes leurs chances aux différents types de variables (comportementales, socio-démographiques, environnementales) qui composent leurs jeux de données. À l’aide de méthodes d’analyse des données et de techniques de visualisation, ils entreprennent même une exploration ouverte et peu guidée des diverses possibilités de calcul. Mais s’ils relâchent leurs interventions sur la phase de modélisation, les concepteurs et implémenteurs renforcent en revanche leurs interventions dans la phase de préparation des données et, surtout, dans celle consistant à donner des objectifs aux méthodes d’apprentissage. De la sélection des données à leur nettoyage, en passant par les différentes étapes de construction de variables, jusqu’à la définition des objectifs, les interventions des concepteurs sont d’emblée tatillonnes et ne laissent en rien les données entrer « brutes » dans le calcul (Denis, 2018).

6La mise en évidence des objectifs donnés aux calculateurs permet dès lors d’interroger, plus généralement, le genre d’opération qu’effectuent ces machines prédictives. Quel rapport ont-elles avec le monde dont elles se saisissent ? Comment cherchent-elles à le lire et l’interpréter ? Dans une enquête généalogique sur la manière dont les machines ont entrepris de capturer les gestes, Fernanda Bruno, Maurício Lissovsky et Icaro Ferraz Vidal Junior montrent comment ceux-ci ont été successivement enregistrés par la photographie, le cinéma et, aujourd’hui, les techniques de vision computationnelle. Le processus que les auteurs font apparaître apporte une contribution importante à l’analyse des nouvelles formes de prédiction. De façon méticuleuse, ils montrent comment, de la fiche signalétique anthropomorphique à la chronophotographie, en passant par le cinéma et les machines cybernétiques, les gestes ont été détachés par les appareillages techniques du corps et des individus. Le geste y a été, en quelque sorte, abstrait de la personne. Ce mouvement qui s’enracine dans l’histoire des techniques d’identification policière a pris toute son ampleur avec les logiciels associés aux caméras de vidéosurveillance pour détecter les conduites atypiques. C’est donc à un processus d’abstraction et d’expropriation des gestes que se livrent les dispositifs machiniques tout en concourant à un effacement de l’identité et de la subjectivité. Dans le domaine de la sécurité, les outils de détection s’attachent moins à l’identification des individus qu’à la reconnaissance d’anomalies permettant une politique d’intervention préventive. En analysant la trajectoire historique des machines de vision, Fernanda Bruno et ses coauteurs font ainsi apparaître la manière dont ces dispositifs ont, d’une certaine manière, changé de cible.

7Cette interrogation sur les nouvelles figurations du social inscrites dans les machines prédictives peut aussi être enrichie par l’examen des controverses scientifiques qu’elles suscitent. Dans leur article, Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues proposent une enquête sur un article scientifique retentissant publié dans le Journal of Personality and Social Psychology par Michal Kosinski, professeur de psychologie à Stanford, et Yilun Wang, spécialiste d’apprentissage artificiel. En utilisant une méthode de deep learning, ils y montrent qu’il est possible de produire une estimation imparfaite, mais correcte sous certaines conditions, du comportement sexuel (hétérosexuel/gay-lesbien) des individus à partir de photos d’eux extraites d’un site de rencontre. Yilun Wang et Michal Kosinski fondent cette capacité de prédiction des réseaux de neurones sur une explication biologisante basée sur la théorie de l’exposition prénatale aux hormones (Prenatal Hormones Theory ou PHT) prétendant expliquer comment l’orientation sexuelle s’imprime sur les traits du visage. Ce qui intéresse Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues est la rhétorique particulière qui a été mise en œuvre par Michal Kosinski et Yilun Wang pour rendre publique et assurer la promotion de leur recherche. Ces derniers justifient en effet la publication de leur article par la nécessité d’alerter l’opinion d’un nouveau risque pesant sur la vie privée des individus. Le terme repris dans la polémique est celui de gaydar, un « radar » permettant de détecter automatiquement les homosexuels à partir d’images de leur visage. Les auteurs déplient les différentes étapes de la démarche et des arguments de Yilun Wang et Michal Kosinski, puis analysent la manière dont la polémique a fait émerger deux types de critiques de leur article : la première, externaliste, consiste à condamner, dans son ensemble, le bien-fondé de ce type de recherche, objectivante, scientiste et biologisante ; la seconde, internaliste, entreprend de décoder la méthodologie et l’argumentation de Yilun Wang et Michal Kosinski pour montrer que l’alerte concernant la vie privée – la possibilité en toute généralité d’estimer le comportement sexuel depuis une image – constitue une généralisation abusive de résultats dont la validité est limitée par les spécificités de la méthode employée. Les auteurs défendent l’idée que la rhétorique de l’alerte mise en avant par les chercheurs est la conséquence d’une contrainte morale pesant sur la publication de travaux scientifiques dont les résultats sont indésirables pour la société. Yilun Wang et Michal Kosinski produisent alors une double énonciation paradoxale en affichant d’une part des résultats scientifiques soutenant la thèse d’une détermination biologique des comportements sexuels et, d’autre part, condamnent par anticipation les conséquences potentielles des usages des résultats qu’ils se sont évertués à faire apparaître.

8« De combien de linguistes a-t-on besoin pour réaliser les progrès actuels en traduction automatique ? », interroge Geoffrey Hinton, l’un des principaux artisans du développement actuel des méthodes d’apprentissage profond (deep learning). « Aucun. On n’a besoin d’aucun linguiste, d’aucun para-savoir. Il suffit d’apprendre des données. La seule chose dont on a besoin est de beaucoup de données [1]. » C’est ce genre de provocation que l’article de Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières cherche à éclairer en réinscrivant ses attendus dans le contexte de l’histoire de l’Intelligence artificielle (IA) et de la controverse entre les approches symbolique et connexionniste. Univers de significations par excellence, le domaine du texte et de la traduction semblait fait pour résister au processus de désymbolisation qui conduit à faire disparaître toute modélisation a priori au sein des nouveaux calculateurs. Fidèles jusque dans les années 1990 à l’esprit du programme fondateur de l’Intelligence artificielle, les techniques de traduction automatique se sont d’abord appuyées sur des méthodes à base de règles (syntaxe, grammaire, ontologie, etc.) afin d’inscrire un modèle de la langue dans la machine à traduire. N’obtenant que de médiocres résultats, à partir des années 1990, elles ont entrepris d’incorporer des méthodes statistiques en établissant des probabilités de correspondance entre les mots du texte à traduire et d’exemples de textes traduits. Depuis 2015, on assiste au spectaculaire développement de réseaux de neurones qui « apprennent » une langue sans désormais utiliser aucune des symbolisations à travers lesquelles nous lui donnons un sens, une structure grammaticale et des significations. La trajectoire des techniques utilisées pour la traduction automatique correspond à celle, plus générale, des différents paradigmes qui ont rythmé l’histoire de l’IA dont Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières font le récit dans leur article. Ils montrent que la fabrication de machines radicalement « inductives » n’a pu être menée à bien que dans un contexte scientifique controversé, conduisant les tenants de l’approche « connexionniste » à réaménager de fond en comble le contexte d’utilisation, le rapport aux données et les objectifs des machines intelligentes. Le projet de l’IA, tel qu’il s’est constitué à la fin des années 1950, était de faire raisonner les machines selon des processus programmés, symboliques et intelligibles en plaçant ainsi l’« intelligence » du calculateur dans le programme. La généalogie que reconstituent les auteurs s’attache à mettre au jour les conditions qu’il a fallu réunir pour parvenir à renverser ce projet afin de produire des machines qui extraient l’« intelligence » des données pour en faire des programmes. Le propos de cet article est de montrer que l’induction n’a donc rien d’un processus désocialisé, transparent et immanent. Elle réclame un travail très particulier à l’intérieur de la science, des infrastructures de calcul et des bases de données, pour faire advenir autrement un comportement « intelligent » des machines.

9L’article de Bilel Benbouzid analyse les origines de la police prédictive dans le système du Compstat, l’innovation managériale mise en œuvre à New York dans les années 1990 visant à améliorer l’efficacité d’une police qui se doit d’être plus proactive que réactive. L’histoire de la catégorie de predictive policing est présentée comme la mise en algorithme successive de deux grands principes du Compstat : connaître la délinquance et évaluer la performance. Au début des années 2000, les machines apparaissent d’abord comme des systèmes d’information géographique en ligne (web mapping) permettant aux agents de terrain d’accéder n’importe où et n’importe quand à l’information statistique en vue d’une adaptation des stratégies policières aux évolutions de tel ou tel type de crime. C’est à partir de 2010 que le vocabulaire de la prédiction fait son apparition. Les machines deviennent alors un moyen de rationaliser le travail policier et le support de l’évaluation de la performance des patrouilles. Analysé à partir des cas du développement des plateformes Hunchlab et Predpol, la police prédictive est le récit d’une bifurcation : d’un logiciel statistique construit au sein du système d’information de la police cherchant à aider les policiers à explorer des hypothèses et des intuitions, on passe à un style de machine prédictive qui pilote l’activité des agents et distribue de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. La prédiction n’apparaît plus comme une technologie de projection de l’avenir, mais comme le vecteur d’une multitude de métriques de gestion pour doser le temps de patrouille et réguler la quantité de contrôle policier dans la population. Hunchlab et Predpol sont des machines à produire des normes quantitatives permettant de superviser les temps de patrouille, distribuer de la sécurité sur le territoire et corriger les comportements de la police pour protéger la population des contrôles abusifs que garantit le Quatrième amendement. Prédire pour gouverner, c’est intégrer des règles d’action dans le paramétrage des machines, plaçant dans le calcul la clé de l’harmonie sociale (Supiot, 2015).

10Enfin, l’article de Vincent Bullich propose une enquête sur la tentative de mise en place d’un outil prédictif dans le monde de l’édition. Tout l’intérêt de cette monographie au regard des enjeux du dossier de ce numéro est d’élargir le regard vers des formes sociales et culturelles plus larges pour prendre la mesure des conditions d’acceptabilité des dispositifs prédictifs automatiques dans différents espaces sociaux. Une maison d’édition alternative a entrepris de publier des textes courts sélectionnés grâce à un « algorithme » permettant une automatisation de la stylométrie (analyse des composantes syntaxiques, lexicales et sémantiques d’un texte) et doté de capacités d’apprentissage automatique. Le récit détaillé que construit Vincent Bullich autour de ce cas vient mettre en évidence les difficultés rencontrées par ce projet et analyser les raisons qui ont conduit la maison d’édition à revenir vers un mode de sélection des manuscrits beaucoup plus traditionnel. Analysant les raisons de cet échec, Vincent Bullich montre qu’elles doivent autant être cherchées du côté des imperfections de la machine prédictive conçue par cette jeune maison d’édition que dans la condamnation que le monde de l’édition a opposée à cette transgression des valeurs inspirées de la culture littéraire. Pensant déployer un outil de marketing original, les concepteurs de cette littérature automatique ont dû faire face à une véritable levée de boucliers. Les réactions très négatives de la filière de l’édition à l’égard de cette « déshumanisation de la littérature » ont suffi à faire mettre un terme à cette initiative. Ce rappel de la force des enjeux symboliques dans l’acceptation ou le refus de l’insertion de certains types de dispositifs techniques au sein de divers univers sociaux constitue un utile rappel à l’ordre. Il montre que les nouveaux dispositifs ne parviennent jamais à rentrer dans la société au seul avantage de leur efficacité ou des intérêts économiques de ceux qui les conçoivent. Ils doivent aussi trouver des points d’appui dans les ressorts sociaux et culturels des univers qu’ils prétendent transformer.

11C’est donc un même déplacement qui est questionné à travers cet ensemble d’articles. Les méthodes d’apprentissage artificiel y occupent une place décisive et constituent le point de départ des observations et des analyses. L’interprétation de ce changement de paradigme y est cependant conduite avec des outils très différents. Elle s’enracine tantôt dans les débats scientifiques ou les savoir-faire et les compétences mobilisées dans la conception des machines. Elle se réfère dans d’autres approches à de nouvelles propriétés du régime d’anticipation ou aux polémiques sur l’explication de ce que font les machines lorsqu’elles prédisent. Elle renvoie aussi à la forme des mondes sociaux dans lesquels les prédictions doivent s’insérer. Ce qui apparaît cependant comme un véritable changement de paradigme tient à une configuration nouvelle des données et du calcul dans laquelle la forme inférentielle de l’explication allant des prémisses à la conclusion est considérablement brouillée. Les machines prédictives produisent bien des conclusions qui, de mille et une manières, apparaissent liées de façon vraisemblable aux « entrées », sans pourtant que la manière dont elles établissent ce lien puisse faire l’objet d’une anticipation, d’une maîtrise et d’un contrôle. Cette propriété a déjà soulevé de nombreux commentaires dénonçant l’inexplicabilité des prédictions et appelant à une insurrection de la raison contre l’opacité de machines indéchiffrables. Ce n’est pas la voie choisie par les auteurs de ce numéro qui la considèrent plutôt comme un défi original pour les sciences sociales. Aussi voudrait-on présenter quelques-unes des pistes de recherche qu’explorent les articles de ce numéro.

Comprendre ce que fait le machine learning

12Le premier constat que l’on peut tirer des articles proposés dans ce dossier est qu’ils portent une réelle attention aux usages des calculs et au fonctionnement des technologies informatiques sur lesquelles ils reposent, suivant en cela la perspective ouverte par un récent dossier de Réseaux invitant à « Décoder les programmes » (Méadel et Sire, 2017). En raison de leur nouveauté et de leur complexité, beaucoup de travaux de sciences humaines et sociales refusent de comprendre ce que font ces machines et se trouvent alors prisonniers – même lorsque leur ambition est de les critiquer – des discours de leurs concepteurs.

Rendre discutable la justesse des prédictions

13La tâche à laquelle ce numéro s’est employé est de ne pas arrêter l’enquête à la frontière des machines, mais d’explorer véritablement leur fonctionnement. Il est par exemple nécessaire d’ausculter en détail les méthodes et les techniques de calcul pour donner sens à des controverses qui amènent sur la place publique des résultats qui font l’objet de polémiques sans que la manière dont ils ont été produits ne soit réellement auscultée. Dans leur article, Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues sont conduits à entrer dans le détail du design des enquêtes pour relativiser et replacer dans leur contexte la nature des résultats obtenus par Yilun Wang et Michal Kosinski dans leur article sur le gaydar. La leçon est ici exemplaire puisqu’il est nécessaire d’explorer le fonctionnement du test de robustesse du modèle utilisé (AUC, Area under curve) pour comprendre le caractère abusif du résultat mis en avant dans le débat public : « Un gaydar identifie les gays avec 91 % de bonnes réponses. » Promu comme la probabilité de classifier correctement, en toute généralité, le comportement sexuel depuis une image, le taux correspond en fait à la probabilité de classifier correctement une image parmi deux images, dont l’une représente une personne homosexuelle et l’autre une personne hétérosexuelle – ce qui n’est pas du tout la même chose. La démarche mise en œuvre par Nicolas Baya-Laffite et ses coauteurs souligne ainsi l’importance du travail d’explicitation technique de recherches que parfois leurs auteurs, pour un ensemble de raisons variées, n’hésitent pas à occulter pour faire entrer leurs résultats dans le débat public. La justesse des décisions algorithmiques et la qualité de prédictions qui leur est associée s’expriment sous la forme de quantités (les multiples indicateurs dégagés des matrices de confusion) qui méritent de rejoindre les objets de la sociologie de la quantification. Cette sociologie apparaît d’autant plus nécessaire qu’apparaissent de plus en plus fréquemment dans les médias des résultats de travaux de computer social science qui sont l’objet d’une compréhension minimale de la part des journalistes – et des chercheurs en sciences sociales ! ‒ qui les mettent en circulation sans circonscrire leur contexte de validité [2].

Le social du machine learning

14Une manière de comprendre les nouvelles machines de l’intelligence artificielle est de revenir sur les emprunts faits par leurs concepteurs au vocabulaire des neurosciences et plus spécifiquement au fonctionnement du cerveau. Il faut souligner qu’ils mobilisent cette analogie avec prudence et parcimonie. Les critiques un peu rapides des sciences sociales à leur endroit relèvent souvent plus d’une sorte de réflexe antinaturaliste que d’une observation rigoureuse de leurs pratiques et de leurs discours. Il n’en reste pas moins que cette analogie, comme le montre Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières, a joué un rôle essentiel pour poser les bases d’un autre modèle cognitif, le connexionnisme, et l’opposer au computationnalisme classique. Plus que l’analogie avec le fonctionnement du cerveau, le « naturalisme » qui se développe avec les big data et les machines prédictives apparaît surtout dans la généralisation d’explication mécanique du social. Cette question est au cœur du développement de controverses mettant en scène le déterminisme biologique, comme le montre l’article de Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues. Dans l’affaire du gaydar, il faut reconnaître à Yilun Wang et Michal Kosinski le mérite de ne pas avoir simplement cherché à établir la performance des réseaux de neurones dans une tâche de classification, comme le font beaucoup d’articles du domaine, mais d’avoir aussi produit une explication de ce résultat. Cependant, la manière dont ils cherchent à l’interpréter permet de faire une remarque sur le genre de paradigme dans lequel les chercheurs de ce domaine inscrivent le plus souvent leurs travaux. En laissant les données produire « elles-mêmes » la tâche prédictive (classification, recommandation, hiérarchisation, etc.), en déployant une grande imagination méthodologique pour s’assurer que les données parlent aux calculateurs sans l’intervention modélisatrice des chercheurs, ces derniers ont une tendance immédiate à prolonger le geste inductif d’une hypothèse naturalisante. À cet égard, les travaux de Michal Kosinski offrent un véritable répertoire de déterminismes causaux extrêmement rudimentaires. Dans son travail sur MyPersonality, il proposait de ranger les personnes dans cinq catégories de profils psychologiques sur la base des traces de leur likes et de leurs commentaires sur Facebook assurant que ces derniers étaient cause des opinions politiques, de l’orientation sexuelle, du bonheur, de l’usage de stupéfiants ou de la séparation parentale (Kosinski et al., 2013). Dans une recherche plus récente, il assure – toujours à partir des traces d’activités sur Facebook – pouvoir déterminer les électeurs politiquement influençables (Matz et al., 2017).

15Il n’est finalement guère surprenant que ces interprétations mécanicistes prennent désormais la biologie – ou le cerveau – comme cause ultime. Quel qu’en soit le domaine d’application, le déploiement actuel des techniques prédictives se caractérise par un déterminisme quasi mécanique et un comportementalisme revendiqué (Pentland, 2014). Inspirée par la physique, l’application des nouveaux outils prédictifs sur des données sociales ne cesse de corréler statistiquement les prédictions à des facteurs, des propriétés ou des patterns échappant à la réflexivité des individus : comportements implicites, biais cognitifs, perception non réfléchie, gestes routiniers et automatiques, etc. Il est frappant de constater qu’au moment où la sociologie, longtemps accusée de proposer sous forme de « loi sociale » des déterminations trop rigides des régularités comportementales, a fait entrer une part de plus en forte de réflexivité dans la compréhension des mécanismes monotones de la société, les chercheurs spécialisés dans la science des données, les nouveaux adeptes de la physique sociale ou les psychologues à la recherche de biais cognitifs promeuvent en revanche des figures mécaniques du social sans attention aux effets de réflexivité – et aux traces que la réflexivité des acteurs laisse dans les données calculées.

L’insertion des machines dans les mondes sociaux

16Ce style de pensée tient au statut qu’attribuent les concepteurs à la prédiction : le résultat d’un calcul est satisfaisant s’il permet de faire fonctionner des machines utiles, davantage tournées vers l’action que vers l’explication des phénomènes (Hofman et al., 2017). C’est cette articulation entre le calcul et l’action qui est analysée dans plusieurs articles de ce numéro qui cherchent à identifier dans l’activité même de conception la trace qu’y laissent les logiques sociales, culturelles et économiques des mondes sociaux dans lesquels les machines s’insèrent. Les professionnels de datascience que Jean-Sébastien Vayre a étudiés règlent la plupart du temps les machines sur un objectif utilitariste et marchand : augmenter les ventes, les clics, la durée de consultation des recommandations commerciales, la conversion des visiteurs en acheteurs, etc. Cette mise en situation du travail concret des data-scientistes montre ainsi comment, à travers les objectifs du calcul, c’est en réalité tout le monde professionnel et marchand des univers sociaux dans lesquels la prédiction est appelée à se déployer qui se propage à l’intérieur du calculateur. On y constate alors que la prédiction visée par les concepteurs ne se projette guère plus loin que le prochain clic du client qu’il faut attirer vers le service, qu’il faut constamment arbitrer entre un profit à court terme et la dégradation de l’expérience des clients suscitée par des recommandations trop appuyées, qu’il est nécessaire d’adapter la prédiction à la spécificité des marchés et des gammes de produits ou de services, etc. Mais cette articulation est encore plus visible dans l’article de Bilel Benbouzid, qui détaille la trajectoire des différents objectifs d’optimisation donnés aux outils de prédiction des délits et des crimes utilisés par la police américaine. L’auteur y fait apparaître la manière dont la forme donnée aux calculs prédictifs est étroitement liée aux transformations organisationnelles des équipes d’intervention policière. Mais il montre aussi comment l’objectif calculé peut enfermer des normativités contrastées, dont celle de corriger dans le calcul les défauts que la critique des effets discriminatoires d’objectifs de zoning trop appuyés a fait apparaître. On voit ici clairement comment la conception des algorithmes et les retours – notamment critiques – que leur adressent les mondes qu’ils calculent constituent un espace de rapports de forces, mais aussi de négociations et de reconstruction de la forme même des machines à prédire et de leur manière de calculer. L’intérêt de démarches ouvertes à une compréhension réelle du fonctionnement des calculs est de faire apparaître un espace de jeu, de tension et de négociation au sein des systèmes sociotechniques qui apparaît beaucoup plus dense et ouvert que ne l’imaginent les interprétations fonctionnalistes (Seaver, 2017 ; Mackenzie, 2017).

17À l’épreuve des mondes sociaux, il arrive même que les machines prédictives rencontrent des oppositions. Dans son article, Jean-Sébastien Vayre souligne que le manque d’explicabilité des prédictions peut devenir un frein. Les acteurs de l’assurance réclament des prédictions explicables et même dans le monde du marketing, certains professionnels ne sont pas disposés à installer des dispositifs qui ciblent leurs clients sans qu’ils ne comprennent pourquoi. La barrière de l’explication apparaît ainsi comme une des frontières que doivent négocier les nouvelles machines avec les mondes sociaux dans lesquels on annonce constamment qu’elles vont rapidement s’installer et remplacer les agents humains. Le récit de l’abandon par ses promoteurs de la mise en place d’une machine prédictive dans le monde de la littérature proposé par Vincent Bullich témoigne bien de la complexité des processus de diffusion des innovations face aux prophéties d’automatisation. Ce qui ressemble typiquement à une idée issue de séance créative de hackathon n’aura pas résisté très longtemps aux spécificités culturelles de l’espace social dans lequel certains acteurs ont cherché à l’introduire. Les rares enquêtes empiriques sur les usages concrets des scores prédictifs dans différents mondes professionnels, comme celle d’Angèle Christin (2017) sur la place des prédictions automatiques dans la décision des juges, montrent que la réflexivité critique et l’interrogation sur la forme prise par les prédictions n’ont en rien disparu de l’activité de prise de décision des acteurs.

L’intelligibilité des calculs

18Le deuxième débat qui revient fréquemment dans les articles de ce dossier a trait au fait que les techniques prédictives contribuent, de plus en plus fréquemment, à mettre en évidence des régularités qui nous sont peu perceptibles, soit parce que les machines « dépassent » les capacités des humains, soit parce que la mise à jour de ces régularités est jugée indésirable. Plusieurs articles insistent sur le fait que les méthodes d’apprentissage produisent des modèles dont l’intelligibilité échappe même à ceux qui les fabriquent. La décomposition des dimensions à travers lesquelles le calcul obtient son résultat est si granulaire et multidimensionnelle qu’elle se soustrait à la mise en ordre discursive, symbolique ou normative qui sert ordinairement à la mise en intelligibilité du monde. Il reste cependant important d’explorer le défi que constitue pour les sciences sociales une description non fonctionnaliste des opérations menées par les techniques du machine learning, comme y invite la réflexion de Tyler Reigeluth sur l’activité inventive des machines. À cet égard, les articles de ce dossier ouvrent plusieurs pistes.

Des machines perceptives

19Le premier trait qui apparaît à la lecture de ce dossier est que ces technologies prédictives font avec les données quelque chose qui relève plus de la perception que du raisonnement, comme le soulignent les articles qui explorent les techniques de reconnaissance des gestes (F. Bruno et al.), des visages (N. Baya-Laffite et al.) ou des images (D. Cardon et al.). C’est d’ailleurs avec des masses de données liées à des signaux sensibles (l’image, la voix, la langue, le mouvement…) que ces techniques démontrent aujourd’hui les résultats les plus pertinents dans le domaine de la robotique, des voitures autonomes ou de la détection de significations dans le texte, le son ou l’image ; à l’inverse, les dispositifs cherchant à produire des raisonnements de haut niveau, à l’exception des espaces clos des jeux de go ou d’échec, ne démontrent pas mieux aujourd’hui qu’hier des résultats convaincants, comme en témoignent les chatbots dits « conversationnels ». Les machines prédictives capturent dans ces signaux quelque chose qui relève plus de formes sous-jacentes, de styles associatifs que de concepts ou de catégorie du raisonnement. Elles semblent fonctionner sur un mode proprioceptif. Tant l’article sur la perception des anomalies dans la gestualité de Fernanda Bruno et ses coauteurs que les propositions faites par Tyler Reigeluth montrent qu’un nouvel enjeu pour la sociologie des sciences et des techniques est désormais de prendre au sérieux l’idée que ces machines « perçoivent » plutôt qu’elles ne « raisonnent » [3]. Avec toute la prudence nécessaire, il faut constater que le style cognitif qui a inspiré les producteurs des technologies de réseaux de neurones, comme l’expliquent Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières dans leur article, est bien celui d’un processus d’apprentissage distribué et non linéaire. Peut-être faudra-t-il prêter à des algorithmes de reconnaissance de formes un style de raisonnement associationniste procédant par impressions, rapprochements et recouvrements qui sans donner une intelligibilité complète sur leur fonctionnement permettent en revanche d’interroger les conditions de leur apprentissage. La socialisation des machines ouvre un espace d’enquête original pour les sciences sociales.

L’étude des controverses comme manière de rendre intelligible les machines

20Un deuxième trait qui apparaît dans les articles de ce dossier réside dans les solutions qui sont offertes pour ne pas renoncer à la tâche de mise en intelligibilité de ce que font les machines prédictives. L’article de Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues montre qu’une fois les machines prédictives ouvertes par l’enquête, le spectre des explications de leurs résultats apparaît beaucoup plus large qu’un simple déterminisme automatique. De façon remarquable, la controverse créée par le gaydar porte sur ce que « voient » exactement les réseaux de neurones lorsqu’ils parviennent à faire une estimation correcte du comportement sexuel des individus. Yilun Wang et Michal Kosinski soutiennent que ce qu’ils « voient » sont les traits physionomiques du visage (l’épaisseur de la mâchoire, la forme des sourcils, du nez et de la bouche), alors que d’autres chercheurs du domaine critiquant l’article soulignent que les neurones ont « vu » des choses beaucoup moins « biologiques » que « culturelles » dans les photographies de visages présentées à la machine : des sourires, du fard à paupières, des barbes, des lunettes, des casquettes ou un port de tête. La nature de ce débat montre bien que le déploiement des machines prédictives dans nos sociétés ne fait en rien disparaître les demandes d’explication et de théorie, mais en revanche qu’il déplace de plus en plus des lignes de démarcation et de questionnement sur ce qui peut être inductivement extrait de grandes masses de données. C’est alors un nouveau terrain d’investigation qui s’ouvre pour les sciences sociales consistant à élargir les répertoires des signes et des traces qui peuvent être mobilisés pour interpréter des régularités qui n’avaient pas été envisagées jusqu’alors. Les corrélations que font apparaître les nouvelles techniques prédictives sont sans doute moins une menace pour la sociologie qu’un défi invitant à déplacer et à élargir l’espace des phénomènes à prendre en compte pour « expliquer le social par le social ».

Biais et intelligibilité

21Un troisième trait qui apparaît dans les articles de ce dossier est le travail d’investigation des concepteurs eux-mêmes pour comprendre l’activité des machines qu’ils fabriquent et les effets qui leur sont associés. C’est dans cette direction que conduit l’enquête de Jean-Sébastien Vayre sur le travail des implémenteurs. Si ces derniers ne définissent pas de modèles, ils opèrent en revanche un travail de cadrage pour que, en entrée et en sortie, les paramètres du cadre fassent bien faire à la machine ce que leurs clients veulent qu’elle fasse. Si l’on suit l’argument proposé par Dominique Cardon et ses coauteurs, plutôt que d’une « fin de la théorie » (Anderson, 2008), il faudrait parler de théorie de la fin de la théorie (as we know it) tant la production des machines inductives requiert la mise en place de dispositifs très artificiels pour déplacer et transférer la programmation des paramètres du calcul à celle des hyper-paramètres du calculateur. La production, mais aussi l’interprétation, des prédictions de la machine ne doivent plus être cherchées dans la conception et l’intelligibilité de modèles mais dans la conception plus large de l’infrastructure de calcul. Les données en entrée, les objectifs en sortie et l’ensemble varié de choix d’architecture confèrent aux machines prédictives des formes particulières qu’il faut désormais investiguer et déconstruire. Un chantier original s’ouvre ainsi aux sciences sociales consistant à suivre les travaux informatiques qui sont entrepris pour visualiser, rendre interprétable (par les « indicateurs d’importance des variables ») et donner des débuts d’explications au déploiement des calculs à l’intérieur des réseaux de neurones. Comme le souligne Philippe Besse (2017), même les acteurs industriels de la recherche en intelligence artificielle (Google, Facebook, Microsoft, Apple, etc.) sont sensibles au besoin d’interprétation des boîtes noires du machine learning. Ils en ont fait un principe éthique et un enjeu scientifique. Il n’est donc pas interdit aux sciences sociales de participer, à leur manière, au travail de mise en intelligibilité qui est aujourd’hui engagé dans les communautés informatiques [4] pour rendre perceptibles et (plus) intelligibles ce que font et la manière dont « raisonnent » les réseaux de neurones (Mascharka et al., 2019 ; Olah et al., 2018 ; Pezzotti et al., 2017).

22Parallèlement au problème de l’intelligibilité, l’enquête sur les objectifs et les biais produits par ces machines n’est pas si inaccessible – comme il est souvent dit. De nombreux travaux débutent aujourd’hui sur ce thème, en particulier sur l’analyse des biais discriminatoires dans les calculs prédictifs. Profitant de la polémique sur les effets discriminatoires de PredPol, l’outil de prédiction de la police américaine, Bilel Benbouzid montre que tant du côté des arguments critiques que du côté des mesures expérimentales, les calculateurs peuvent s’ouvrir à une investigation sur le caractère plus ou moins « loyal » de leurs résultats. Analyser les biais des algorithmes du machine learning est devenu un domaine de recherche à part entière qui occupe informaticiens (Kleinberg et al., 2017), mathématiciens (Besse et al., 2018) et juristes (Barocas et Selbst, 2016). Si la discrimination a longtemps été un objet privilégié de la sociologie critique, elle est donc aussi un domaine de recherche qui propose « d’adapter ou contraindre des méthodes d’apprentissage à construire une règle de décision sans biais ou de biais réduit tout en préservant au mieux la qualité de prévision » (Besse et al., 2017). Si les scientifiques cherchent à définir des contraintes d’équité qui peuvent être intégrées dans des algorithmes (Kleinberg et al., 2017 ; Besse et al., 2017), tout en maîtrisant les pertes de précision des prédictions, alors la sociologie à tout intérêt à prendre au sérieux ce travail de moralisation des machines prédictives.

Un nouveau régime d’anticipation

23La mise en œuvre des techniques d’apprentissage sur les données de nos sociétés sont au cœur de multiples débats relatifs à la protection des données personnelles (Schneier, 2015), aux biais et aux discriminations produits par les données de l’apprentissage (Pasquale, 2015 ; O’Neil, 2016), à l’audit et à la régulation des algorithmes (Sandvig et al., 2014) ou aux conséquences d’une optimisation des prédictions sur des objectifs utilitaristes (Cardon, 2015). Ce dossier n’aborde que de façon incidente ces questions, mais il permet de leur donner un éclairage légèrement différent. À la lecture des articles, deux caractéristiques plus générales du régime d’anticipation des machines prédictives peuvent être soulignées. La première a trait à la production d’une manière spécifique de calculer la société qui contribue à individualiser la mesure des comportements. Les machines à prédire granularisent et atomisent les données dont elles se servent, abandonnant ainsi les conventions catégorielles sur lesquelles les interprétations des sciences sociales, mais aussi celles des administrations ou du marketing, avaient l’habitude de raisonner. La « société » y est calculée différemment (Boullier, 2015) : à travers les traces de comportement, les machines prédictives prétendent calculer les phénomènes sociaux sans s’appuyer sur les attributs catégoriels qui servent ordinairement à enregistrer les acteurs et leurs actions. Ce calcul ne correspond plus aux exigences de centralité, d’univocité et de généralité des méthodes statistiques distribuant les individus autour de la moyenne selon une loi normale (Cardon, 2017). Dans les environnements numériques, la multiplication des enregistrements contribue à une augmentation considérable du nombre des variables disponibles. Les causes deviennent inconstantes et sont associées par le calculateur dans des assemblages changeants en fonction des objectifs locaux requis par la prédiction de l’environnement des différents utilisateurs. Le déplacement de la statistique sociale organisée autour de catégories stables et d’une loi normale (Desrosières, 2000) vers une statistique personnalisant la prédiction pour chaque individu témoigne ainsi d’une radicalisation de l’incertitude sur les causes du comportement individuel. C’est en ce sens que les nouveaux formats de calcul de l’IA proposent une réponse calculatoire aux formes d’individuation de nos sociétés tout en fabriquant des environnements sociotechniques qui encouragent ce processus.

24La seconde caractéristique a trait à la forme de gouvernementalité particulière qui transpire de plusieurs articles, celle d’un contrôle statistique des conduites qui saisit le monde sans caractériser les individus (Rouvroy et Berns, 2010 ; Cheney-Lippold, 2011). Cette question est notamment apparente dans l’article de Fernanda Bruno et ses coauteurs et dans celui de Bilel Benbouzid. La prédiction instaure un système de repérage et d’identification dont les objectifs sont définis d’une façon qui apparaît à la fois précise et globale, tatillonne et oscillante. Elle semble trancher dans le réel pour ne garder de ce qu’elle calcule qu’une trace d’action, un geste, un trait du visage, une suite de clics, l’ombre d’un comportement, la résonance d’un mot, le passage dans une zone géographique. Comme l’ont montré Antoinette Rouvroy et Thomas Berns (2013), la question de la personne et de sa subjectivité semble avoir été dissoute et décomposée par un calcul de flux et d’interactions. Il faut évidemment se garder de faire de cet argument un instrument pour exonérer les calculateurs des conséquences qu’ils provoquent en certaines circonstances, le fichage, la discrimination ou le contrôle (Eubanks, 2017). Mais il est sans doute utile de prêter attention à la singularité de ce régime de « conduite des conduites » pour ne pas lui appliquer des catégories critiques qui ne le décrivent pas bien. S’y dessinent les contours d’une technologie de pouvoir non disciplinaire qui ne vise plus les individus dans leur corps et leurs identités mais le contrôle d’une « population » (Foucault, 2004, p. 265). Les débats sur les algorithmes de prédiction policière présentés par Bilel Benbouzid en constituent une remarquable illustration. On y voit en effet s’opérer un déplacement : l’objectif chiffré de contrôles menés par les policiers devient un calcul optimisant le temps de présence des policiers dans les hot spots identifiés par les machines prédictives. Le calcul se détache en quelque sorte de l’interaction du suspect et du policier pour n’en faire qu’un élément d’une régulation plus globale : installer suffisamment de temps de présence policière pour que la sécurisation du quartier soit statistiquement assurée. L’objectif pris dans le calcul devient alors exactement ce moyen statistique de contrôler la population par une technique de gouvernement à la fois distante et proche, un « art de gouverner à la rationalité des gouvernés eux-mêmes » (Foucault, 2004, p. 317). Ce sont aussi des préoccupations du même ordre qui sont sous-jacentes aux techniques de détection des mouvements dans l’article de Fernanda Bruno et ses coauteurs : avec l’intégration de la statistique à la vision, le geste capturé par l’image sert moins à pister le criminel qu’à anticiper le trouble à partir de modèles permettant de comparer entre eux les mouvements. Il est ainsi frappant de constater que le mode d’intervention du calcul prédictif s’articule étroitement à une optimisation globale, de nature économique, produisant pour chacun des prédictions qui sont la conséquence d’un calcul sur une totalité.

Notes

  • [1]
    Hinton (G), « The Neural Network Revolution », YouTube, 12 janvier 2018. La formule prolonge une provocation de F. Jelinek, le responsable de l’équipe reconnaissance du langage d’IBM, qui avait déclaré : « Chaque fois que je vire un linguiste, la performance en reconnaissance augmente » (cité dans Domingos, 2015, p. 36).
  • [2]
    C’est par exemple ce qui est arrivé récemment à un article promu à la Une de Science (Vosoughi et al., 2018) avant d’être largement repris dans les médias annonçant que sur le web, les fausses nouvelles circulaient plus vite que les vraies. En regardant plus attentivement la méthodologie mise en œuvre, il apparaît que les « vraies » nouvelles dont il est question dans cette recherche sont en fait les informations signalées à des sites de debunking (Snopes, Politifact, Factcheck…), qui ont cependant été jugées « vraies » par les sites de vérification de l’information. Ce sont la plupart du temps des constats chiffrés et des truismes, dont le taux de reprise est logiquement assez faible. La généralisation d’un résultat obtenu à partir d’un corpus d’informations « vraies » et « fausses » issues de sites de vérification à l’ensemble des informations « vraies » ou « fausses » sur le web est donc excessive et trompeuse, comme les auteurs de l’article l’ont rappelé pour essayer (vainement) de retenir les interprétations abusives tirées des résultats de leur travail.
  • [3]
    Il n’est guère surprenant de voir apparaître dans son article – et chez d’autres auteurs (Malabou, 2017) – une référence au sens pratique et à la notion d’habitus chez Pierre Bourdieu. Dans un passage remarqué des Méditations pascaliennes, ce dernier soutenait que la compréhension immédiate du monde familier était le résultat d’une incorporation des structures du monde social dans les structures cognitives et que cette « connaissance par corps » était acquise « par renforcement ou affaiblissement des connexions synaptiques » (Bourdieu, 1997, p. 163). Cette articulation à travers l’habitus du biologique et du social s’est nourrie des échanges entre le sociologue et Jean-Pierre Changeux (2005).
  • [4]
    Notons que si l’interprétabilité fait l’objet de nombreux travaux de recherche appliquée, l’explicabilité reste un défi pour la recherche fondamentale en mathématique (Mallat, 2018). Sur la distinction entre interprétabilité et explicabilité, consulter Besse (2017).

Références

  • ANDERSON C. (2008), The end of theory : Will the data deluge makes the scientific method obsolete ?, http://www.wired.com/science/discoveries/magazine/16-07/pb_theory, consulté le 05/10/2018.
  • BAROCAS S., SELBST A. D. (2016), « Big Data’s Disparate Impact », California Law Review, vol. 104, n° 3, pp. 671-732.
  • BESSE P., CASTETS-RENARD C., GARIVIER A. (2017), Loyauté des décisions algorithmiques : contribution au débat, « Éthique et Numérique » de la CNIL.
  • BESSE P., DEL BARRIO E., GORDALIZA P., LOUBES J.-M. (2018), Confidence Intervals for testing Disparate Impact in Fair Learning, arXiv preprint arXiv :1807.06362.
  • En ligneBOULLIER D. (2015), « Les sciences sociales face aux traces du Big Data. Société, opinion ou vibrations ? », Revue française de science politique, vol. 65, n° 5-6, pp. 805-828.
  • BOURDIEU P. (1997), Méditations pascaliennes, Paris, Minuit.
  • CARDON D. (2015), À quoi rêvent les algorithmes. Promesses et limites des big data, Paris, Seuil, coll. « République des idées ».
  • CARDON D. (2017), « Infrastructures numériques et production d’environnements personnalisés », in K. CHATZIS, G. JEANNOT, V. NOVEMBER, P. UGHETTO (dir.), Les métamorphoses des infrastructures, entre béton et numérique, Bruxelles, Peter Lang, pp. 351-368.
  • CHANGEUX J.-P. (2005), « Les bases neurales de l’habitus », in G. FUSSMAN (dir.), Croyance, raison et déraison, Paris, Odile Jacob/Colloque annuel du Collège de France.
  • CHENEY-LIPPOLD J. (2011), « A New Algorithmic Identity Soft Biopolitics and the Modulation of Control, Theory », Culture & Society, vol. 28, n° 6, pp. 164-181.
  • CHRISTIN A. (2017), « Algorithms in practice : Comparing web journalism and criminal justice », Big Data & Society, vol. 4, n° 2, pp. 1-14.
  • En ligneDENIS J. (2018), Le travail invisible des données. Éléments pour une sociologie des infrastructures scripturales, Paris, Presses des Mines.
  • DESROSIÈRES A. (2000), La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte.
  • DOMINGOS P. (2015), The Master Algorithm. How the question for the ultimate machine will remake our world, London, Penguin Random House UK.
  • ESPOSITO E. (2011), The Future of Futures. The Time of Money in Financing and Society, Cheltenham, Edward Elgar Publishing Ltd.
  • EUBANKS V. (2017), Automating Inequalities. How hight-tech tools profile, police and punish the poor, New York, Saint Martin’s Press.
  • FOUCAULT M. (2004), Naissance de la biopolitique. Cours au Collège de France, 1978-79, Paris, Gallimard, Seuil, coll. « Hautes études ».
  • En ligneHOFMAN J., SHARMA A., WATTS D. (2017), « Prediction and explanation in social systems », Science, vol. 355, n° 6324, pp. 486-488.
  • KLEINBERG J., MULLAINATHAN S., RAGHAVAN M. (2017), « Inherent Trade-Offs in the Fair Determination of Risk Scores », in LIPIcs-Leibniz International Proceedings in Informatics, Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik, vol. 67, pp. 1-23.
  • En ligneKOSINSKI M., STILLWELL D., GRAEPEL T. (2013), « Digital records of behavior expose personal traits », Proceedings of the National Academy of Sciences, n° 110, vol. 15, pp. 5802-5805.
  • En ligneLAZARO C. (2018), « Le pouvoir “divinatoire” des algorithmes : de la prédiction à la préemption des comportements », Anthropologie et sociétés, vol. 42, n° 2-3.
  • LEWIS-KRAUS G. (2016), « The Great AI Awakening », New York Times, December 14.
  • MASCHARKA D., TRAN P., SOKLASKI R., MAJUMDAR A. (2018), « Transparency by Design : Closing the Gap Between Performance and Interpretability in Visual Reasoning », in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4942-4950.
  • En ligneMACKENZIE A. (2017), Machine Learners. Archaeology of a Data Practice, Cambridge, The MIT Press.
  • MALABOU C. (2017), Métamorphoses de l’intelligence. Que faire de leur cerveau bleu ?, Paris, PUF.
  • MALLAT S. (2018), Sciences des données. Leçon inaugurale, Collège de France.
  • MATZ S. C., KOSINSKI M., NAVE G., STILLWELL D. J. (2017), Psychological targeting in digital mass persuasion, Proceedings of the National Academy of Sciences, November.
  • En ligneMÉADEL C., SIRE G. (2017), « Les sciences sociales orientées programmes. État des lieux et perspectives », Réseaux, n° 206, pp. 9-34.
  • O’NEIL K. (2016), Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, New York, Crown.
  • En ligneOLAH C., SATYANARAYAN A., JOHNSON I., CARTER S., SCHUBERT L., YE K., MORDVINTSEV A. (2018), « The Building Blocks of Interpretability », Distill, March 6.
  • En lignePASQUALE F. (2015), The Black Box Society. The Secret Algorithms That Control Money and Information, Cambridge, Harvard University Press.
  • PENTLAND A. (2014), Social Physics. How Good Ideas Spread. The Lessons from a new Science, New York, The Penguin Press.
  • En lignePEZZOTTI N., HÖLLT T., VAN GEMERT J., LELIEVELDT B. P. F., EISEMANN E. (2017), « DeepEyes : Progressive Visual Analytics for Designing Deep Neural Networks, Transaction on Visualization and Computer Graphics », Proceedings of IEEE VIS 2017.
  • En ligneROUVROY A., BERNS T. (2013), « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, n° 177, pp. 163-196.
  • ROUVROY A., BERNS A. (2010), « Le nouveau pouvoir statistique. Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps “numériques” », Multitudes, n° 40, pp. 88-103.
  • ROUVROY A., STIEGLER B. (2015), « Le régime de vérité numérique. De la gouvernance algorithmique à un nouvel État de droit », Socio, n° 4, pp. 113-140.
  • SANDVIG C., HAMILTON K., KARAHALIOS K., LANGBORT C. (2014), Auditing Algorithms : Research Methods for Detecting Discrimination on Internet Platforms, Data and Discrimination : Converting Critical Concerns into Productive : A preconference at the 64th Annual Meeting of the International Communication Association, Seattle.
  • SCHNEIER B. (2015), Data and Goliath. The Hidden Battles to Collect your Data and Control Your World, New York, W. W Norton & Company.
  • SEAVER N. (2017), « Algorithms as culture : Some tactics for the ethnography of algorithmic systems », Big Data & Society, July-December.
  • SUPIOT A. (2015), La gouvernance par les nombres, Paris, Fayard.
  • En ligneVOSOUGHI S., ROY D., ARAL S. (2018), « The Spread of True and False News Online », Science, vol. 359, n° 6380, March.
Bilel Benbouzid
Université Paris-Est Marne-la-Vallée, LISIS
Dominique Cardon
Sciences Po, médialab
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 16/11/2018
https://doi.org/10.3917/res.211.0009
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...