Accueil Revue Numéro Article

Terrains & travaux

2011/2 (n° 19)


ALERTES EMAIL - REVUE Terrains & travaux

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Pages 5 - 16 Article suivant
1

On présente souvent les chercheurs en sciences sociales comme partagés, en fonction des outils qu’ils utilisent, entre « ceux qui comptent et ceux qui racontent » (Leca, 2005) : les premiers – tenants des méthodes « quantitatives » – seraient des positivistes capables de généraliser à partir de données macro-sociales ; les seconds – partisans de méthodes « qualitatives » – opteraient pour une démarche plus interprétative laissant peu de place à la généralisation. Aux premiers le soin de mettre en évidence les régularités, aux seconds celui de décrire les singularités. À ces systèmes d’opposition, on en associe souvent d’autres, qui portent non seulement sur les outils, les échelles ou les choix épistémologiques, mais encore sur les matériaux et les thématiques, voire les choix politiques. Pour beaucoup d’historiens français par exemple, le « quantitatif » reste associé non seulement à la construction de courbes et d’indices, mais encore aux questions économiques, démographiques ou de stratification sociale, aux sources « sérielles » (les statistiques du passé ou certains documents administratifs) et à un marxisme, plus ou moins vulgaire, qui relève d’une démarche matérialiste et déterministe. Ces systèmes d’opposition varient selon les disciplines et les pays : ainsi, dans la science politique états-unienne, « le quantitatif » renverrait plutôt à une modélisation fondée sur le « toutes choses égales par ailleurs » et aux théories du choix rationnel. Mais ils existent partout et structurent une partie des formations, des publications et des carrières. En particulier, bien des revues imposent un choix entre quantitatif et qualitatif, ou bien le recours à des formes particulières de quantitatif, de qualitatif ou d’articulation entre eux. Or ces horizons d’attente peuvent inhiber l’innovation en amont en imposant des protocoles de recherche, obligeant ceux qui s’en écartent à déployer aussi des trésors d’imagination pour mettre en forme et publier leurs résultats (Pratt, 2008).

Quantitatif vs qualitatif : et si la question ne se posait plus ?

2

De tels systèmes d’oppositions ne produisent-ils que des débats stériles ? Certes, ceux-ci aboutissent trop souvent soit au retranchement de chacun dans son camp, soit à des proclamations un peu creuses et peu suivies d’effets sur la nécessité de dépasser le clivage. Ces débats ont pourtant des vertus. Ils ont pu enclencher des réflexions théoriques et épistémologiques sur la « scientificité » des sciences sociales, notamment sur la conception de la causalité qui est à l’œuvre derrière les énoncés sur le monde social. C’est en particulier la question fondamentale de J.-C. Passeron, s’interrogeant sur les conditions auxquelles les sciences historiques peuvent « fonctionner comme des sciences empiriques » (Passeron, 1991 : 359) et sur les modalités d’administration de la preuve. C’est aussi, même s’ils la formulent de manière moins théorique, celle des micro-historiens qui ne souhaitent pas que leur refus d’une certaine forme de quantitatif mène à l’abandon de la question de la preuve (notamment Ginzburg, 1980).

3

Ces débats ont pu aussi amener à réfléchir sur les phénomènes d’inertie institutionnelle ou les dynamiques de controverses scientifiques qui amènent un paradigme à se reproduire – par exemple, une université à ne former ses étudiants qu’au quantitatif ou qu’au qualitatif, et même à des variantes très précises de chacun d’eux – pour des raisons qui ne relèvent plus du tout de l’épistémologie (Abbott, 2001a). Le danger, exploré également par Andrew Abbott dans Time Matters (Abbott, 2001b) – dont la traduction de l’épilogue, que nous proposons ici, donne un résumé – est alors de perdre conscience de ces choix, en particulier des conceptions sous-jacentes de la causalité. Abbott souligne ainsi, à propos du cas américain, que « les sociologues ont (…) tiré de l’enseignement méthodologique qu’ils ont reçu (et partant d’un ensemble clos de techniques de traitement des données) une représentation du monde social entièrement construite à partir des relations entre des variables, au point d’exclure comme ne pouvant faire l’objet de science tous les faits sociaux qui n’entraient pas dans le cadre de la causalité linéaire » (Fabiani, 2003, p. 557).

4

Les débats réussis sur « le quali et le quanti » ont enfin une dimension au premier abord plus terre à terre [1][1] Parmi les plus récents de ces débats, on peut citer.... Ils permettent d’entrer dans les cuisines de la recherche, de réfléchir au choix, aux usages et aux effets des outils. Ils conduisent également à discuter les choix immédiatement liés à l’enquête, en amont – ceux des limites du terrain, de la taille et du choix du corpus, et en aval – ceux qui concernent l’exposition, textuelle, chiffrée et/ou graphique, des résultats. Les séminaires de « méthodes quantitatives » ou de « méthodes qualitatives » sont ainsi souvent le lieu de discussions plus générales sur l’activité de recherche, où l’on passe sans transition du logiciel à l’épistémologie, ou de la causalité aux stratégies d’écriture.

5

C’est ainsi, en partant des questions les plus concrètes, qu’on parvient à donner un contenu à l’injonction de dépassement du clivage entre « quantitatif » et « qualitatif », aujourd’hui largement admise mais peu mise en pratique. Elle tourne en effet trop souvent à la promotion d’une méthodologie très particulière, même si on l’appelle par exemple « analyse quali-quantitative » (Rihoux et al., 2004) – une approche intéressante, mais loin d’être applicable à toutes les recherches. Elle risque aussi de s’ossifier en une « bonne pratique » inhibant l’innovation : dans un article sur les pratiques réelles en la matière, A. Bryman (2006) souligne ainsi que le mélange de méthodes n’est le plus souvent qu’un mélange de matériaux, associant un questionnaire et des entretiens approfondis eux-mêmes très classiques. En outre, cette injonction aboutit fréquemment à la mise en place d’une association séquentielle entre méthodes, généralement promue dans le cadre des « méthodes mixtes » (Tashakkori et Teddlie, 2010) [2][2] La promotion de règles précises pour une systématisation.... Ainsi, les observations et les entretiens servent classiquement à préparer ou à tester un questionnaire, tandis que les statistiques sont utilisées comme données de cadrage pour des enquêtes monographiques.

6

Ces combinaisons séquentielles de méthodes reviennent en réalité à conserver une dichotomie très classique entre quantitatif et qualitatif, qui repose sur plusieurs présupposés et associations automatiques entre échelles, sources, méthodes, théories et manières de présenter les résultats. L’un de ces présupposés est qu’il y aurait des échelles d’observations adaptées par définition à l’une ou à l’autre des familles de méthodes : aux données statistiques le soin d’observer les phénomènes macro-sociaux, à la description ethnographique celui de décrire les mécanismes fins. Tout cela contraint fortement des choix méthodologiques qui pourraient être faits de manière plus inductive et plus novatrice : évoquant ce problème, A. Abbott conseille donc aux apprentis chercheurs d’explorer délibérément des associations inhabituelles, de jouer sur la combinaison et le contrepied pour sortir des « heuristiques routinières » (Abbott, 2004).

Inventer de nouveaux assemblages

7

Le dossier que nous présentons ici vise précisément à prendre à rebrousse-poil ces présupposés pour tenter d’identifier des voies possibles d’innovation. Il s’agit de baliser, sans pour autant le restreindre à quelques chemins privilégiés, l’espace très vaste et ouvert des combinaisons possibles entre quantitatif et qualitatif, ou encore des méthodologies qui ne se placent clairement ni d’un côté ni de l’autre du clivage. Sans éluder les questions plus théoriques, qui affleurent régulièrement dans les textes, nous avons choisi de le faire en montrant comment tout cela est aujourd’hui concrètement mise en œuvre dans les recherches empiriques de sociologues, historiens, politistes ou économistes, dont l’objectif est de dire des choses nouvelles sur le monde social, et qui ont été conduits pour cela à inventer des modes d’investigation. Avant toute tentative de remontée en généralité, ce point au ras du terrain nous semblait nécessaire : il donne l’exemple de recettes concoctées par des chercheurs pour éviter de tomber dans des routines de travail qui, si elles ont fait leurs preuves, risquent de finir par limiter la cumulativité de la recherche. Le texte de N. Krautberger, qui ouvre ce dossier, en donne un bon exemple. Parmi les implicites les plus associés à la dichotomie entre quantitatif et qualitatif, il y a l’idée que le naturel serait plus facilement quantifiable que le social et poserait moins de problèmes de catégorisation. La jeune histoire de l’environnement en est déjà tributaire, qui compte souvent sans distance critique à partir des descriptions du passé. N. Krautberger montre ce qu’apporte un pas de côté par rapport à ces routines : non seulement une critique d’ordre constructiviste, mais la prise de conscience d’une parenté, qui resterait sinon invisible, entre méthodes d’enquête sur les arbres et sur les contribuables – parenté, et signe d’institutionnalisation, mis en évidence par une formalisation graphique très simple et ad hoc, qui ouvre sur des renouvellements en histoire de l’administration.

8

Il ne s’agit pas pour autant ici, en plaidant pour l’émancipation par rapport aux routines, de laisser entendre que toutes les méthodes se valent pour étudier n’importe quel phénomène social. Notre but est plutôt de montrer que ce ne sont pas les sources, les objets, les échelles ou les théories qui sont a priori quantitatifs ou qualitatifs, quanti- ou quali-compatibles, mais plutôt ce qu’on en fait, en particulier suivant les outils que l’on choisit. Nous repartons donc du rapport au terrain pour mettre en doute certains parti-pris méthodologiques : face à des sources lacunaires ou à des matériaux rétifs, qui ne veulent pas entrer dans les cases principales des manuels de méthodes, les chercheurs doivent souvent bricoler – un bricolage bien reconnu dans nos discussions informelles, mais rarement présent dans les publications, qui ont fait l’objet d’une reconstruction analytique. Or de tels bricolages sont moins des pratiques d’amateurs que, suivant le Trésor de la langue française, le signe d’une « aptitude à se tirer de difficultés complexes ou à tirer parti de moyens de fortune », qui peut faire naître l’innovation. Ces expériences, qui permettent de regarder d’un œil plus neuf le clivage entre quantitatif et qualitatif, une fois consolidées et systématisées, peuvent devenir des protocoles de recherches transposables à différents objets – notre espoir restant qu’ils ne se réduisent pas à un protocole hégémonique.

9

Pour rester au plus près des actions des chercheurs et pour ne pas répéter les refrains les plus connus sur le quantitatif et le qualitatif, nous avons choisi d’intituler ce dossier « Décrire et compter ». Nous présentons aussi bien des assemblages méthodologiques originaux, combinant ces deux actions, que des manières de décrire ou de compter qui ne correspondent pas aux stéréotypes bien ancrés du qualitatif et du quantitatif, parce qu’elles pratiquent le décalage ou le détournement d’outil, que ce soit au stade de la construction des données, de l’analyse ou de la présentation des résultats, entre graphiques et récits. De ces expériences, trois grandes pistes se dégagent qui, pour n’être pas totalement inédites, sont encore peu débattues et peu présentes dans la formation des chercheurs, alors qu’elles peuvent renouveler nos manières de travailler.

Au-delà des grands nombres et de la représentativité : sortir des complexes de la quantification

10

La première piste ou assemblage inhabituel qui apparaît dans plusieurs textes est celle de l’abandon de l’association, classique dans bien des sciences sociales, entre le quantitatif et : le grand, le macro, le représentatif, les grandes bases de données… Cette piste a ici trois facettes. C’est d’abord l’idée toute simple, mais rarement appliquée en pratique dans les études qualitatives, que compter ou mesurer, sans modèle, sans véritable ambition de généralisation et sans techniques sophistiquées, peut être très utile, y compris pour réfuter des pré-notions ou ouvrir de nouvelles pistes de recherche. Le comptage s’accommode alors des matériaux les plus divers, voire facilite l’invention et le traitement d’un matériau inhabituel, lorsque, parce qu’il est difficile de compter, on fait feu de tout bois : observations, entretiens, textes, mais aussi par exemple pochettes de disques (Hammou, 2009), entrées d’annuaires téléphoniques (Ollivier, 2010), affiches (Coulmont, 2011) ou registres de condoléances (Truc, 2011), le comptage étant alors l’occasion de se poser de manière d’autant plus aiguë des questions sur leur construction et leur standardisation. Ces textes vont d’ailleurs souvent au-delà du simple comptage pour user des analyses factorielles ou de réseaux. Le fait qu’on ne puisse pas tout compter sur un sujet, qu’on n’ambitionne pas en priorité de mesurer précisément ou de généraliser, n’empêche pas de coder (Ayache et Dumez, 2011), de compter et de donner au comptage un rôle certes subordonné mais essentiel dans l’analyse et la description. C’est ce que montre ici N. Filion à propos de l’observation quantitative qui, si elle ne prétend pas épuiser le réel, permet de résoudre en grande partie le problème du choix de ce qui peut ou doit être observé, en proposant de lier comptages et mesures à l’usage d’un outil d’enregistrement (l’appareil photo ou la caméra).

11

Ainsi, le fait de travailler sur de petits groupes ou échantillons n’empêche pas de compter, ni même d’utiliser des outils formels plus sophistiqués, et d’en tirer des résultats marquants. On retrouve là le point de vue de fondateurs de la micro-histoire, qui étaient loin de refuser toute quantification, mais plaidaient en faveur de l’expérimentation et contre les outils lourds et routiniers : C. Ginzburg parlait d’une alternative entre « assurer un statut scientifique faible pour arriver à des résultats marquants, ou assumer un statut fort pour arriver à des résultats négligeables » (Ginzburg, 1980 ; voir aussi Lepetit, 1989). Aujourd’hui, des méthodes particulièrement adaptées à l’étude de petits groupes, comme l’analyse de réseaux sociaux, ont acquis un statut scientifique reconnu, mais le poids du clivage quantitatif-qualitatif reste souvent, qui amène à s’excuser de la taille des échantillons. Or l’article de J. Finez et C. Comet et celui de F. Éloire, É. Penalva-Icher et E. Lazega montrent bien comment on peut, tout en étudiant de petits groupes, sortir de l’anecdote pour abstraire des mécanismes : cela passe tant par des mesures, des quantifications au sens strict, que par la mise en évidence de formes (dont la présence peut être elle-même attestée par des tests quantitatifs) et par le récit de trajectoires individuelles ou de groupes. Le fait de se situer à un niveau où le nom des individus importe, parce qu’il permet de les suivre dans les sources ou de construire des questionnaires, pose toutefois, comme le soulignent ces auteurs, des problèmes en partie inédits, qui relèvent tant de la construction des données que de l’éthique.

12

Enfin, à côté des comptages sur de petits groupes, dont la taille n’exclut pas l’existence de structures complexes susceptibles d’être formalisées, on retrouve dans ce dossier un assemblage différent entre échelle micro et quantification. V. Girard, en effet, utilise le récit de trajectoires individuelles, appuyé sur une enquête ethnographique, à deux stades de son enquête. En amont, elle y puise des idées pour construire une catégorisation sociale plus adaptée à son objet que celle de l’INSEE, et donc pour se donner les moyens de mieux compter. En aval, la présentation de ces trajectoires dans l’article permet de donner à comprendre des modalités de recrutement d’élus locaux dont le comptage atteste ensuite qu’elles sont sinon générales, en tout cas plus fréquentes qu’on ne le croyait. Le cas ne sert donc pas seulement à donner de la chair à l’exposition : le parangon, choisi parce qu’il est banal, donc représentatif (et qui peut d’ailleurs l’être par des méthodes statistiques), ou même l’exception (l’« exceptionnel normal » de Grendi, 1977) peuvent acquérir un statut dans la construction d’un véritable modèle.

Encastrer les modèles dans le social

13

Si elles apparaissent souvent dans des articles portant sur des petits groupes – peut-être parce que l’illégitimité relative de cette échelle, lorsqu’il s’agit de quantification, a incité leurs auteurs à innover –, ces stratégies de recherche peuvent en réalité être étendues, au moins pour partie, à des études par sondage portant sur des populations importantes et débouchant sur la construction de modèles de régression multivariée. Pour adopter le vocabulaire du texte d’A. Abbott traduit ici, il s’agit alors de maintenir la plupart des éléments du programme standard (qui est le standard dans la sociologie états-unienne quantitative, mais aussi dans certaines parties de l’économie en France, par exemple) tout en assouplissant certaines de ses hypothèses sur les causalités, ce qui implique l’usage de techniques d’enquête et d’exposition en partie différentes. A. Abbott insiste ainsi sur la décontextualisation induite par la réduction des faits sociaux à des relations entre variables, hors du temps et de l’« ordre des choses » (Fabiani, 2003, p. 559), notamment des ordres locaux qui peuvent être cruciaux pour comprendre les phénomènes.

14

En réaction, des techniques quantitatives réintroduisant différentes formes d’interaction et de contextualisation ont été développées, mais elles sont encore relativement peu enseignées, sans doute du fait de leur non-alignement par rapport à la division classique entre quantitatif et qualitatif : c’est le cas de l’analyse de réseaux, des analyses globales de trajectoires développées par A. Abbott, voire de techniques de modélisation faisant la part belle aux effets combinés, comme l’analyse quali-quantitative comparée. En France, l’analyse de données (analyse factorielle, classifications automatiques) a un statut particulier à cet égard puisqu’elle a été tôt développée et est connue pour mieux rendre compte que les régressions de différentes formes d’interaction (des Nétumières, 1997, Biland et al., 2008). En contrepartie, elle a souvent été durcie par la manière dont elle était enseignée en un protocole exclusif, non susceptible d’articulation avec d’autres méthodes (de régression par exemple) et sous-exploitant son potentiel d’aller et retours entre vue d’ensemble, positions de variables et des individus [3][3] Il existe heureusement des exceptions : voir par exemple,....

15

Même si des pistes bien balisées existent, beaucoup reste donc à faire pour user du qualitatif dans la modélisation autrement qu’à travers une rapide enquête préliminaire permettant d’élaborer un questionnaire, en le faisant intervenir à différents stades de la recherche pour renforcer la contextualisation, sociale, dans le temps et/ou dans l’espace. I. Vari-Lavoisier explore ici plusieurs modalités de cette intervention (comme le font par exemple I. Guérin et al., 2011). Elle souligne aussi que l’usage de données pré-constituées par la statistique publique ne permet pas toujours d’opérer les re-catégorisations qui seraient pertinentes au retour du terrain ethnographique, malgré les pistes ouvertes en la matière par l’article de V. Girard. Même dans ce cas, travailler à partir des tensions, des frottements entre les catégories de la mesure et celles de l’interprétation reste un des meilleurs moyens d’améliorer un modèle (Padgett, 2011).

Au-delà de la simple mesure : quantification et formalisation

16

S’il est ainsi possible de rendre plus intéressant et plus porteur d’innovations le programme standard même que dénonce A. Abbott, bien des développements originaux des méthodes quantitatives, qualitatives et des combinaisons entre elles ont, depuis trente ans, suivi une voie assez différente. Il s’agit là moins de compter que de décrire, puisque le chiffre et la mesure s’effacent relativement, en particulier parce que ce n’est pas l’établissement d’un ordre de grandeur qui est visé (ils ont en revanche souvent un rôle auxiliaire de test de la robustesse des résultats). Mais cette description se présente comme abstraite, voire comme positiviste ou explicative (des termes employés par Abbott, 2001b et 2003). Elle est en cela assez différente de celle à laquelle on pense habituellement en se référant par exemple aux descriptions historiques ou anthropologiques. Ces approches sont ainsi plutôt « formelles » que quantitatives au sens strict, comme l’a bien explicité C. Tilly dans un article qui propose de regarder le paysage des méthodes de façon un peu inhabituelle (et fournit de nombreuses références à des expériences méthodologiques originales : Tilly, 2004).

17

Leur but est de mettre au jour des régularités, des structures, mais en passant par leur détection comme formes, comme motifs. Pour ce faire, les représentations graphiques, au stade de l’exploration des données et/ou de la présentation des résultats, deviennent des outils privilégiés. Ces représentations peuvent être produites par des logiciels dédiés ou bien être des croquis improvisés par les chercheurs avec les moyens du bord : ce sont souvent, du reste, les seconds qui finissent par donner naissance aux premiers, et les plus utiles parmi les premiers sont ceux qui permettent de réordonner, zoomer ou simplifier de la façon la plus souple. Les articles de B. Milard et de M. Grossetti donnent ici de bons exemples d’usages de cette manière de voir et de donner à voir, et notamment de la circulation qu’elle permet entre différentes échelles, le graphe s’avérant proche tantôt du récit (même s’il s’en distingue en n’étant pas séquentiel mais en offrant plutôt des arrêts sur image), tantôt du tableau agrégé. Sans remplacer la description ni l’explication en langue naturelle, puisqu’il reste toujours en interaction étroite avec elle, il permet dans une certaine mesure de repousser ses limites, déjà notées par J.-C. Passeron.

18

C’est aussi sur les effets heuristiques inattendus produits par la juxtaposition de deux cartes que se conclut un appel déjà ancien, mais trop peu entendu de D. Milo à l’expérimentation tous azimuts, par opposition aux associations routinières entre thèmes et méthodes et au ronron quantitatif (Milo, 1987). Pour lui, expérimenter, c’est à la fois se donner les moyens de tester des hypothèses et assumer un bricolage presque ludique : un programme qui reste d’actualité.


Références

  • Abbott A., 2001a. Chaos of Disciplines. Chicago, Chicago University Press.
  • Abbott A., 2001b. Time matters: On theory and method, Chicago, University of Chicago Press.
  • Abbott A., 2003. La description face à la temporalité, in Blundo G. et Olivier de Sardan J.-P., Pratiques de la description, Paris, éditions de l’EHESS.
  • Abbott A., 2004. Methods of discovery: Heuristics for the social sciences. New York, W.W. Norton & Co.
  • Ayache M., Dumez, H., 2011. Le codage dans la recherche qualitative : une nouvelle perspective ?, Le Libellio d’AEGIS, 7(2), 33-46.
  • Becker H. S., 2009. À la recherche des règles de la recherche qualitative, La vie des idées, http://www.laviedesidees.fr/A-la-recherche-des-regles-de-la.html
  • Biland É., Eideliman J.-S., Gojard S., 2008. Ceteris (non) paribus ? Combiner régression logistique et analyse des données pour étudier les arrangements pratiques des personnes handicapées ou dépendantes, Genèses, 73, 37-56.
  • Bryman A., 2006. Integrating quantitative and qualitative research: how is it done?, Qualitative Research, 6, 97-113.
  • Coulmont B., 2011. Capitaux et réseaux. Une sociologie des églises africaines à Paris, working paper.
  • des Nétumières F., 1997. Méthodes de régression et analyse factorielle, Histoire & Mesure, XII(3/4), 271-298.
  • Fabiani J.-L., 2003. Pour en finir avec la réalité unilinéaire. Le parcours méthodologique de Andrew Abbott, Annales. Histoire, Sciences Sociales, 58(3), 549-565.
  • Ginzburg C., 1980. Signes, traces, pistes. Racines d’un paradigme de l’indice, Le Débat, 6, 3-44.
  • Grendi E., 1977. Micro-analisi e storia sociale, Quaderni storici, 35(2), 506-520.
  • Guérin I., D’Espallier B., Roesch M., Venkatasubramanian G., 2011. Debt in Rural South India: Fragmentation, Social Regulation and Discrimination, RUME Working Paper, http://www.rume-rural-microfinance.org/IMG/pdf_WP_201103.pdf
  • Hammou K., 2009. Des raps en français au « rap français ». Une analyse structurale de l’émergence d’un monde social professionnel, Histoire & Mesure, XXIV(1), 2009, 73-108.
  • Leca J., 2005, Un vieux débat. L’identité et la pertinence de la science politique, Congrès de l’Association française de science politique, Lyon, 15 septembre 2005.
  • Lemercier C. et Zalc C., 2008. Méthodes quantitatives pour l’historien, Paris, La Découverte.
  • Lepetit B., 1989. L’histoire quantitative : deux ou trois choses que je sais d’elle. Histoire & Mesure, IV(3-4), 191-199.
  • Marpsat M., 2010. Écrire la rue : de la survie physique à la résistance au stigmate, Sociologie, 1(1), 95-120.
  • Milo D., 1987. La rencontre insolite mais édifiante du culturel et du quantitatif, Histoire & Mesure, II(2), 1987, 7-37.
  • Ollivier C., 2010. Les architectes d’intérieur : division du travail et concurrences, Thèse de doctorat de l’Université de Versailles Saint Quentin en Yvelines
  • Padgett, J. F., 2011. Introduction to « Marriage and Elite Structure in Renaissance Florence, 1282-1500 », Redes, http://revista-redes.rediris.es/
  • Passeron J.-C., 1991. Le raisonnement sociologique. L’espace non-poppérien du raisonnement naturel, Paris, Albin Michel.
  • Passeron J.-C., 2001. La forme des preuves dans les sciences historiques, Revue européenne des sciences Sociales, XXXIX(120), 31-76.
  • Pratt, M. G., 2008. Fitting Oval Pegs Into Round Holes. Tensions in Evaluating and Publishing Qualitative Research in Top-Tier North American Journals, Organizational Research Methods, 11(3), 481-509.
  • Rihoux B., De Meur G., Marx A., van Hootegem G., Bursens P., 2004. Une « troisième voie » entre approches qualitative et quantitative ? L’analyse comparée systématique de cas : ouvrir le(s) débat(s), Revue internationale de politique comparée, 11(1), 117-153.
  • Sofio S., 2010. Créer, compter : panorama critique de l’usage du quantitatif en art, in B. Joyeux-Prunel (dir.), L’Art et la Mesure. Histoire de l’art et approches quantitatives, Paris, éditions de la rue d’Ulm, 113-140.
  • Tashakkori A. et Teddlie C. (eds.), 2010. Handbook of mixed methods in social & behavioral research, Thousand Oaks, Sage (1re éd. 2003).
  • Tilly C., 2004. Observations of Social Processes and Their Formal Representations, Sociological Theory, 22(4), 595-602.
  • Truc G., 2011. Analyser un corpus illisible ? Le logiciel Alceste confronté à des registres de condoléances, Langage et société, 2011, 135, 29-45.

Notes

[1]

Parmi les plus récents de ces débats, on peut citer la journée « «Quantitatif / qualitatif». En finir avec une opposition contre-productive » organisée le 3 mai 2010 à l’ENS Jourdan par Pierre de Larminat, Mathilde Olivier et Rémi Sinthon et dont sont issus les textes de N. Fillion et N. Krautberger publiés ici, ainsi que la table ronde de 2007 de l’Association française de science politique « Réflexions sur les méthodes en science politique des deux côtés de l’Atlantique », dont on peut lire les textes en ligne (http://www.afsp.msh-paris.fr/congres2007/tablesrondes/progtr/progtr1.html).

[2]

La promotion de règles précises pour une systématisation de la recherche qualitative (prenant par exemple la forme de l’usage des logiciels dits CAQDAS, pour computer-aided qualitative data analysis software) nous paraît mener vers les mêmes impasses, s’il s’agit de faire de pratiques intéressantes en elles-mêmes un modèle applicable à toute recherche. Pour une discussion polémique de ce point, on peut notamment lire Becker, 2009

[3]

Il existe heureusement des exceptions : voir par exemple, outre les articles précités, Sofio, 2010. La lexicométrie, qui utilise les méthodes de l’analyse de données, est de la même manière souvent routinisée, lorsqu’elle est utilisée, mais ce n’est pas une fatalité (voir par exemple Marpsat, 2010) et elle peut également constituer un moyen efficace d’aller comptage et description fine. Pour un panorama des outils évoqués ici, Lemercier et Zalc, 2008.

Plan de l'article

  1. Quantitatif vs qualitatif : et si la question ne se posait plus ?
  2. Inventer de nouveaux assemblages
  3. Au-delà des grands nombres et de la représentativité : sortir des complexes de la quantification
  4. Encastrer les modèles dans le social
  5. Au-delà de la simple mesure : quantification et formalisation

Pages 5 - 16 Article suivant
© 2010-2017 Cairn.info