CAIRN.INFO : Chercher, repérer, avancer.

1Si plusieurs études ont mis en évidence la diversité des fonctions et des conventions engagée dans la publication scientifique [1], la question de la signature reste à approfondir. B. Fraenkel a bien montré que la signature est inscrite dans une longue tradition juridique du côté des signes dits « de validation », et qu’elle est simultanément porteuse d’une conception particulière de l’identité. Tandis que les signes de validation ont pour fonction de transformer un document écrit en acte juridique authentique, les signes d’identité constituent des repères permettant de référer à une personne [2]. Interroger les registres de la signature en science, c’est donc appréhender les conventions spécifiques qui lui confèrent à la fois les capacités de validation des énoncés et l’indexation de ceux-ci à leur(s) auteur(s). Un tel questionnement soulève directement le problème de l’authentification des connaissances scientifiques et le rôle décisif qu’y joue la publication.

2C’est en leur évaluation et leur publication que les énoncés produits acquièrent un statut de validité, une qualité singulière. Pour que ce processus opère complètement, les énoncés scientifiques doivent être impérativement liés au nom de leur(s) auteur(s). Tant l’authenticité que l’autorité qui leur sont conférées en résultent [3].

3L’importance de la signature déborde largement le cadre des activités scientifiques. Le monde de l’art et de la littérature, mais aussi le monde économique sont traversés par son hégémonie croissante : la consommation de tel produit plutôt que tel autre est dans bien des cas attachée au nom autant qu’au bien [4]. Cette présence de la signature dans la production-consommation des biens culturels est essentielle. Elle souligne une dimension marchande à laquelle les pratiques scientifiques pourraient bien être assujetties : le(s) nom(s) propre(s) attaché(s) aux énoncés semblent fonctionner de plus en plus comme des marques commerciales. Il n’est évidemment pas question de redécouvrir ici un processus bien connu sous la formule « effet Matthieu » [5]. Mettre l’accent sur la marque, c’est insister sur le type de « commerce » auquel donne lieu l’économie du savoir. Commerce qui articule deux sens difficilement ajustables : le commerce intellectuel fondé sur la circulation du capital symbolique, et le commerce économique basé sur l’accumulation du capital financier. Interroger la signature, c’est donc questionner les pratiques qui contribuent à une certaine « marchandisation » des productions scientifiques. À ce titre, l’usage actuel des outils bibliométriques dans les procédures d’évaluation est exemplaire : il semble montrer l’impact du facteur d’impact tant sur les activités quotidiennes des chercheurs que sur la signification particulière qui est dorénavant attribuée à la signature en science.

4Reste à étudier les conditions socio-historiques qui concourent à un déplacement des registres de la signature scientifique : le passage d’un registre d’authentification à un registre de « marchandisation ». Dans cet article, il s’agira d’un travail empirique d’analyse des pratiques de signature en science [6].

5Les « philosophes naturels » (natural philosophers) qui se réunissaient à la Royal Society prônaient l’expérimentation comme forme de connaissance qui, selon eux, était la seule à garantir avec certitude l’établissement de « faits » [7]. La construction des faits passait par l’élaboration d’instruments dont le maniement était réalisé publiquement. Les expériences nécessitaient d’être effectives et les membres de la communauté devaient pouvoir s’en assurer. La présence physique de témoins était donc constitutive de l’établissement des faits expérimentaux.

6Les témoins attestaient de ce qu’ils avaient vu, et pouvaient ainsi le rapporter à d’autres à l’oral ou par lettre. Cette opération de validation s’appuyait sur une procédure juridique particulière : les témoins certifiaient la validité des expériences par la signature d’un registre [8]. Cette procédure en appelle directement aux caractéristiques juridiques de la signature [9]. Le pouvoir de validation du signe atteste non seulement la présence de la personne au moment de l’expérience, mais aussi son engagement dans la validation des faits. Avec cet engagement, la présence physique inscrite dans le registre devient graphique : elle est conservée par écrit. Elle peut être transportée dans un cadre spatio-temporel qui déborde largement le seul lieu et le seul moment de l’expérience. Attestés et authentifiés, les faits deviennent difficiles à remettre en cause. La signature du registre confère ainsi au fait expérimental toute sa légitimité. Signe de validation, son apposition réfère également à son statut de signe d’identité puisque les témoins plausibles, s’ils ne sont pas tous membres de la communauté expérimentale, font partie de ceux qui manient les lettres : érudits, philosophes, théologiens, chanceliers…

7Le programme expérimental a favorisé le développement des comptes rendus précis, signés et consignés dans la revue de la Royal Society. La publication régulière des Philosophical Transactions assurait une annonce fiable et rapide que ne garantissaient ni les autres supports (livres, lettres, traités), ni les sociétés savantes instituées dans un tout autre contexte politique [10]. La revue de la Royal Society était un carrefour incontournable de la présentation de résultats expérimentaux à un large public d’amateurs de science se professionnalisant autour d’une certification collective des connaissances par l’instauration d’un système de referees et du peer review[11].

Itinéraire de l’Institute for Scientific Information

8Avec le développement exponentiel de l’activité scientifique [12], au cours des siècles suivants, les contours de ce « marché » s’étendent considérablement. Les publications deviennent tellement nombreuses qu’il est de plus en plus difficile pour les chercheurs de se tenir au courant des dernières parutions dans leur(s) domaine(s) d’investigation.

9L’indexation des connaissances scientifiques pose des problèmes de gestion aux bibliothécaires et aux documentalistes. Afin d’y faire face, ceux-ci ont développé un ensemble d’outils bibliométriques [13]. Dans les années 1960, Derek J. de Solla Price développe une « science de la science » qui consiste à appliquer à la science elle-même ses propres méthodes de mesure afin de mettre au jour les lois qui régissent la croissance de l’activité scientifique considérée dans sa globalité [14]. Parallèlement, Eugene Garfield creuse la question de l’indexation des revues et du rôle des citations à la fin des années 1950. En 1958, il fonde une société privée à Philadelphie, l’Institute for Scientific Information (ISI). Spécialisée dans les analyses bibliométriques, cette société développe des instruments pour la recherche bibliographique : le Citation Index, le Source Index et le Permuterm Subject Index. Ces bases de données sont destinées aux chercheurs et aux bibliothécaires afin de faciliter les recherches de références nécessaires à leurs activités professionnelles. En 1963, l’ISI publie pour la première fois un index répertoriant par disciplines les citations qui sont faites dans la littérature spécialisée : le Science Citation Index[15].

10Cet index a largement contribué à accroître les connaissances statistiques sur les publications scientifiques. Les analyses bibliométriques ont d’ailleurs trouvé un écho particulier dans les travaux des sociologues des institutions scientifiques qui se sont développés au même moment [16]. Avec la multiplication de ces recherches, les publications qui servent de support aux différents calculs prennent alors un poids considérable. Elles deviennent l’unité de mesure de la productivité des chercheurs, des laboratoires ou des nations [17], et consacrent du même coup la notion de « revues centrales ». Les index produits « ont été de plus en plus utilisés pour la mesure du niveau de la production scientifique et de son impact » [18]. Ce faisant, les critères de jugement de la qualité des travaux scientifiques se sont progressivement déplacés. Le système d’évaluation collective instauré au sein des revues qui concourt à la certification des connaissances en publiant les contributions semble ne plus suffire. La qualité des travaux se juge désormais en aval de cette première évaluation par le taux de citations que reçoit l’article après sa publication. Ce déplacement de l’évaluation concentre l’attention sur le « facteur d’impact » et participe à sa consécration.

Sur le site ISI, un résultat de recherche de références qui permet à l’utilisateur de citer précisément un article sans avoir à le lire mais en sachant s’il a déjà été cité.

figure im1

Sur le site ISI, un résultat de recherche de références qui permet à l’utilisateur de citer précisément un article sans avoir à le lire mais en sachant s’il a déjà été cité.

Le « facteur d’impact » comme étalon

11À la suite de la parution du Science Citation Index (SCI), les membres de l’ISI ont développé des analyses fondées sur les citations des articles scientifiques. Parmi celles-ci, l’indice le plus utilisé est le facteur d’impact (impact factor). Il est publié chaque année après un dépouillement systématique de l’ensemble des articles publiés dans 8 000 périodiques scientifiques et techniques publiés en trente-cinq langues [19]. La seule base du SCI contient environ 13 millions de références et 150 millions de citations enregistrées. L’ensemble des références et des citations qui sont effectuées au sein de chacun des articles est comptabilisé. Ainsi, les publications qui servent de sources au comptage sont uniquement des articles de recherche publiés dans des revues ou bien des notes techniques. Ces articles « citant » ouvrent en revanche sur une multitude de références, autant d’entités « citées » : articles, éditoriaux, lettres de la rédaction, livres, rapports, résumés de congrès…

12Le facteur d’impact représente le rapport entre le nombre de citations et le nombre d’articles publiés dans une revue sur une période de référence de deux ans. Ce calcul mesure la fréquence moyenne avec laquelle la totalité des articles d’une revue est citée pendant une période de deux ans. Par exemple, le facteur d’impact de l’année 1995 pour la revue Science est issu du calcul suivant : le nombre d’articles publiés en 1993 (1 030) et 1994 (1 054) est de 2 084, le nombre de citations en 1995 des articles publiés en 1993 (24 979) et 1994 (20 684) est de 45 663, le facteur d’impact (nombre de citations [45 663] divisé par nombre d’articles [2 084]) est de 21,911. Pour l’année 1995, un facteur d’impact est donc calculé sur les articles publiés au cours des deux années précédentes, en 1993 et 1994. Un certain délai sépare cependant la base de ce calcul, le résultat du calcul et sa publication. Le résultat du calcul concernant le facteur d’impact de l’année 1995 n’est en effet publié qu’en 1997. S’il relate l’impact d’une revue pour deux années, le facteur d’impact n’exprime pas la situation des revues l’année de leur publication.

13En 1972, Garfield fait paraître un article dans Science, revue s’adressant à l’ensemble de la communauté scientifique [20]. Le titre, significatif, « Citation analysis as tool in journal evaluation », exprime clairement ses ambitions : annoncer comment les revues peuvent être évaluées et classées par la fréquence et l’impact de leurs citations, et comment ces calculs sont des outils pour les études de la production scientifique. Garfield fait l’apologie de cet outil qui permet aux bibliothécaires de déterminer les « bonnes » revues pour le renouvellement des abonnements, aux chercheurs de sélectionner celles qui sont à lire en priorité, aux responsables de revues de maintenir ou de corriger leur politique éditoriale. Mais pour lui, « la plus importante application de l’analyse des citations se trouve dans les études de politique scientifique et l’évaluation de la recherche » [21].

14Le ton est donné. Non seulement l’analyse des citations est un outil utile pour les membres des différentes professions qui s’agencent autour de la publication scientifique, mais c’est également un outil d’évaluation pertinent de cette activité. Le classement des revues que dessine l’analyse des citations et qu’exhibent les facteurs d’impact est difficilement contestable, puisqu’il est fondé sur des calculs systématiques. Les commissions d’évaluation de l’activité scientifique, à quelque niveau que ce soit (pour l’obtention d’un poste, d’un financement, d’un prix, d’une médaille, etc.), ont donc tout intérêt à se servir de cet outil.

15Élaboré comme un simple indicateur de l’utilisation de la littérature spécialisée, le facteur d’impact change peu à peu de statut. Relayé tant par son porte-parole officiel que par ceux qui mesurent les productions scientifiques dans leurs cabinets d’études ou leurs laboratoires universitaires, il est de plus en plus présent dans les pratiques. Outil d’analyse et de connaissance, il devient un instrument de décisions. Comptabilisées et classées, les revues se font le relais de cette hiérarchisation. Certaines n’hésitent pas (lorsque l’indice est valorisant) à exposer leur facteur d’impact afin d’affirmer publiquement leur position. Par exemple, dans le premier paragraphe de présentation de chaque numéro de la revue Social Studies of Science (« About the journal »), ainsi que sur son site web [22], on peut lire :

16

Social Studies of Science est la première revue sur les relations cruciales entre science et société. Elle a le plus fort facteur d’impact dans la catégorie « histoire et philosophie de la science ».
(Social Science Citation Index, 1996.)

17En reprenant à leur compte le classement élaboré par l’ISI, les revues participent à sa diffusion et à sa légitimation. Les auteurs se trouvent dorénavant face à une diversité d’espaces de publication méticuleusement répertoriés et hiérarchisés. Leurs soumissions d’articles ne s’opèrent pas seulement en fonction de la « connaissance de membres » du domaine qu’ils investissent. Elles sont équipées[23] d’un critère « objectif » : la hiérarchie des revues est explicitement objectivée par la publication régulière des facteurs d’impact dans le Journal Citation Reports (publié depuis 1975). Et cet équipement des décisions est dans certains cas relativement incorporé aux pratiques. En biologie par exemple, les revues n’ont plus besoin d’exhiber leur rang calculé par le facteur d’impact : la liste publiée par l’ISI est régulièrement photocopiée pour l’ensemble des équipes du laboratoire. Elle est présente parmi la multitude des documents imprimés qui sont étalés sur les bureaux. La consultation régulière des facteurs d’impact participe donc avec d’autres éléments (thème de la recherche, types de résultats obtenus, audience visée, etc.) au choix de la revue à laquelle l’article sera soumis. Car l’évaluation des travaux fait dorénavant un détour par ce critère. Les membres des commissions de spécialistes de nombreuses disciplines se réfèrent au classement des revues pour évaluer les travaux des candidats [24].

18Ce détour par les indices produits par l’ISI n’est pas sans susciter des réactions plus ou moins vives [25] :

19

Les gens du Science Citation Index ? Ils sont fous. […] Enfin, je veux dire que c’est ridicule [en riant]. Pour une grande part, c’est un artefact. […] Mon opinion est que c’est dégoûtant d’inclure les citations dans l’évaluation des postes et des promotions à l’université. Je pense que c’est réellement dégoûtant et désobligeant. Ça joue un rôle grandissant… c’est pris en compte dans les promotions et parfois dans les offres d’emploi.
(Un sociologue.)

20

Je n’y attache aucune importance, parce que si vous voulez, il faut bien voir quand même que tout ça est très quantitatif et n’a aucune valeur qualitative, contrairement à ce qu’ils disent. […] Quand vous avez publié dans une revue, vous êtes nécessairement cité. Pas nécessairement lu d’ailleurs, parce que ce qui compte c’est le nombre de citations. Alors cette approche quantitative de la recherche, pour moi, n’a aucune valeur [avec un ton insistant].
(Une juriste.)

21Bien que la légitimité du facteur d’impact soit contestée à plusieurs niveaux (faiblesse méthodologique, évaluation des chercheurs, etc.), sa diffusion et son utilisation sont tout de même effectives. Issu d’un mouvement de rationalisation à la croisée des activités des bibliothécaires, d’instituts de bibliométrie et des chercheurs eux-mêmes, il participe à la circulation régulière d’une hiérarchie des revues et contribue à sa stabilisation. Les stratégies individuelles des chercheurs sont également partie prenante de ce processus. Au quotidien, ils peuvent mobiliser le facteur d’impact soit pour faire de l’autopromotion, soit pour dévaloriser les concurrents en spécifiant qu’ils ne publient pas beaucoup, et que lorsqu’ils publient dans les bonnes revues, leur taux de citation est faible, voire nul. En s’appropriant le facteur d’impact à leurs propres fins, les scientifiques sont donc eux aussi engagés dans sa consécration.

La signature comme instrument de mesure

22Le facteur d’impact des revues donne une distribution hiérarchisée des publications par pays, par domaine, par discipline, par spécialité, etc. Mais puisque l’unité de mesure de l’index est l’article scientifique, il est également utilisé pour classer les articles et leurs auteurs. Ainsi, Garfield et ses collaborateurs proposent dès les premiers calculs d’indices un classement des contributions par domaine et par auteur ; le titre des comptes rendus est sans équivoque : « The 250 most-cited primary authors, 1961-1975. Part 3 : Each author’s most-cited publication » [26]. Tant les publications que les auteurs sont alors ordonnés en fonction du nombre de citations qu’ils reçoivent. Intégrés dans une perspective d’évaluation de la production scientifique, les indices produits notamment par l’ISI se transforment donc en critères qui orientent l’action.

23Les espaces se hiérarchisent alors de plus en plus et la question de la place devient primordiale. Le lieu de publication est un critère discriminant pour les commissions d’évaluation équipées de leur liste de facteurs d’impact. Les « bonnes » places sont les revues qui ont un taux de citation élevé. Mais ce n’est pas tout. L’unité de base des calculs opérés par l’ISI étant l’article, seul le premier auteur est indexé dans la base de données à côté du titre de l’article. Pour un auteur, l’indice de citation ne prend « pas en compte les travaux collectifs auxquels il a participé et pour lesquels il n’apparaît pas en première place dans la liste des coauteurs » [27]. Si l’espace graphique est hiérarchisé entre les auteurs et ceux qui sont remerciés [28], l’instauration du facteur d’impact comme étalon d’évaluation opère une hiérarchie supplémentaire. Il ne suffit plus d’être auteur d’une publication, il faut être placé en premier nom.

24

Tout ça pour dire que dans une signature chaque place a un sens.… Dans un premier temps, c’est important d’apparaître en premier, parce que quand tu cites, tu ne cites que le premier auteur. Dans ce sens, ça permet aux autres de repérer que tu es dans ce domaine-là. Quand tu signes en dernier ça veut dire qu’a priori tu as une responsabilité plus importante. Donc au départ tu te construis en disant moi, j’existe sur ce sujet-là, et puis quand tu as existé, tu dis, maintenant, j’apparais comme le responsable de ce projet-là.
(Un biologiste.)

25

Dans le département de sociologie, et récemment à l’école d’infirmières, ils n’acceptent pas les articles cosignés. Ils considèrent que ce n’est pas votre propre travail. Ici dans les sciences médicales il y a tant de cosignatures qu’il n’est pas possible pour quiconque de dire qu’ils ne vous accepteront pas si vous avez des publications cosignées. Et ce sur quoi ils se focalisent, c’est le premier auteur, ils regardent ça.
(Un sociologue américain.)

26La première place est valorisée tant par l’effacement des coauteurs qu’induit la formule « et alii » que par la procédure d’enregistrement des citations par l’ISI. Les chercheurs prennent d’ailleurs des initiatives qui renforcent la valeur de cette place. Par exemple, dans la formation doctorale de biologie de l’université Paul-Sabatier à Toulouse, la mise en ordre des noms est hautement codifiée. Pour pouvoir soutenir leur thèse, les doctorants doivent préalablement comptabiliser trois points. Ces points sont calculés en fonction d’un certain nombre de critères : avoir été moniteur confère un point, suivre un stage de formation en donne un supplémentaire. Le troisième point s’acquiert obligatoirement avec une publication en premier nom dans une revue dont le facteur d’impact est supérieur ou égal à un. Il est calculé proportionnellement à l’ordre des revues et à l’ordre des noms. De ce fait, si l’auteur se trouve en deuxième position dans une revue dont le facteur d’impact est de un, il ne comptabilise qu’un demi-point ; s’il est troisième dans une revue dont le facteur d’impact est de deux, il comptabilise deux tiers de point. Le caractère obligatoire de cette publication implique que l’article soit accepté dans une revue afin que la commission de spécialistes donne son accord pour la soutenance de la thèse [29].

27La « lutte pour la vie » dans la cité scientifique [30] trouve ici une forme d’expression singulière : elle se transforme en une lutte pour la visibilité. Ce placement stratégique est l’objet d’un travail continu où s’articulent espaces graphiques (ordre des noms, taille des caractères, revues spécialisées, maisons d’édition, etc.) et espaces sociaux (réunions, colloques, conférences, etc.), où la visibilité des noms s’associe à celle des personnes [31]. Calculée par le nombre de citations reçues, cette visibilité fondée sur un critère quantitatif se fait l’écho de la qualité des travaux. Elle la supplante peu à peu par les outils sophistiqués qu’elle déploie, malgré les réticences de certains.

28Dans ce contexte hautement rationalisé, la signature scientifique opère un retour fulgurant. La mise en ordre qui s’effectue progressivement avec l’instauration du facteur d’impact réhabilite avec force la question du nom et de sa place. Ce retour de la signature s’effectue néanmoins sous un certain registre. Les premières sociétés savantes avaient institué un système d’évaluation et de certification par le biais du peer review. Jusqu’à l’émergence des outils quantitatifs d’évaluation des publications, la signature scientifique opérait une fonction de « référence identifiante » garantissant l’attribution des contributions : elle permettait de répondre à la question : « Qui a produit ce texte ? » Elle matérialisait ainsi un lien d’authenticité entre le texte et la personne. Ce lien authentique caractérisait tant les compétences de l’auteur que la qualité de ses énoncés. Il assurait l’autorité de l’énonciateur et de ses énoncés [32]. Avec le développement des indices produits par l’ISI, ces conventions sont dorénavant couplées à un autre critère de qualité. L’utilisation régulière des index s’institue en norme difficilement contestable puisqu’elle s’appuie sur des calculs réalisés avec des instruments scientifiques sur des productions scientifiques. Elle perpétue ainsi une vision scientiste à la puissance deux. La mobilisation des index de citations comme instrument de mesure contribue à l’instauration d’une nouvelle pratique d’évaluation. La signature devient une « référence normative ». Les critères de jugement de la qualité des contributions scientifiques se dédoublent : à l’unique authentification par la publication s’ajoute la prise en compte des citations. La signature apposée sur la publication est l’objet d’un calcul qui hiérarchise les places. (Dans quelle revue a t-il publié, combien vaut cette revue, quel est son rang dans les cosignatures, combien vaut-il ?)

29Producteurs et produits sont donc distribués sur une échelle de valeur objectivée. La qualité des énoncés est dorénavant calculable. Elle permet d’instaurer chaque revue (et chaque article) en un produit dont on peut caractériser la valeur. Le produit devient « objectivement » comparable, substituable et échangeable : il se fait marchandise ayant une certaine cotation sur le marché académique. Le régime de l’attribution n’est plus uniquement symbolique, il devient marchand [33]. Mais ce n’est pas tout. Ce calcul exercé par et sur les productions scientifiques s’installe au fur et à mesure dans les pratiques : les chercheurs sont de plus en plus confrontés à une évaluation équipée des indicateurs sur leurs travaux. Institué dans les instances d’évaluation, ce dispositif équipe également les modalités de publication : chaque chercheur doit évaluer stratégiquement la place que lui apportera une visibilité maximale (pour une publication, un financement, un poste, un prix, etc.). De façon tendancielle, le comptage « objectif » de ses contributions contraint tout chercheur subjectif à devenir un calculateur.

Notes

  • [1]
    H. A. Zuckerman et R. K. Merton, « Patterns of evaluation in science : institutionalization, structure and functions of the referee system », Minerva, vol. IX, n° 1, 1971, p. 66-100 ; D. Lindsey, The Scientific Publication System in Social Science, San Francisco, Californie, Jossez-Bass, 1978 ; D. Crane, « The gate-keepers of science : some factors affecting the selection of articles for scientific journals », American Sociologist, vol. II, n° 1, 1967, p. 195-201 ; M. D. Gordon, « How authors select journals : a test of the reward maximization model of submission behaviour », Social Studies of Science, vol. XIV, n° 1, 1984, p. 27-43 ; D. E. Chubin, Peerless Science. Peer Review and US. Science Policy, Albany, NY, SUNY Press, 1990. Je remercie tout spécialement Yves Gingras, pour ses remarques critiques très judicieuses et Jérôme Denis, pour ses suggestions pertinentes qui ont largement enrichi des versions antérieures de ce texte.
  • [2]
    B. Fraenkel, La Signature. Genèse d’un signe, Paris, Gallimard, 1992.
  • [3]
    G. Leclerc, Histoire de l’autorité. L’assignation des énoncés culturels et la généalogie de la croyance, Paris, PUF, coll. « Sociologie d’aujourd’hui », 1996.
  • [4]
    G. Leclerc, Le Sceau de l’œuvre, Paris, Le Seuil, 1998.
  • [5]
    R. K. Merton, « The Matthew effect in science », Science, vol. CLIX, n° 3810, 1968, p. 56-63.
  • [6]
    Les matériaux empiriques utilisés dans l’analyse (extraits d’entretiens et notes ethnographiques) sont issus de ce travail d’investigation, publié en partie in D. Pontille, « Figures de la signature scientifique », Cahiers internationaux de sociologie, vol. CIX, 2000, p. 283-316 ; D. Pontille, « L’auteur scientifique en question : pratiques en psychologie et en sciences biomédicales », Social Science Information-Information sur les sciences sociales, vol. XL, n° 3, 2001, p. 433-453.
  • [7]
    S. Shapin et S. Schaffer, Léviathan et la pompe à air. Hobbes et Boyle entre science et politique, Paris, La Découverte, 1993 ; C. Licoppe, La Formation de la pratique scientifique. Le discours de l’expérience en France et en Angleterre (1630-1820), Paris, La Découverte, 1996 ; B. S. Shapiro, A Culture of Fact, England 1550-1720, Cornell, Cornell University Press, 2000.
  • [8]
    S. Shapin et S. Schaffer, Léviathan et la pompe à air…, op. cit., p. 61.
  • [9]
    B. Fraenkel, La Signature…, op. cit.
  • [10]
    Sur les liens entre activité scientifique, régime politique et presse à imprimer, voir tout particulièrement E. L. Eisenstein, La Révolution de l’imprimé dans l’Europe des premiers temps modernes, Paris, La Découverte, 1991, chap. vii ; S. Shapin et S. Schaffer, Léviathan et la pompe à air…, op. cit., chap. vii et viii.
  • [11]
    H. A. Zuckerman et R. K. Merton, « Patterns of evaluation in science… », art. cit.
  • [12]
    D. J. Price, Little Science, Big Science, New York, Columbia University Press, 1963.
  • [13]
    E. Brodman, « Methods of choosing physiology journals », Bulletin of the Medical Library Association, vol. XXXII, 1944, p. 479-483.
  • [14]
    D. J. Price, Science since Babylone, New Haven, Yale University Press, 1961 ; D. J. Price, Little Science…, op. cit.
  • [15]
    Les revues de sciences sociales qui figuraient dans cet index sont regroupées depuis le début des années 1970 dans un index spécial, le Social Science Citation Index. Sur Eugene Garfield, voir également, dans ce numéro, l’article de Johan Hilbron.
  • [16]
    P. D. Allison et J. A. Stewart, « Productivity differences among scientists : evidence for accumulative advantage », American Sociological Review, vol. XXXIX, n° 4, 1974, p. 596-606 ; J. Ben-David, « Scientific productivity and academic organization in nineteenth century medicine », American Sociological Review, vol. XXV, n° 6, 1960, p. 828-843 ; S. Cole et J. R. Cole, « Scientific output and recognition : a study in the operation of the reward system in science », American Sociological Review, vol. XXXII, n° 3, 1967, p. 377-390 ; S. Cole et J. R. Cole, « Visibility and structural bases of awareness in science », American Sociological Review, vol. XXXIII, n° 3, 1968, p. 387-413 ; H. A. Zuckerman, « Patterns of name ordering among authors of scientific papers : a study of social symbolism and its ambiguity », American Journal of Sociology, vol. LXXIV, n° 3, 1968, p. 276-291.En ligne
  • [17]
    F. Narin, Evaluative bibliometrics : the use of publication and citation analysis in the evaluation of scientific activity, Cherry Hill, New-Jersey, Computer Horizons, 1976 ; M. P. Carpenter et F. Narin, « Clustering of scientific journals », Journal of the American Society for Information Science, vol. XXIV, n° 6, 1973, p. 425-436.En ligne
  • [18]
    M. Callon, J.-P. Courtial et H. Penan, La Scientométrie, Paris, PUF, coll. « Que sais-je ? », 1993, p. 5.
  • [19]
    L’ensemble des périodiques existants n’est bien entendu pas répertorié. Une place importante est réservée à ceux de langue anglaise.
  • [20]
    Deux ans auparavant, il en avait publié un dans une autre grande revue : E. Garfield, « Citation indexing for studying science », Nature, vol. CCXXVII, 1970, p. 669-671.
  • [21]
    E. Garfield, « Citation analysis as tool in journal evaluation », Science, vol. CLXXVIII, 1972, p. 478.
  • [22]
  • [23]
    F. Cochoy, « De l’embarras du choix au conditionnement du marché. Vers une socio-économie de la décision », Cahiers internationaux de sociologie, vol. CVI, 1999, p. 145-173.
  • [24]
    Par exemple en biologie, cette référence est alimentée par un document joint aux dossiers (« D’un bon usage du facteur d’impact »), qui explique aux membres de la commission les fondements du calcul des indices de l’ISI et leurs modalités d’utilisation.
  • [25]
    Pour des analyses critiques de son utilisation en sociologie, voir D. E. Chubin, « On the use of the Science Citation Index in sociology », American Sociologist, vol. VIII, n° 4, 1973, p. 187-191 ; J. R. Cole et S. Cole, « Measuring the quality of sociological research : problems in the use of the Science Citation Index », American Sociologist, vol. VII, n° 1, 1971, p. 23-29 ; E. S. Clemens, W. W. Powell, K. McIlwaine et D. Okamoto, « Careers in print : books, journals, and scholarly reputations », American Journal of Sociology, vol. CI, n° 2, 1995, p. 433-494.
  • [26]
    Current Contents, vol. LI, 1977, p. 5-20.
  • [27]
    M. Callon, J.-P. Courtial et H. Penan, La Scientométrie…, op. cit., p. 48.
  • [28]
    D. Pontille, « L’auteur scientifique en question… », art. cit.
  • [29]
    Un tel dispositif local n’est sûrement pas isolé. Il s’insère toutefois dans un contexte disciplinaire particulier et soulève avec force la question d’un mode d’évaluation uniforme à l’ensemble des disciplines scientifiques. En effet, tous les domaines scientifiques n’organisent pas, selon les mêmes scénarios, l’agencement des signatures sur les publications. Les critères qui permettent d’accéder à la liste des signataires (et à une place spécifique au sein de cette liste) ne sont ni les mêmes, ni hiérarchisés selon la même logique d’une discipline à l’autre. Sur ces aspects, voir notamment H. A. Zuckerman, « Patterns of name ordering… », art. cit. ; D. Pontille, « L’auteur scientifique en question… », art. cit.
  • [30]
    G. Lemaine, B. Matalon et B. Provansal, « La lutte pour la vie dans la cité scientifique », Revue française de sociologie, vol. X, n° 1, 1969, p. 139-165.
  • [31]
    L’extrait d’entretien suivant concorde avec une pratique observée lors de mon séjour aux États-Unis où, dans le département de sociologie, certains membres accrochent régulièrement un exemplaire de leurs dernières publications sur un panneau réservé à cet effet. « Je pense que ma coauteur est très politique, sa vie entière est politique. Et toute sa vie consiste à serrer la main de la bonne personne à un colloque, de boire un coup, d’avoir de l’esprit, d’être amusante et intéressante. Elle trouve les personnes les plus célèbres et parle avec elles. Et c’est de cette façon, je pense, que les citations fonctionnent. Je veux dire que c’est de cette façon […] que les choses sont citées, par ton placement stratégique : qui tu connais […] » (Une sociologue américaine.)
  • [32]
    G. Leclerc, Histoire de l’autorité…, op. cit.
  • [33]
    « Le gros problème de la publication, c’est que c’est devenu comme de l’argent. Ça nous fait vivre. Et c’est dommage parce que je pense que la publication en premier lieu est faite pour faire passer de l’information. Alors je suis peut-être très utopique, mais, normalement, elle est là pour donner des connaissances aux autres. » (Une biologiste.)
David Pontille
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 01/12/2010
https://doi.org/10.3917/arss.141.0072
Pour citer cet article
Distribution électronique Cairn.info pour Le Seuil © Le Seuil. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...