Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2008/2 (Vol. 45)

  • Pages : 80
  • DOI : 10.3917/docsi.452.0058
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 58 - 66 Article suivant

Collections, archivage, services : quelle nouvelle donne pour la bibliothèque ?

1

Analyse. Foisonnant, volatile, contingent, le Web donne une visibilité parfois trompeuse aux travaux des chercheurs. Il pose aux professionnels de la documentation le problème de la pérennité des accès tout en remettant en question la notion même de collection. Constatant que la fonction de conservation n’est plus du seul ressort des bibliothèques et qu’elle est devenue un créneau commercial pour d’autres acteurs, François Cavalier s’interroge sur les missions et le positionnement des grandes institutions documentaires.

2

Parmi les institutions qualifiables de « lieux de mémoire », la bibliothèque occupe une place que nul ne lui conteste. Les bibliothécaires, comme les amoureux du livre, ont toujours affectionné cette dimension de la conservation pérenne du document et les précautions multiples qui l’accompagnent ; ils chérissent ce frisson de travailler pour le lecteur futur et inconnu qui, grâce à leurs soins vigilants, trouvera le document rare ou précieux qui mettra en mouvement sa pensée et lui permettra de faire progresser la connaissance humaine ou de faire don, à son tour, d’une œuvre nouvelle qui élargira notre compréhension du monde. Mais les besoins présumés de ces merveilleux lecteurs inconnus et imaginés, qu’il est si tentant de préférer aux lecteurs bien réels et exigeants que nos prédécesseurs nous ont bravement légués, plongent le bibliothécaire dans les affres du dilemme « communication versus conservation » si bien décrit par Umberto Eco dans son De Bibliotheca[1][1] Umberto ECO. De Bibliotheca ; traduit de l’italien....

Volatilité numérique

3

Qu’en est-il aujourd’hui de cette fonction mémorielle dans l’univers de la dématérialisation ?

4

Le Web se situe à l’opposé de cette vision graduée et hiérarchisée de l’accès à la connaissance : il est étymologiquement anarchiste, c’est-à-dire sans ordre, et offre un accès universel à tout pour tous, aplatissant les barrières mais aussi les niveaux d’information et de connaissance au nom d’une idéologie spontanéiste de la transparence qui pose bien des questions que nous n’aborderons pas ici. Cet aplatissement des hiérarchies de valeur bouscule et marginalise le classique processus éditorial dans son activité de tri et d’ordonnancement de la production scientifique et intellectuelle, ventilée dans des supports de publication dédiés (monographies, périodiques), des classifications (collections) et assortie de l’affichage des sources. Avec le Web, on assiste à l’apothéose de la contingence qui permet à une information hébergée sur le simple ordinateur d’un individu d’accéder à la visibilité mondiale aux côtés des sources les plus expertes, dans un rapport ni problématisé ni explicité.

5

Le Web se caractérise aussi par sa capacité ubiquitaire qui rassemble, sur le rectangle lumineux de nos écrans, des informations et des connaissances stockées en des lieux éclatés dans le monde et que le système ancien de signalement aurait ignorées ou dispersées en des catalogues plus ou moins connus. Ainsi le Web agrège-t-il des informations présentes sur tel site aujourd’hui, ailleurs demain, peut-être nulle part après-demain. Cette ubiquité de la recherche d’informations et de connaissances se paie d’une fragilité majeure des données que l’on pourrait aussi classer suivant leur degré de volatilité.

6

Avec le dépôt légal, le monde de l’écrit pouvait encore entretenir le rêve de l’exhaustivité mais, avec le Web, nous sommes passés de l’expansion maîtrisée à l’explosion géométrique de la masse documentaire. S’il « suffisait » de construire quelques bâtiments de plus pour abriter la connaissance nouvelle dans le monde de l’imprimé, les nouveaux avatars de la connaissance en ligne sont dorénavant foisonnants, périssables et beaucoup plus difficiles à maintenir. Le rêve de l’exhaustivité est aujourd’hui réduit à l’échantillon capturé dans le Web à un moment donné [2][2] Gildas ILLIEN. « Repenser la politique documentaire....

Conservation des supports de la connaissance

7

Dans cet univers, le cas de l’information scientifique accessible sur les réseaux se pose toutefois dans des termes encore globalement issus du schéma classique de la communication scientifique. Ce modèle de diffusion, ancré dans la forme de la revue à comité de lecture, conserve incontestablement un sens fort face à la qualité douteuse de certaines connaissances diffusées sur le Web (l’étude conduite sur l’encyclopédie Wikipédia par des étudiants de Sciences-Po en 2007 nous en rappelle les enjeux [3][3] http:/ / medias.lemonde.fr /mmpub /edt/ doc/ 20070709/...).

8

À côté de ce modèle classique, celui des archives ouvertes renouvelle le processus de la communication scientifique en impliquant l’auteur dans la diffusion de son travail et en intégrant, dès l’origine, la problématique de la conservation du produit de la recherche. L’efficacité de ce modèle est aujourd’hui avérée, comme le montre l’étude conduite par Stevan Harnad et Tim Brody sur la visibilité des articles publiés dans des archives ouvertes [4][4] Stevan HARNAD et Tim BRODY. « Comparing the Impact....

9

Outre la volatilité des hyperliens et des URL, il existe une autre source d’insécurité structurelle qui risque de poser de nombreux problèmes : le devenir des données brutes, des procédures d’élaboration et d’interprétation de ces données actuellement abritées sur les serveurs des laboratoires. Leur sort, au moment où le laboratoire évoluera, changera de thématique ou disparaîtra, dépendra largement de la lucidité des décideurs ainsi que des moyens humains, matériels et financiers mobilisables. Leur totale disparition est, dans certains cas, une hypothèse très vraisemblable.

10

La situation de la documentation gérée par les professionnels de la documentation, revues numériques et bases de données, n’est pas non plus parfaitement claire ni rassurante. Qu’on en juge par le contenu des licences que nous signons quand nous contractons avec les éditeurs et fournisseurs de cette information numérique, que ce soit pour les droits acquis avec l’abonnement courant ou bien pour ceux acquis avec l’achat d’archives numérisées par l’éditeur (une série de périodiques numérisés depuis le premier numéro), désignées par le terme anglais backfiles.

Variabilité des accès aux archives selon les contrats

Abonnement courant

11

Les différents schémas d’abonnement à la documentation électronique [5][5] François CAVALIER. « Les collections dans l’âge de... traitent des droits aux archives d’une manière variée. Dans le schéma le plus courant, le client paie une location (droit d’accès) et l’acquisition d’un droit pérenne à accéder à une partie des données. Cela signifie que ce client bénéficie des mises à jour, soit l’équivalent électronique de l’abonnement en cours, et de la production antérieure jusqu’à une antériorité définie contractuellement (10-15 ans dans de nombreux cas). Il existe donc une archive électronique accessible en ligne dans le cadre de l’abonnement courant mais dont le client n’a pas la propriété intégrale.

12

Le modèle tarifaire prend pour base le montant total des abonnements souscrits correspondant à une liste de titres qui définit les droits à archivage du client ; en cas de dénonciation du contrat, il ne pourra plus accéder qu’aux données correspondant à ces titres pour la période souscrite. Le reste du catalogue n’est pour lui qu’un droit d’accès temporaire. Si des titres disparaissent, le client pourrait se trouver lésé en fin de contrat ; aussi, lors de la résiliation de ce contrat, certains fournisseurs offrent-ils la possibilité de choisir les titres archivables correspondant au chiffre d’affaires de référence. C’est l’application du modèle des miles acquis par les voyageurs sur les compagnies aériennes, pour reprendre l’expression employée par un des anciens patrons d’Elsevier.

13

Cependant plusieurs points demeurent flous : ainsi, la liste de référence devrait-elle correspondre au chiffre d’affaires actualisé et non au chiffre d’affaires d’origine ; de même, cette liste doit pouvoir s’actualiser avec le remplacement des revues disparues par le choix de nouveaux titres. Mais le problème majeur est qu’à ce jour aucun établissement n’a été amené à faire valoir ses droits et, ainsi, n’a pu établir la procédure, ses contraintes et ses résultats. L’éditeur préfèrera toujours donner accès à ces archives sur sa plateforme moyennant une redevance pour la maintenance de celle-ci, assortie, dans certains cas, d’un tarif à l’unité pour le téléchargement.

Achat des backfiles

14

L’achat de backfiles intéresse particulièrement les grands établissements qui desservent d’importantes communautés de chercheurs dans des disciplines qui forment leur domaine d’excellence. Il en va ainsi pour les Cadist (Centres d’acquisition et de diffusion de l’information scientifique et technique) et les pôles associés de la BnF qui, pour un certain nombre d’entre eux, ont acheté des archives pour les ressources phares. Ainsi de Lyon-1 qui a acquis les archives de chimie et de pharmacie d’Elsevier et celles de la Royal Society of Chemistry (RSC), de Grenoble-1 qui a acquis les archives de physique d’Elsevier.

15

Les conditions d’usage de ces archives sont alignées sur celles qui régissent l’abonnement en cours et ne prennent en compte que les populations des établissements souscripteurs ; elles sont néanmoins mutualisables via le PEB. Ces archives sont souvent intégrées en annexe aux contrats en cours ce qui a plusieurs effets : d’une part, les statistiques d’usage ne sont pas différenciées de celles de l’abonnement courant, ce qui nous prive d’une part importante de l’appréciation de l’utilisation des archives (hors PEB) ; d’autre part, la problématique de l’accès, en cas de résiliation du contrat, demeure largement la même que celle prévue pour l’abonnement, à la différence importante que le client peut alors demander la remise de ces données sur un support techniquement en cours dans un format aussi en cours au moment de la dévolution des données.

16

Si le client résilie totalement son contrat, il perd de fait l’accès à la plateforme du fournisseur et se retrouve dans l’obligation de traiter des données et de construire une interface d’utilisation qui mobilisera des ressources humaines et financières importantes. Cette situation rend dès lors assez aléatoire la mise en œuvre de plateformes d’archives dans les établissements. À ce jour, aucune université française ne s’est lancée dans ce genre d’opération.

17

Du coup, quelle peut être l’alternative au stockage local ? La seule qui existe aujourd’hui est offerte par des établissements de dimension nationale, l’Agence bibliographique de l’enseignement supérieur (Abes) et l’Inist. En effet, ces deux organismes ont mis en œuvre des plateformes d’archivage qui abritent, par exemple, l’ensemble des données de la freedom collection d’Elsevier et peuvent gérer les droits acquis par les établissements suivant le processus décrit plus haut (gestion des droits d’accès en fonction de la liste de référence). Il ne s’agit pas pour autant d’un archivage pérenne et seule la double conservation des données est aujourd’hui le gage, fragile, de leur conservation.

18

Cette problématique de la conservation pose, à ce stade, deux questions :

  • l’une concerne le niveau auquel l’archivage doit être entrepris. En effet, concernant le contrat ScienceDirect, si la France n’a mis en œuvre que le dispositif décrit plus haut, les Pays-Bas sont en charge de la conservation pérenne des données d’Elsevier suivant un contrat signé par ce fournisseur avec la Bibliothèque royale il y a plus de cinq ans. Se profile ainsi la possibilité d’un partage de la conservation numérique au niveau européen entre des organismes nationaux puissants et bien dotés, assorti d’accords de réciprocité ;

  • l’autre question est plus cruciale encore car elle concerne la politique documentaire des établissements eux-mêmes qui se verrait amputée d’une partie de la gestion directe de certaines ressources comme nous allons le voir plus loin.

Collections délocalisées et accès territorialisés

Le marché de l’archivage

19

L’archivage de l’IST est-il devenu un secteur concurrentiel ? Désormais, les bibliothèques ne sont plus seules sur le terrain de l’archivage : les acteurs commerciaux ont pris pied dans cette activité et créé un nouveau créneau commercial. En effet, la numérisation rétrospective est, comme nous l’avons vu, commercialisée y compris auprès des bibliothèques qui possèdent déjà ces collections sous forme papier, tant l’accès direct en ligne est devenu le mode premier, voire unique, d’accès à l’IST pour les chercheurs. Des organismes dits non for profit se sont aussi lancés dans cette activité lucrative comme le montre l’exemple de JSTOR [6][6] JSTOR : Jstorage abrite les collections rétrospectives... sans, soit dit en passant, que les pratiques tarifaires soient nécessairement très éloignées de ce qui est en vigueur dans le secteur commercial. Cela signifie clairement que les bibliothèques n’ont plus le monopole de l’archivage. Par contre, elles demeurent les instances de recours pour l’archivage pérenne, comme le montre l’accord d’Elsevier avec la Bibliothèque royale des Pays-Bas, l’éditeur n’étant tenu, comme le stipule la licence, que de produire « tous les efforts raisonnables » pour maintenir le service et la pérennité des données.

20

L’archivage pérenne demeure donc bien une prérogative publique même s’il ne peut être organisé qu’à un niveau national voire international. De fait, les pouvoirs publics gagneraient à se préoccuper de la question et à se doter des outils nécessaires. Ce serait aussi l’occasion d’organiser un archivage réparti et mutualisé des collections papier.

La propriété des collections

21

Deuxième question : qui achète quoi et pour qui ? Où sont passées les collections ?

22

Selon David Aymonin, directeur de l’information scientifique et des bibliothèques de l’École polytechnique fédérale de Lausanne (EPFL), « les éditeurs vendent des revues et les chercheurs veulent des articles. Les éditeurs vendent des packages, les chercheurs veulent des documents ». Bref, en matière électronique, le format des documents (revues) et le modèle économique (le bouquet) sont à rebours des attentes des usagers. Ce phénomène place d’ailleurs les bibliothèques, intermédiaires captifs de la transaction, en situation délicate, critiquées par les chercheurs qui, n’ayant ni la charge de la négociation ni celle des paiements, fondent leurs analyses sur leurs seuls besoins et usages. La réponse à cette demande consiste à rendre transparent le processus intellectuel et commercial pour servir le produit fini seul : le document, l’article, les données.

23

De quelle manière ? En déportant l’acte d’achat sur une collectivité placée au-dessus des établissements, qu’elle soit régionale ou nationale. En clair, cela implique la négociation et l’acquisition de licences nationales pour les ressources les plus utilisées et, par voie de subsidiarité, l’achat de ressources plus spécialisées ou moindrement utilisées au niveau local. Dans ce schéma, l’organisation nationale (en France, potentiellement l’Abes-Cines [7][7] Cines : Centre informatique national de l’enseignement..., l’Inist ou l’hypothétique Anist, Agence nationale de l’IST) serait en charge de l’acquisition des abonnements pour tous les établissements (ou une collectivité définie d’établissements) ainsi que des archives qu’elle gèrerait à son niveau pour les diffuser aux établissements ; à ceux-ci reviendrait le rôle de relais locaux, d’interfaces, de formateurs et maïeuticiens de la demande documentaire.

24

La bibliothèque n’est plus propriétaire en propre d’une large part de ses collections mais dispense une gamme de services associés à celles-ci via les portails d’information. En outre, elle devient l’opérateur central pour collecter, organiser et valoriser la production pédagogique et scientifique de l’établissement, se positionnant ainsi au cœur du dispositif universitaire de production de la connaissance. Dans ce schéma, le repositionnement de la bibliothèque l’éloigne de la traditionnelle gestion des collections (acquisition-description) pour centrer ses activités sur leur valorisation : construction de portails, formation à l’IST, mise en œuvre de services et gestion de la production pédagogique et scientifique de l’établissement.

Le repositionnement de la bibliothèque

25

Ce modèle en cours de constitution connaît déjà un début de réalisation au travers des licences nationales telles qu’elles ont été négociées par l’Allemagne ou l’Espagne pour de grands fournisseurs. Il existe aussi sous la forme du pay-per-view adopté notamment par certaines bibliothèques américaines pour faire face à la progression ininterrompue des coûts. La bibliothèque du Dickinson College (Pensylvannie), par exemple, n’achète plus les ressources nécessaires pour les recherches éloignées des domaines disciplinaires cœur de cible de son université mais fournit aux chercheurs un droit à tirage pour l’achat à l’unité des documents en ligne qui leur sont indispensables. Cette approche pragmatique est très révélatrice du glissement observé, depuis l’apparition du numérique, vers des pratiques documentaires hétérogènes qui ne s’ordonnent plus systématiquement autour de la notion de collection.

26

Il est trop tôt pour savoir si ce scénario a quelque chance de se généraliser ; la suite dépend notamment de l’évolution de l’offre éditoriale comme du modèle général de la communication scientifique en pleine redéfinition. Elle est aussi tributaire des ressources allouées à la documentation au niveau national et la France, qui n’a négocié aucune licence nationale, accuse un retard par rapport à ses voisins européens.

27

On peut toutefois s’attendre à ce que le traitement des ressources documentaires devienne de plus en plus varié et flexible. Les bibliothèques disposeront toujours de stocks d’information, mais qui ne seront peut-être plus gérés intégralement dans leurs murs, sur leurs sites, ce qui les amènera à développer plus de services et à traiter comme un produit plus plastique, qu’elles enrichiront dans des processus de customization, une information dont la conservation ne leur appartiendra pas nécessairement en propre. Ce nouveau rapport à la documentation devrait inciter à préparer les bibliothécaires à une grande flexibilité pour leur permettre de s’adapter aux réalités du marché que constituent les fournisseurs d’une part et les chercheurs de l’autre. Gageons que, pour l’ensemble des acteurs de la chaîne de la communication scientifique, les évolutions à venir ne sont pas moins importantes que pour les bibliothèques.

28

François Cavalier

Point de vue. « C’est la professionnalisation de la démarche journalistique qui fait la valeur du titre ou du site de presse »

29

Laurent Bérard-Quélin dirige la Société générale de presse. Bien au-delà de la technologie, la modification en profondeur de la relation entre le journaliste et le lecteur remet en cause les modèles sociétaux et économiques de diffusion de l’information. Cependant, plus encore quand elle est spécialisée, la presse peut mettre en avant son expertise et son professionnalisme pour valoriser le service qu’elle rend à ses lecteurs. De ce chaos pourra ainsi émerger un nouvel équilibre économique qui lui permettra de pérenniser son rôle essentiel dans la diffusion de la connaissance et du savoir.

30

Depuis quelques années, le journaliste qui faisait figure d’expert décryptant l’actualité s’apparente plus à un modérateur amorçant puis animant un dialogue avec des lecteurs de plus en plus participatifs. À un modèle unidirectionnel, du média vers le lecteur, tend à se substituer un modèle bidirectionnel, voire multidirectionnel, où le lecteur publie de sa propre initiative une information de plus en plus détaillée.

31

LA PRESSE A TROUVÉ SON CONTRE-POUVOIR. Se mettant à l’égal des journalistes, les lecteurs sont de plus en plus exigeants, avec deux conséquences incontournables pour la presse. Tout d’abord, l’éditeur de presse et ses auteurs doivent faire face à de nouvelles concurrences organisées par leurs propres lecteurs. Blogs, forums de discussion, sites communautaires, autant de lieux où le lecteur peut retrouver des informations ciblées. La parade la plus souvent utilisée consiste à intégrer ces nouveaux modes d’expression sous la marque de l’éditeur qui, ce faisant, développe sa propre concurrence chez lui et peut en tirer profit en valorisant l’audience générée. Cependant, en agissant ainsi, l’éditeur se trouve contraint de proposer une offre gratuite, qui amenuise la visibilité de ses propres informations et relativise de fait leur valeur ajoutée.

32

La société change et la presse, de son côté, n’a pas changé assez vite. C’est principalement la rencontre d’une communication numérique généralisée et d’une aspiration libertaire qui explique, tout autour de la terre, une fragilisation de la presse et de tous les acteurs de l’information – à ne pas confondre avec la communication.

33

JE SAIS, TU SAIS, NOUS SAVONS ? Alors, tous journalistes ? Commençons par reconnaître que la presse a probablement trop souvent eu une vision « despotique » de sa mission.

34

Aujourd’hui, le lecteur a les moyens de devenir un acteur de l’information et, pour le journaliste, le positionnement est délicat. S’il doit changer de posture, faut-il pour autant qu’il se considère comme faisant partie d’une immense rédaction d’internautes ? Certainement pas, en tout premier lieu parce que les internautes qui se revendiquent acteurs sont fort peu nombreux. Si la fréquentation des sites permettant aux utilisateurs de mettre du contenu en ligne a augmenté de 668 % entre 2005 et 2007, en moyenne moins de 0,5 % d’entre eux participent effectivement aux contenus mis en ligne (étude Hitwise, avril 2007).

35

Le journaliste, comme les rares internautes qui contribuent, a cette particularité commune de se sentir suffisamment au fait du sujet concerné pour publier. Cependant, plusieurs différences de taille les séparent. Évoquons notamment l’anonymat, fort répandu sur les divers sites dits collaboratifs. Sans statistique autre que personnelle, je crois qu’une majorité des contributions n’existerait pas sans l’anonymat.

36

Qu’est-ce qui se cache derrière ? Parfois, mais rarement, une volonté de manipulation. Rappelons, par exemple, qu’après le face à face du deuxième tour de l’élection présidentielle de 2007 les partisans de Ségolène Royal et de Nicolas Sarkozy ont modifié alternativement plus de cinquante fois l’article de Wikipédia consacré à l’EPR – de troisième ou de quatrième génération – pour tenter de donner raison aux affirmations de leur candidat, formulées quelques minutes plus tôt. Parfois une nécessité vitale de se protéger, comme cela peut exister dans certains pays, voire au sein de certaines organisations. Le plus souvent, la volonté d’échapper à sa responsabilité morale, en s’affranchissant de la nécessaire introspection qui doit présider à toute prise de parole responsable.

37

LE MÉTIER ET LA RESPONSABILITÉ D’INFORMER. Le professionnel de l’information revendique sa responsabilité sur les informations qu’il publie. Initiée dans les écoles de journalisme et très présente au cœur des rédactions, cette démarche s’accompagne d’une réflexion sur les devoirs du journaliste : informer le plus objectivement possible en se méfiant de ses sources et de lui-même ; respecter la distinction entre information et opinion ; fonder la relation de confiance avec le lecteur sur la fiabilité et le professionnalisme.

38

C’est cette professionnalisation de la démarche journalistique qui fait la valeur du titre et/ou du site de presse. Il se trouve de nombreux lecteurs qui, sur un sujet ou un autre, en savent plus que le journaliste, notamment dans la clientèle de la presse spécialisée qui s’adresse par définition à des connaisseurs. Mais le journaliste, lui, doit vagabonder ailleurs et apporter au lecteur des éclairages différents. C’est également le rôle de l’éditeur que d’obtenir cette diversité critique en brassant volontairement au sein de sa rédaction des points de vue divers, mais éclairés.

39

PRESSE PROFESSIONNELLE OU SPÉCIALISÉE : LA PRESSE DE LA FORMATION, DU SAVOIR ET DE LA CONNAISSANCE. L’éditeur sélectionne les sujets et les contributions et trace ainsi une ligne éditoriale qui fédère autour d’elle une communauté d’intérêts.

40

L’éditeur tente ainsi de répondre à la demande de professionnels et de spécialistes qui sont à la recherche d’une information pointue, analysée et mise en perspective. C’est cette valeur ajoutée qui est au centre de son modèle économique et qui crée un lien particulier entre la publication, ses lecteurs et ses annonceurs. Les technologies numériques permettent de renforcer cette valeur ajoutée par une plus grande réactivité, une information plus en profondeur, une mise à jour permanente et un accès en continu.

41

Tout cela demande à être organisé, structuré et géré ; c’est un métier qui justifie notre confiance en l’avenir d’une activité éditoriale professionnelle tournée vers le service aux lecteurs.

42

QUEL MODÈLE ÉCONOMIQUE ? Du fait de la spécificité de son lectorat, la presse spécialisée bénéficie peu de revenus publicitaires d’annonceurs et a fortiori sur le marché de la publicité en ligne où rares sont les publications qui peuvent atteindre les seuils critiques fixés par les publicitaires. Le modèle gratuit, financé exclusivement par la publicité, reste donc une exception. Deux modèles dominent : le modèle payant ou le modèle mixte couplant recettes de vente et de publicité. Car si le secteur est écarté du marché publicitaire de masse, la presse spécialisée offre néanmoins une audience ciblée et qualifiée, valorisable à des niveaux plus élevés auprès des annonceurs.

43

Les technologies numériques autorisent désormais un nombre croissant de modes de diffusion qui permettent à l’éditeur de conserver, souvent indirectement, des lecteurs attirés par des offres multi-titres. Celles-ci leur simplifient l’accès à l’information (kiosques numériques, agrégation, portails d’intranet, panoramas de presse, etc.). La combinaison de ces offres avec une utilisation bien comprise du Web 2.0 – voir par exemple Netvibes – devrait encore amplifier ce mouvement.

44

Dans l’univers numérique, l’éditeur de presse se doit d’être partout pour collationner un revenu désormais éclaté en de multiples sources. Tout l’enjeu de ces prochaines années sera, sur tous ces supports, de mettre en avant sa marque et d’y associer, dans l’esprit des lecteurs, fiabilité, réactivité et exhaustivité. Seule cette démarche permettra de continuer à justifier la valeur de l’information publiée par des éditeurs professionnels et, à ce titre, payée directement ou indirectement en tant que telle.

45

Laurent Bérard-Quélin

Open access : vers une ouverture aux éditeurs ?

46

Analyse. Le mouvement de l’Open Access tel qu’il a été théorisé dans la Déclaration de Budapest en 2002, constitue l’un des changements et des enjeux majeurs dans le monde de l’information scientifique. Adopté progressivement par la communauté des chercheurs, ce principe s’est rapidement diffusé dans le monde de la documentation qui y a vu une occasion de redéfinir les modes d’acquisition. Dorénavant, certains éditeurs veulent participer à ce mouvement, dessinant ainsi les contours d’un nouveau partenariat.

47

Parler d’open access ou de libre accès à l’information scientifique et technique, selon l’expression française consacrée, revient avant toutes choses à parler d’un principe : celui de rendre accessible gratuitement, en ligne, toute production issue d’un travail de recherche. Si l’expression concerne au premier chef les publications scientifiques (pré et post-publications), son acception large recouvre également les thèses et les données issues de la recherche.

48

Document fondateur de l’Open Access, la déclaration de Budapest [8][8] La traduction française de la déclaration est disponible..., en 2002, en fournit non seulement la définition mais trace également les voies à suivre pour aboutir à l’objectif ultime d’une diffusion libre de l’ensemble de la littérature scientifique : d’une part l’auto-archivage de leurs publications par les chercheurs et d’autre part la création de revues en open access. Les initiatives récentes de certains éditeurs atténuent quelque peu ce clivage en dessinant les contours d’un possible partenariat avec ceux-ci.

Les archives ouvertes : tendances et défis

49

Intitulée « voie verte » (green road) de l’open access, les archives ouvertes reposent sur un principe simple : le dépôt, sous forme électronique, de publications scientifiques dans des entrepôts numériques (repositories). Deux éléments clés, l’un juridique et l’autre technique, ont rendu possible leur mise en place et leur fonctionnement en réseau : d’une part les droits conservés par les chercheurs lors de la publication de leurs articles [9][9] Ces droits sont variables selon les éditeurs. La liste... et d’autre part la capacité de ces différents entrepôts à dialoguer grâce à un langage commun, le format OAI-PMH [10][10] Pour une présentation détaillée du format OAI-PMH :....

50

Les premières archives ouvertes lancées au début des années quatre-vingt-dix se sont constituées au sein de communautés scientifiques dans une logique de communication scientifique directe [11][11] Les principales archives ouvertes disciplinaires sont.... La typologie des archives ouvertes s’est ensuite étoffée avec d’une part le déploiement croissant d’archives institutionnelles visant à présenter et diffuser la production d’un laboratoire, d’une université ou d’un organisme de recherche et d’autre part la création d’archives centrales ayant pour objectif de fédérer cette même production à une échelle nationale ou supranationale [12][12] DRIVER (Digital Repository Infrastructure Vision for.... En France, dans le cadre d’un accord national signé en 2006, c’est HAL, outil développé par le CNRS et l’Inria, qui joue ce rôle d’archive centrale, en articulation avec les archives ouvertes des institutions partenaires [13][13] On consultera avec profit le site web présentant le....

51

Cette institutionnalisation des archives ouvertes, patente depuis quelques années, est clairement la condition nécessaire à leur développement. En effet, c’est sur la capacité à drainer une part substantielle de la production scientifique mondiale que se mesurera leur succès. Cette part est actuellement estimée à 15 %, ce qui est peu lorsque l’on sait que cette proportion atteint des niveaux très élevés dans certaines disciplines (sciences physiques en particulier). Au-delà d’une nécessaire sensibilisation des communautés scientifiques, il apparaît que le levier le plus efficace réside dans l’obligation du dépôt.

52

À cet égard, les exemples les plus frappants viennent des États-Unis où, en décembre 2007, le National Institute of Health (la plus importante agence de financement de la recherche au monde) a rendu obligatoire le dépôt dans l’archive ouverte PubMed Central de l’ensemble des publications pour lesquelles il avait octroyé un financement. La même obligation de dépôt a été décidée en février 2008 par l’Université de Harvard pour les publications de ses chercheurs. Des initiatives similaires sont à noter en Europe et en France mais elles restent à amplifier et à systématiser.

La publication en accès libre : une offre multiforme

53

Parallèlement au développement des archives ouvertes, les huit dernières années ont vu se multiplier les initiatives de publication en accès libre, considérée comme la « voie dorée » (gold road) de l’open access. Les formes en ont été très variées : transformation du modèle économique de revues existantes, création de nouvelles revues en accès libre voire de nouvelles maisons d’édition [14][14] Les deux les plus célèbres étant BioMed Central (www.biomedcentral.com/home).... Répertoriées dans le Directory of Open Access Journals, ces revues en libre accès reposent sur le principe d’un report vers l’auteur des coûts de production de la revue. Le financement n’intervient donc plus en aval de la publication sous forme d’abonnements, mais en amont grâce au paiement par l’auteur ou son institution d’une somme forfaitaire pour chaque article accepté. Circonspects voire goguenards dans un premier temps, les éditeurs « traditionnels » disposent désormais quasiment tous d’une offre permettant aux chercheurs qui le souhaitent de publier leur article en accès libre. Baptisés Open Choice chez Springer ou Online Open chez Blackwell, ces programmes aboutissent à la constitution de revues dites « hybrides ».

54

La principale faiblesse de ce dispositif réside dans la période de transition au cours de laquelle coexistent revues classiques et revues en accès libre. Elle entraîne inévitablement un surcoût pour les établissements de recherche qui continuent d’une part à souscrire des abonnements et financent d’autre part la publication d’articles en accès libre. Seule une transition rapide de plusieurs revues existantes doit permettre de lever cet obstacle. À cet égard, l’initiative récente du Cern baptisée Scoap3 [15][15] www.scoap3.org offre des pistes intéressantes. Partant du constat que six revues de référence (éditées chez Springer, Elsevier, IOP et APS) couvrent plus de 80 % de la production dans le domaine de la physique des hautes énergies, un réseau international d’agences de financement, d’institutions de recherche et de bibliothèques est en cours de constitution afin de réunir les fonds nécessaires à la diffusion gratuite de ces revues.

Vers un partenariat avec les éditeurs ?

55

Relativement bien défini depuis 2002, le paysage de l’open access connaît depuis une année, à l’instigation de l’éditeur Springer, une évolution importante : dans le cadre des négociations menées pour le renouvellement des contrats d’abonnement à son offre de ressources électroniques, Springer a conclu successivement avec le consortium des bibliothèques académiques néerlandaises puis avec l’Université de Göttingen et enfin avec le Max-Planck Gesellschaft un accord prévoyant la libre diffusion dans le cadre du programme Open Choice de l’ensemble des articles publiés chez Springer par les chercheurs des institutions signataires. Présentée comme expérimentale, cette initiative pose comme principe que les sommes consacrées auparavant au paiement des abonnements sont désormais affectées, sans surcoût, au financement de la diffusion des articles.

56

Un tel accord, qui ne laisse pas de susciter des questions notamment sur son volet financier, est d’une grande nouveauté car il confie la diffusion en open access à un éditeur « traditionnel » et dessine ainsi les contours d’une possible troisième voie, celle d’un accès libre se développant sous la forme d’un patchwork, en fonction des accords signés par les différents éditeurs avec les institutions de recherche.

57

Tout en entrant dans une phase de maturité, le mouvement de l’Open Access se complexifie, ses développements pouvant sembler contradictoires. Le rôle du professionnel de la documentation en est d’autant plus renforcé : amené à redéfinir le mode d’acquisition traditionnel des ressources de recherche, il doit assurer un travail de veille [16][16] Deux sites incontournables pour faire de la veille... auquel s’ajoute l’indispensable sensibilisation des chercheurs, non seulement à la diffusion de leur production en accès libre mais aussi à l’utilisation de ces ressources dans le cadre de leurs travaux.

58

Jean-François Lutz

Concentrations dans l’industrie de l’information professionnelle : continuités et ruptures

59

Repères. Les annonces de fusions-acquisitions rythment depuis vingt ans au moins l’actualité de l’industrie de l’information. Dernière en date : l’absorption, le 17 avril 2008, pour 13 milliards de dollars, du britannique Reuters par l’anglo-canadien Thomson. En début d’année, le groupe anglo-néerlandais Reed Elsevier avait annoncé simultanément le rachat, pour 4,3 milliards de dollars, du producteur américain de bases de données ChoicePoint et son intention de céder sa division Reed Business Information. Dans ce flux continuel d’opérations, Michel Vajou distingue trois phases.

Phase 1 : l’information professionnelle comme axe stratégique

60

Au milieu des années 1980, les acteurs dominants du marché de l’information professionnelle (IP) sont des groupes de communication de dimension nationale (Thomson, Wolters Kluwer, Reed) comparables à Havas ou Hachette, opérant aussi bien dans la presse que sur les marchés « grand public ». La crise du marché publicitaire va conduire ces groupes anglo-néerlandais à réorienter leurs stratégies vers l’IP, à la différence de leurs homologues français ou allemands qui resteront centrés sur des activités grand public. Moins dépendante des recettes publicitaires, l’IP se prête mieux à une déclinaison vers le online, très tôt perçu par ces groupes comme source de croissance. Une première vague de concentrations voit le britannique Reed se rapprocher de l’éditeur scientifique néerlandais Elsevier et, aux Pays-Bas, la fusion des éditeurs Wolters et Kluwer.

Phase 2 : l’internationalisation

61

Ces groupes compensent la cession de leurs activités grand public (qui s’étendra sur plus de quinze ans) par des acquisitions massives. Le marché américain est très rapidement identifié, en raison de sa taille et de sa maturité, comme une priorité : rachat de LexisNexis par Reed Elsevier, de l’éditeur juridique Westlaw par Thomson, de CCH, numéro un de l’information pour les professions comptables et fiscales, par Wolters Kluwer, et du secteur information marketing du groupe américain Nielsen par le néerlandais VNU. À noter : les plus importants fournisseurs américains d’IP sont presque tous... d’origine européenne. Côté européen, dès le début des années 1990, Reed Elsevier et Wolters Kluwer, par exemple, prennent pied sur le marché français de l’édition juridique en rachetant respectivement les éditions du Juris-Classeur et Lamy. Cette stratégie d’implantation sur les marchés nationaux – et en particulier français – n’est pas achevée. C’est ainsi qu’en mai 2005 Elsevier reprenait Masson, le premier éditeur médical français.

Phase 3 : la conquête du poste de travail et la constitution d’oligopoles mondiaux

62

À partir du début des années 2000, ces grands groupes vont suivre une autre piste, à l’origine de très nombreuses acquisitions pointues. Les éditeurs ne veulent plus être de simples fournisseurs d’information mais offrir à leurs clients des « environnements de travail » intégrés, associant sur le PC de l’utilisateur sources d’information et logiciels spécialisés. Aujourd’hui, cette stratégie de prise de contrôle du poste de travail de l’utilisateur, que l’on retrouve dans tous les grands secteurs de l’IP, est largement achevée. Avec des avantages évidents : les services intégrés associant information et logiciels, source de gains importants de productivité, peuvent être facturés plus cher et le client, devenu très dépendant de ces outils, peut difficilement s’en passer.

63

Dans le même temps – et le rachat de Reuters par Thomson est ici très emblématique –, ces grands groupes ont tendance à se focaliser sur quelques marchés (l’édition juridique, l’information financière, l’édition scientifique) sur lesquels se constituent des positions d’oligopoles.

64

Cette concentration de l’offre d’information professionnelle n’a pas forcément été mal perçue par les clientèles : elle a permis le développement de services intégrés à forte valeur ajoutée. Mais, comme dans toute situation oligopolistique, le client est au final celui qui paie pour cette concentration : les taux de marge qu’enregistrent ces grands groupes internationalisés démontrent que cette concentration est génératrice de rentes de situation.

65

Michel Vajou

Notes

[1]

Umberto ECO. De Bibliotheca ; traduit de l’italien par Éliane Deschamps-Pria. Caen : l’Échoppe, 1986. 31 p

[2]

Gildas ILLIEN. « Repenser la politique documentaire à l’échelle de la Toile ». Congrès ADBU 2007. www.adbu.fr/IMG/pdf/Gildas_1.pdf

[4]

Stevan HARNAD et Tim BRODY. « Comparing the Impact of Open Access (OA) vs. Non-OA Articles in the Same Journals ». DLib Magazine, juin 2004, vol. 10, n? 6. www.dlib.org/dlib/june04/harnad/06harnad.html

[5]

François CAVALIER. « Les collections dans l’âge de l’accès : le consortium Couperin et la documentation électronique ». In : Christian Jacob (dir.). Lieux de savoir : espaces et communautés. Paris : Albin Michel, 2007.

[6]

JSTOR : Jstorage abrite les collections rétrospectives de 700 périodiques dans le champ des SHS et de certaines sciences « exactes » : mathématiques, etc. (www.jstor.org).

[7]

Cines : Centre informatique national de l’enseignement supérieur.

[8]

La traduction française de la déclaration est disponible sur le site de l’Inist : http://openaccess.inist.fr/article.php3?id_article=47

[9]

Ces droits sont variables selon les éditeurs. La liste Romeo (www.sherpa.ac.uk/romeo.php) permet de connaître la politique adoptée par les principaux éditeurs anglo-saxons.

[10]

Pour une présentation détaillée du format OAI-PMH : www.openarchives.org/pmh. Voir également l’éclairante présentation d’Emmanuelle Bermès (www.bnf.fr/pages/infopro/journeespro/pdf/AFNOR2005/OAI.pdf).

[11]

Les principales archives ouvertes disciplinaires sont ArXiv (http://arxiv.org/) en sciences physiques et mathématiques, RePEc (http://repec.org/) en économie, PubMed Central (www.pubmedcentral.nih.gov) en sciences du vivant.

[12]

DRIVER (Digital Repository Infrastructure Vision for European Research), réalisation européenne, étant l’exemple le plus ambitieux (www.driver-community.eu).

[13]

On consultera avec profit le site web présentant le dispositif français (www.archives-ouvertes.fr) ainsi que l’article de synthèse rédigé par Rachel Creppy : « Archives ouvertes, archives institutionnelles et protocole français », BBF, 2007, n? 6, p. 42-45.

[14]

Les deux les plus célèbres étant BioMed Central (www.biomedcentral.com/home) et PLoS www.plos.org).

[16]

Deux sites incontournables pour faire de la veille sur le sujet : Libre accès à l’IST de l’Inist (http://openaccess.inist.fr) et Open Access News de Peter Suber (www.earlham.edu/peters/fos/fosblog.html).

Résumé

English

Abundant, volatile, contingent – the Web sometimes provides a false sense of visibility for researchers. Use of the Web forces information professionals to come to terms with the issue of long-term access and even the very concept of collections building. Because libraries now face competition from the commercial sector with regard to information preservation, F. Cavalier reflects here on the missions and place of large institutional libraries.
This last section concludes with several articles: “The professional approach that journalists take is what gives value to a publication or its website”. “Open access: opening up to publishers?” and “Centralization in the professional information sector.

Español

Abundante, volátil, contingente, la Web presenta una visibilidad a veces engañadora de los trabajos de los investigadores. A los profesionales de la documentación se les plantea el problema de la perennidad de los accesos poniendo en tela de juicio la noción misma de colección. Constatando que la función de conservación ya no es sólo competencia de las bibliotecas sino que se ha vuelto una oportunidad comercial para otros actores, François Cavalier se interroga sobre las misiones y el posicionamiento de las grandes instituciones documentales.
Varios artículos siguen esta ultima parte : « La profesionalización de la gestión periodística es la que valorece el título o el sitio de prensa », « Open access : ¿hacia una apertura a las editoriales? » y « Concentraciones en la industria de la información profesional : continuidades y rupturas ».

Deutsch

Foisonnant, volatile, contingent,
Reichhaltig, flüchtig, willkürlich: Das Web vermittelt eine manchmal täuschende Verfügbarkeit von Forschungsarbeiten. Es stellt Professionals der Dokumentation vor das Problem der dauerhaften Verfügbarkeit des Zugangs und stellt gleichzeitig den Begriff der Sammlung in Frage. François Cavalier analysiert, dass die Funktion der Konservierung nicht mehr alleine Aufgabe der Bibliotheken ist, sondern eine wirtschaftliche Nische anderer Akteure geworden ist, und hinterfragt die Aufgaben und die Positionierung der großen dokumentarischen Einrichtungen.
Dieser letzte Teil wird mit mehreren Artikeln fortgeführt: „Die Professionalisierung des journalistischen Ansatzes macht den Wert eines Titels oder eine Presse-Websites aus“, „Open Access: Tendenz zu einer Öffnung hin zu den Verlegern?“ und „Fusionen in der Industrie der Fachinformationen: Kontinuitäten und Brüche“.

Plan de l'article

  1. Collections, archivage, services : quelle nouvelle donne pour la bibliothèque ?
    1. Volatilité numérique
    2. Conservation des supports de la connaissance
    3. Variabilité des accès aux archives selon les contrats
      1. Abonnement courant
      2. Achat des backfiles
    4. Collections délocalisées et accès territorialisés
      1. Le marché de l’archivage
      2. La propriété des collections
      3. Le repositionnement de la bibliothèque
  2. Point de vue. « C’est la professionnalisation de la démarche journalistique qui fait la valeur du titre ou du site de presse »
  3. Open access : vers une ouverture aux éditeurs ?
    1. Les archives ouvertes : tendances et défis
    2. La publication en accès libre : une offre multiforme
    3. Vers un partenariat avec les éditeurs ?
  4. Concentrations dans l’industrie de l’information professionnelle : continuités et ruptures
    1. Phase 1 : l’information professionnelle comme axe stratégique
    2. Phase 2 : l’internationalisation
    3. Phase 3 : la conquête du poste de travail et la constitution d’oligopoles mondiaux

Pour citer cet article

Cavalier François, Bérard-Quélin Laurent, Lutz Jean-François, Vajou Michel, « Des modèles économiques encore à inventer », Documentaliste-Sciences de l'Information 2/2008 (Vol. 45) , p. 58-66
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2008-2-page-58.htm.
DOI : 10.3917/docsi.452.0058.


Article précédent Pages 58 - 66 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback