Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2013/4 (Vol. 50)

  • Pages : 80
  • DOI : 10.3917/docsi.504.0010
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 10 - 15 Article suivant

Valoriser le patrimoine : le projet de la bibliothèque numérique de l’École des Ponts et chaussées

1

Numérisation. À travers les principales étapes de la création de la bibliothèque numérique de l’École nationale des Ponts et chaussées (ou École des Ponts Paris Tech), cet article met en lumière une méthodologie, des choix et des écueils dont la portée plus générale peut contribuer utilement à l’élaboration de projets similaires.

2

L’École nationale des Ponts et chaussées, créée en 1747, possède une bibliothèque riche par la qualité et la diversité de ses documents. En effet, cette bibliothèque doit son existence aux généreux dons faits, pour ne citer que les plus importants, par le premier directeur de l’École, Jean-Rodolphe Perronet [1][1] Jean-Rodolphe Perronet (1708-1794), directeur de 1747..., par l’inspecteur Pierre-Charles Lesage [2][2] Pierre-Charles Lesage (1740-1810), inspecteur de 1776... et par le quatrième directeur Gaspard Riche de Prony [3][3] Gaspard Riche de Prony (1755-1839), directeur de 1798.... Elle comporte environ 39 000 cotes d’imprimés, 3 800 cotes de manuscrits, 3 500 cotes de dessins, 10 000 cotes de photographies, 1 500 cotes de cartes manuscrites ou imprimées, etc. Ces documents, bien connus de nombreux chercheurs de toute nationalité, seront valorisés grâce à une meilleure visibilité dans une bibliothèque numérique et devraient mieux répondre à leurs besoins de travailler, par exemple, sur différentes éditions ou copies de documents.

Premiers chantiers de numérisation

3

Dans les années 1995, la bibliothèque de l’École a mis à disposition de la BnF une sélection de ses collections photographiques du XIXe siècle afin qu’elles soient numérisées en noir et blanc. Par la suite, l’École a continué à numériser ses collections iconographiques : les dessins des concours des élèves ingénieurs des XVIIIe et XIXe siècles, les cartes et les médailles consultables dans la photothèque [4][4] http://www.enpc.fr/phototheque.

4

Puis, grâce à l’aide technique et financière de la BnF, la bibliothèque, en tant que pôle associé « Génie civil », a numérisé au format image, c’est-à-dire sans OCR, la première partie de la revue Annales des Ponts et Chaussées, série technique, pour la période 1831-1931, désormais consultable sur le site de Gallica, soit 200 000 pages pour 378 volumes.

La politique de numérisation

5

À partir de 2011, la bibliothèque se lance dans un vaste projet de numérisation de ses collections anciennes avec le soutien d’un comité d’orientation comprenant des membres de l’École (chercheurs, directeurs de service) et des membres extérieurs (BnF, Cnam [5][5] Conservatoire national des arts et métiers, ministère de l’Écologie, du développement durable et de l’énergie).

6

Afin de valoriser les collections pédagogiques, il a été décidé de numériser les cours de l’École pour toutes les disciplines [6][6] Disciplines : analyse, architecture, art militaire,... de 1820 à 1940 ainsi que les journaux de mission des élèves du XIXe siècle (équivalent de rapports de stage).

7

Après la rédaction d’un cahier des charges nourri des recommandations techniques de la BnF, deux marchés ont été passés avec deux prestataires de numérisation.

8

Le premier portait sur la numérisation des documents fragiles (manuscrits d’une centaine de journaux de mission, cartes de Charles-Joseph Minard [7][7] Charles-Joseph Minard (1781-1870), inspecteur général..., procès-verbaux du Conseil de l’École de 1804 à 1909 ainsi que les délibérations du Comité d’enseignement de l’École de 1920 à 1958). La majeure partie de ces travaux a été réalisée dans les locaux de l’École, le prestataire ayant installé un atelier de numérisation sur place.

9

Le second portait sur la numérisation des 400 cours de l’École ainsi que des Annales des Ponts et Chaussées pour les années 1932 à 1992, sans oublier l’océrisation de la première partie des Annales des Ponts et Chaussées, numérisée en format image. Une reprise de près de 3 000 vues de photographies du XIXe siècle a été réalisée en couleur.

10

Pour ces deux marchés, les documents ont été numérisés soit en couleurs, soit en niveau de gris, format TIFF et JPEG, en monopage 300 dpi. Le total avoisine les 229 000 pages.

D’autres formes de partenariat

11

Un programme spécifique Phares et balises a fait l’objet d’un partenariat avec le MEDDTL-DAM [8][8] MEDDTL-DAM : Ministère de l’Environnement, du développement... pour la numérisation de 1 500 vues (dessins, photographies, manuscrits, imprimés) issues du fonds Phares de l’École. Ces documents seront visibles prochainement sur la bibliothèque numérique consacrée aux phares [9][9] http://bibliothequedesphares.fr. L’École des ponts a aussi répondu à un appel à projets BnF-Cujas en sciences juridiques et a pu faire numériser 105 000 pages comprenant les Annales des Ponts et Chaussées, série Lois, décrets, arrêtés, etc., ainsi que les Codes des Ponts et Chaussées et des Mines de Théodore Ravinet [10][10] Théodore Ravinet, sous-chef à la Direction générale... de 1829 à 1847.

12

En 2012-2013, dans le cadre du programme triennal de numérisation (2011-2014) de la BnF dit de numérisation de masse, plusieurs collections de périodiques ont été numérisées. L’École a préparé les documents à numériser dans les locaux de la BnF. Il s’agit des Annales des chemins vicinaux, de la revue Le Génie civil (1880 à 1942), du Journal du génie civil, des sciences et des arts, du Portefeuille des conducteurs des ponts et chaussées et des garde-mines et de la Revue générale des chemins de fer (1878 à 1942), soit un total de 188 951 pages.

13

L’équipe du fonds ancien de l’École (3 personnes) prépare les documents à numériser (sélection, comptabilisation des pages et planches, rédaction des fiches Excel qui serviront à la RefNum, mise en caisses). Une fois la numérisation effectuée, elle contrôle de manière exhaustive les fichiers (RefNum, Alto [11][11] Alto est un format XML standard destiné à prendre en... et images).

RefNum, format d’encodage : un choix stratégique

14

Nos premiers chantiers de numérisation ayant précédé la création de la bibliothèque numérique, le choix du format d’encodage était large : METS, EAD, Dublin Core, etc. Notre partenariat avec la BnF et la numérisation pour Gallica d’un siècle d’Annales des Ponts et Chaussées nous orienta vers la RefNum [12][12] http://www.bnf.fr/fr/professionnels/num_metadonnee.... Ce schéma XML, conçu par la BnF pour les besoins de l’import des fichiers images dans Gallica, comporte des métadonnées de production, bibliographiques et de structure. Ces dernières caractérisent les images du document, leur fonction et place au sein du document. Cette finalité limitée à l’import explique que les métadonnées bibliographiques soient minimalistes ; les mots-clés en sont exclus. Les notices doivent alors être enrichies par une synchronisation avec le catalogue de la bibliothèque. En adoptant RefNum, nous avions aussi la garantie de récupérer facilement les fichiers des Annales des Ponts et tous ceux produits dans le cadre du programme dit de numérisation de masse.

Une application open source

15

Afin de garantir une parfaite intégration de la bibliothèque numérique avec le portail documentaire, il fut envisagé de s’appuyer sur notre système d’information documentaire (SID). Cette solution propriétaire comporte trois briques issues du même prestataire : un catalogue de bibliothèque, une photothèque et une GED. Un grand nombre de fonctionnalités souhaitées pour la bibliothèque numérique semblaient quasi disponibles quoique dispersées entre les trois briques. La GED, moyennant certains développements, paraissait apte à gérer les imports de fichiers numérisés et leur diffusion en ligne à l’aide d’un outil de feuilletage qui restait à intégrer. À cet égard, l’outil de feuilletage open source proposé par Internet Archive était un complément très satisfaisant. Mais, au terme d’une étude poussée, les coûts de développement s’annonçaient très supérieurs au budget prévu, notamment pour le module d’import des fichiers RefNum et Alto couplé à un outil de feuilletage en ligne autorisant la recherche plein texte. Cette solution fut donc écartée ainsi que les autres solutions propriétaires jugées insuffisantes.

16

Omeka, plateforme de diffusion en ligne pour bibliothèques, a d’emblée suscité notre intérêt. S’agissant d’une solution non propriétaire, le moindre développement ne nécessitait pas d’obtenir des autorisations. En outre, Omeka reposait sur un système modulaire souple intégrant toute une gamme de modules d’extension qui favorisent une personnalisation poussée. Enfin, Omeka était portée par une communauté très active de professionnels de la documentation et d’informaticiens parfaitement conscients des attentes de nos usagers. Ces raisons ainsi que la présence à l’École d’une Direction des services informatiques nous ont conduits à privilégier cette solution open source. Cependant, en nous dispensant d’un prestataire extérieur, il fallut composer avec les priorités et le calendrier de notre DSI car, contrairement à certains établissements, nous ne comptons pas d’informaticien au sein du service de documentation.

17

La bibliothèque numérique ouvre aujourd’hui avec les fonctionnalités jugées indispensables : feuilletage en ligne (avec zoom), impression, recherche plein texte, moissonnage OAI par nos partenaires, URL pérennes, filigrane des images, réseaux sociaux, etc. D’autres développements sont prévus : présence des PDF, synchronisation avec le catalogue, géo-référencement, amélioration des niveaux de zoom, conservation pérenne des données, etc.

18

Tous ces documents seront progressivement consultables sur le site internet de la bibliothèque patrimoniale de l’École [13][13] http://patrimoine.enpc.fr et moissonnés par Gallica. Nul doute que la richesse et la diversité des documents désormais accessibles en ligne séduiront les chercheurs comme le grand public.

19

Catherine Masteau

20

Gaëtan Tröger

L’abus d’open access est-il nuisible à la science ?

21

Débat. On reproche souvent aux éditeurs scientifiques de commercialiser leurs revues à des prix prohibitifs. Le mouvement de l’Open access se présente comme une alternative. Permet-il de concilier valeur scientifique et viabilité économique ?

22

L’Open access (ou accès ouvert, abrégé AO ou OA) peut se définir ainsi : un article, une revue, est en accès ouvert si chacun peut y accéder gratuitement en ligne. Cette définition amène souvent une question : « Si c’est gratuit, qu’est ce que ça vaut ? » Le bon sens suppose souvent que ce qui ne coûte rien ne doit pas valoir grand chose et, réciproquement, que ce qui est vendu cher a sûrement beaucoup de valeur. Appliqué aux revues, on pourrait en déduire que les grandes revues scientifiques peuvent (doivent) être chères.

L’abonnement, garant de valeur scientifique ?

23

Les tarifs pratiqués dans l’édition scientifique, tout en procurant le frisson cosmique de l’infiniment grand, semblent confirmer l’intuition. Voulez-vous vous abonner à Tetrahedron, chez Elsevier ? En 2013, c’est plus de 18 000 €. Au Journal of Materials Science chez Springer ? 13 257 € en 2014. Des sociétés savantes à but non lucratif (!) ont emboîté le pas : les titres de l’American Chemical Society forcent le respect par leurs tarifs : plus de 5000 $ pour Biochemistry.

24

Ce sont de grandes revues scientifiques. Elles sont très chères. De là à établir un lien de causalité entre les deux faits et à déduire qu’une revue peu coûteuse n’est pas scientifique, il n’y a que deux petits pas.

25

Ce sont deux faux pas et, de plus, dangereux. Mais l’argumentaire de certains éditeurs incite à les franchir : à parcourir le site de l’Association of American Publishers (AAP) [14][14] http://www.publishers.org/issues/5/8/ et la polémique fruste et agressive de son opération de lobbying PRISM (Partnership for Research Integrity in Science and Medicine) [15][15] http://www.prismcoalition.org/myth.htm, on comprend que l’édition est un métier, et que l’accès gratuit détruit la garantie de qualité apportée par le métier.

26

Pourtant, l’assimilation entre processus éditorial (la chaîne de publication) et processus de relecture (qui amène un relecteur à dire : « Cet article est scientifiquement valable »), entre validation scientifique et valeur marchande est insensée, puisque la relecture et la validation scientifique, qui sont le travail des chercheurs, ne sont pas rémunérées par l’éditeur. Du reste, toutes les grandes revues scientifiques ne coûtent pas cher. Le Journal of Topology, publié par Oxford University Press, est à peu près 14 fois moins cher que le Journal of Algebra d’Elsevier (500 € pour le premier contre 6 885 € pour le second d’après les tarifs 2013 disponibles en ligne). Est-ce à dire qu’il est 14 fois moins scientifique ? Pour répondre, empruntons un instant - avec des pincettes - la jauge grossière qui sert à l’évaluation des revues, l’impact factor, en l’utilisant comme mesure approximative du prestige scientifique. Le Journal of Algebra affiche 0,583, le Journal of Topology 0,672. À supposer que l’impact factor soit fiable, le Journal of Algebra, 14 fois plus cher, est, si l’on ose dire, 15 % moins prestigieux.

27

Le prix de l’abonnement n’est donc pas corrélé de façon fiable à la valeur scientifique d’une revue (CQFD). Voyons maintenant si l’accès ouvert offre de meilleures garanties.

L’open access peut-il garantir la valeur scientifique ?

28

« Les revues en accès libre (open access) […] proposent leur contenu gratuitement accessible sur Internet. Une avancée pour la diffusion du savoir ? Certainement. Mais aussi un insidieux facteur de détérioration de la qualité de la science publiée. » [16][16] Nicolas Chevassusau-Louis, « Chercheurs pris en fraude...

29

Le fragile bon sens voit bien en quoi l’AO peut servir l’avancée du savoir. La science mise à la portée de tous, c’est la possibilité pour chacun, y compris les pauvres en euros mais riches en neurones [17][17] Voir Pierre Mounier, « Impressions d’automne 1 : le..., d’aller à la source de l’information, de la vérifier, la corriger ou l’utiliser, contribuant ainsi à la progression de la connaissance. Cette intuition (ou ce rêve) préside au succès mérité de Wikipédia.

30

Où est donc le danger ? Il vient d’être illustré brillamment par un article de John Bohannon dans Science[18][18] John Bohannon, « Who’s afraid of peer-review ? », Science,.... Une des façons de financer l’OA est de déplacer le paiement du lecteur à l’auteur, en lui faisant payer des frais de publication pour couvrir les coûts (temps de travail, plateforme électronique, etc.). Or, ces frais de publication sont sujets au dérapage autant et sinon plus que les abonnements. Mais, sur - tout, leur montant ne garantit pas la qualité scientifique de la revue.

31

Pourquoi ? Parce que l’auteur et l’éditeur ont, tous deux, intérêt à ce que l’article paraisse. L’auteur sera tenté, le cas échéant, de débourser de fortes sommes pour cela, même si son article est médiocre (voire plagié ou falsifié). Et l’éditeur n’aura pas intérêt à être regardant sur la qualité des articles proposés, ni sur la rigueur de la relecture scientifique. Danger illustré de façon remarquable par l’expérience de John Bohannon : 304 soumissions d’un même article sciemment et grossièrement falsifié : 157 acceptations (assorties d’un devis), 96 refus.

32

Cette expérience ne prouve rien concernant l’Open access en général, ni concernant les éditeurs piégés (si ce n’est qu’ils se sont laissés aller à publier des revues sans les doter d’un comité de lecture digne de ce nom). Bohannon signale que « les journaux [en open access] publiés par Elsevier, Wolters Kluwer et Sage ont tous accepté mon papier bidon. ». Inversement, et j’avoue avoir été très heureux de l’apprendre, le fleuron de l’AO, Plos One, a rejeté l’article après une révision sévère [19][19] « PLOS ONE a été le seul journal à attirer l’attention....

33

Celui qui est prêt à débourser des sommes conséquentes trouvera toujours un journal prêt à le publier : avec l’Open access sont nés de nouveaux éditeurs « prédateurs » (une liste est disponible en ligne [20][20] http://scholarlyoa.com/publishers), qui font payer les auteurs pour publier leurs articles sans les faire expertiser. Et les éditeurs en vue n’échappent pas à la tentation. Le montant des abonnements ne garantit pas la qualité scientifique ; celui des frais de traitement ne fait pas mieux. Abonnement ou Open access, on s’égare si l’on cherche un lien entre la fiabilité de l’article et l’argent dépensé pour le publier.

Concilier valeur scientifique et acceptabilité économique ?

34

« Cet engagement public pour le libre accès aux articles scientifiques […] ne viendra en aucun cas à bout de la course effrénée à la publication qui est à la source de la dégradation de la qualité des articles scientifiques. » [21][21] Nicolas Chevassusau-Louis, « Chercheurs pris en fraude...

35

Accuser les éditeurs de rapacité ne dédouane pas le monde scientifique de sa responsabilité : la relecture. Le taux de rétractations après publication a été multiplié par 20 depuis 10 ans [22][22] Voir le blog : http://retractionwatch.wordpress.co. Tout se passe comme si l’inflation de la production scientifique et l’envol de ses tarifs allaient de pair avec une inexorable dilution du contenu et une perte rapide de rigueur et de qualité. Les failles du système d’évaluation scientifique sont signalées depuis longtemps : utilisation de l’impact factor et classement des revues, comptage des publications pour l’évaluation des chercheurs, etc.

36

Tout cela a conféré un poids considérable à des critères relevant de la notoriété et très faciles à falsifier. L’instauration d’un lien trop direct et trop fruste entre notoriété perçue, publications et carrière incite à la surenchère : publication à la découpe pour faire du chiffre, plagiat pour aller plus vite, fraude scientifique pour atteindre les revues qui comptent.

37

La refonte ou la mise à bas du système de notation des revues va devenir inévitable tant la dégradation qualitative est patente. Mais il s’agit pratiquement d’éliminer, dans l’activité des chercheurs, toute pression aux résultats, excusez du peu ! Vouloir qu’une expérience réussisse est humain, mais ce n’est pas scientifique. Le processus de publication devrait donc évacuer toute hâte, car un bon travail prend forcément beaucoup de temps, passé à expérimenter, produire, relire, vérifier et, souvent, à explorer des impasses. En bonne science, les expérimentations ratées sont des réussites. Les réplications aussi. C’est l’intuition du mouvement Slow science [23][23] http://slowscience.org et de la Reproducibility initiative [24][24] https://www.scienc eexchange.com/reproducibility : les éléments de refondation ne manquent pas, et l’éthique personnelle va y peser de son poids. C’est le refus des chercheurs de publier vite, beaucoup et mal, qui permet à la science de garder rigueur et fiabilité, au prix d’un peu de lenteur.

38

Bien sûr, la régulation économique a aussi son importance. Rendre un marché captif à la concurrence est un but sinon scientifique, du moins de politique scientifique. D’où l’importance de développer l’OA « voie verte » [25][25] Dans l’OA « voie verte », l’auteur publie dans une... face à l’abonnement, de marquer la différence entre traitement éditorial (épreuves, plateforme d’accès et services liés) et scientifique (production et relecture) ; de restaurer un circuit public d’édition (Open Edition Freemium et Episcience en sont des exemples naissants).

39

Il s’agit juste (!) d’ôter aux éditeurs commerciaux un monopole dangereux et de faire disparaître les revues chères, parasites du monde scientifique, en publiant largement les coûts comparés des éditeurs. Après tout, la science comporte une exigence intrinsèque de gratuité et de désintéressement et l’on est en droit de veiller, dans l’édition scientifique, à la corrélation étroite des coûts de production et de la valeur marchande.

40

Ces coûts étant de mieux en mieux connus au fur et à mesure que l’OA se développe, la communauté scientifique les observe attentivement et l’on peut compter sur elle pour faire pression sur ses éditeurs, puisqu’ils proclament avec constance et passion qu’ils sont au service de la recherche…

41

Olivier Legendre

Ressources numériques : mesurer les accès avec ezPAARSE

42

Outil. Quel que soit le domaine, connaître les besoins est primordial pour faire les bons choix afin de les satisfaire. En matière de ressources numériques, la mesure des usages est une véritable aide à la décision pour la conduite des politiques documentaires et scientifiques. Ainsi, l’Inist-CNRS, Couperin et l’Université de Lorraine se sont associés pour créer ensemble le logiciel ezPAARSE.

43

EzPAARSE (easy/Progiciel d’analyse des accès aux ressources électroniques) est un outil d’analyse, d’enrichissement et d’exploitation des logs d’accès, collectés localement par un proxy, aux ressources numériques proposées par les plateformes web des éditeurs. Il a été conçu pour les services communs de documentation (SCD) de l’enseignement supérieur et de la recherche. Il est néanmoins disponible à tout utilisateur, privé ou public, abonné auprès de ces éditeurs.

Comment utiliser ezPAARSE ?

44

EzPAARSE est un logiciel libre qui s’installe en quelques minutes. Transparent pour l’utilisateur, il consulte les fichiers de logs produits par le ou les serveurs mandataires de l’établissement. Ces logs sont une source très riche, où l’on trouve des informations comme le login, qui permet l’identification de l’institution et la discipline scientifique de l’utilisateur, et l’URL de l’article téléchargé qui informe sur la revue consultée.

45

À partir de ces données, ezPAARSE quantifie et caractérise l’utilisation des ressources numériques, en lien notamment avec des groupes d’usagers, des disciplines et sur des périodes de temps définies. Il permet ainsi la construction d’indicateurs homogènes essentiels pour une analyse fiable.

46

Des outils peuvent être utilisés en complément d’ezPAARSE comme Mesure, un portail pour moissonner, stocker et présenter les données d’usage fournies par les éditeurs ainsi que des outils de statistiques et d’analyse comme Excel ou Visokio. Effectivement, ezPAARSE produit des fichiers au format texte CSV qui servent de base à la réalisation de statistiques d’usages locales.

47

L’objectif principal dans la conception du logiciel ezPAARSE était de répondre au fort besoin, exprimé par les services communs de documentation de l’enseignement supérieur et recherche, d’évaluer l’usage des ressources numériques.

48

Cet outil tirera bénéfice d’une mutualisation. En effet, chaque nouvelle plateforme éditeur analysée permet de créer des parseurs spécifiques. Aussi, plus les utilisateurs d’ezPAARSE seront multiples, plus les plateformes traitées seront nombreuses et plus les indicateurs seront complets. Les analyses qui en seront tirées fourniront une aide précieuse lors des négociations et du pilotage des politiques documentaires.

Témoignage

Quentin Morelon, chargé de système d’information documentaire, cellule de documentation électronique - Bibliothèque de l’université Paris Descartes.

• Quelles étaient vos attentes par rapport à cet outil ?

L’espoir d’avoir un outil qui fédère les efforts de décryptage des plateformes et qui puisse s’appuyer sur une « base de connaissance » (des revues) commune.

• Comment s’est déroulée son installation ?

Je l’ai installé sans problème il y a plusieurs mois localement sur un poste Windows et je ne l’ai installé que récemment sur le proxy. N’étant pas administrateur sur le serveur, j’ai demandé au prestataire d’installer cURL et GIT. Le reste était simple et s’est bien passé. Je testerai plus tard la mise à jour des PKB (Publisher Knowledge Base) avec GIT.

• … et son utilisation ?

Sur Windows, j’ai simplement effectué des tests pour aider au débogage. Sur le serveur, je vais faire un script qui s’exécute tous les mois et qui génère plusieurs fichiers en fonction des indicateurs, probablement le nombre d’utilisateurs uniques (repère le plus fiable selon moi) par unité de lieu (plateforme, revue, etc.) et de temps (mois, année).

Quand j’aurai le temps, je ferai peut-être aussi un peu de traitement bibliométrique (regrouper les revues par l’usage des utilisateurs) et de visualisation de graphes dans Gephi. Se posera rapidement le problème de la restitution de ces résultats (rapports, graphiques, etc.) et de leur diffusion aux personnes concernées. Je devrai probablement développer une solution.

• Ce logiciel est-il pour vous un véritable outil d’aide à la décision concernant le choix des abonnements ?

À terme je l’espère. Ce sera peut-être long pour trouver les bons indicateurs. J’espère aussi que les plateformes importantes (Ebsco représente par exemple 20 % de nos accès) pourront être analysées sinon ce sera très handicapant. Il faudra aussi retrouver à un moment le format Counter pour comparer avec les chiffres des éditeurs. Une étude, déjà réalisée il y a quelques années, montrait que ni les chiffres ni les tendances ne correspondaient…

• Recommanderiez-vous ezPAARSE à d’autres utilisateurs ?

Bien sûr. C’est l’harmonisation de notre travail dont il s’agit, de la base de connaissance jusqu’aux indicateurs.

Contact : quentin.morelon@parisdescartes.fr

En savoir plus

• EzPAARSE est téléchargeable sur : http://analogist.couperin.org.

• Contact : ezpaarse@couperin.org

• Suivre le projet sur Twitter : https://twitter.com/ezpaarse

• Suivre le projet sur Facebook : https://www.facebook.com/Ezpaarse

49

Équipe chargée du projet ezPAARSE :

50

Cécilia Fabry (Inist-CNRS)

51

Alexandra Petitjean

52

Stéphane Gully (Inist-CNRS)

53

Dominique Lechaudel (Inist-CNRS)

54

Thomas Porquet (Couperin)

La chronique de Dominique Boullier. High Frequency Document

55

Communication. Le passage systématique aux formats courts dans tous les domaines de publication de documents modifie considérablement notre écosystème documentaire et notre économie de l’attention.

56

Certes, les livres peuvent être gros, les films longs, les albums de musique copieux et les rapports volumineux, mais chacun sait que ce qui permettra leur circulation n’est plus la note que pouvait faire le documentaliste, ni la 4e de couverture, qui préfiguraient déjà cet impératif d’attraction rapide de l’attention. Désormais, les extraits, les résumés, les trailers[26][26] Bande-annonce, les clips de sortie, les dossiers de presse résumés constituent les seules chances pour ces gros documents de circuler et de profiter de la viralité propre aux réseaux.

57

Le soin apporté à leur réalisation devient essentiel dans toute stratégie de communication. Mais leur statut documentaire finit dès lors par devenir flou. Tout document a toujours renvoyé à quantité d’autres documents, qu’ils soient référencés dans une bibliographie ou qu’ils soient présents au titre de l’intertextualité qui constitue la trame de toute création. Cependant, ces formats courts ne sont plus seulement destinés à annoncer un document complet : ils vivent leur vie et sont parfois les seuls documents auxquels les lecteurs, spectateurs, auditeurs vont avoir accès. Mieux, cette tactique de lecture qui consiste à survoler les documents par le truchement de leurs annonces et formats courts devient fort utile dans un environnement saturé d’offres de contenus de toutes sortes. Il est fort possible de se contenter du visionnage d’un trailer, de l’écoute d’un morceau ou de la lecture d’un extrait pour se faire une idée du contenu complet et pour pouvoir en parler dans les salons, l’important n’étant plus en effet de connaître d’expérience personnelle directe. Cette logique peut même s’étendre aux twitts ou aux mashups et anims à base d’extraits de films qui constituent l’essentiel des circulations d’information sur les réseaux, sans parler des sonneries de téléphone qui ont représenté pendant plusieurs années la plus grande source de revenus des entreprises musicales (la tendance a commencé à s’épuiser seulement en 2012).

58

L’économie de l’attention qui nous gouverne ne privilégie pas en effet la fidélité ou la durée de l’attention mais bien plutôt l’intensité et l’alerte : il faut et il suffit d’être au courant, d’être alerté, d’être même sur le qui-vive pour être le premier à savoir, à re-twitter, etc. Cet univers documentaire très particulier, que nous appelons le High Frequency Document car sa survie dépend de sa vitesse de circulation, ne produit aucune valeur durable mais seulement des profits différentiels d’attention. Il vit de sa propre vie, s’autonomise par rapport à la « vie documentaire réelle » et finit par l’attaquer dans ses principes mêmes, puisque tous les livres, disques, séries télé doivent de plus en plus se plier à des formats très courts. D’une nécessité d’alerte et d’orientation dans un univers d’incertitude (sur la valeur de ces biens d’expérience), nous sommes passés en moins de 20 ans à un univers du court autonome, autoréférentiel qui affecte en retour toute l’économie documentaire préexistante. Toute ressemblance avec le High Frequency Trading (HFT) et l’économie financiarisée n’est bien évidemment pas fortuite.

59

Dominique Boullier

Notes

[1]

Jean-Rodolphe Perronet (1708-1794), directeur de 1747 à 1794

[2]

Pierre-Charles Lesage (1740-1810), inspecteur de 1776 à 1810

[3]

Gaspard Riche de Prony (1755-1839), directeur de 1798 à 1839

[5]

Conservatoire national des arts et métiers

[6]

Disciplines : analyse, architecture, art militaire, béton armé, chemin de fer, chimie, constructions civiles, maritimes, métalliques, dessin, droit administratif, économie politique et sociale, électricité, géologie et minéralogie, géométrie appliquée, hydrologie, machines, mécanique, physique, photographie, ponts et routes.

[7]

Charles-Joseph Minard (1781-1870), inspecteur général des Ponts et chaussées

[8]

MEDDTL-DAM : Ministère de l’Environnement, du développement durable, des transports et du logement - Direction des affaires maritimes

[10]

Théodore Ravinet, sous-chef à la Direction générale des Ponts et chaussées

[11]

Alto est un format XML standard destiné à prendre en charge les informations issues de l’océrisation : le texte reconnu, son positionnement dans le fichier image, le niveau de qualité de la reconnaissance, etc.

[16]

Nicolas Chevassusau-Louis, « Chercheurs pris en fraude [4/5]. Le piège de la gratuité », Mediapart, 15/08/2013

[17]

Voir Pierre Mounier, « Impressions d’automne 1 : le cas Meredith », Homo numericus, 28/01/2012. http://blog.homonumericus.net/article11010.html

[18]

John Bohannon, « Who’s afraid of peer-review ? », Science, 4 October 2013, n° 342 (6154), p. 60-65. [DOI :10.1126/ science.342.6154.60, http://www.sciencemag.org/content/342/6154/60]

[19]

« PLOS ONE a été le seul journal à attirer l’attention sur les problèmes éthiques […] a rejeté le papier deux semaines après, en se fondant sur son contenu scientifique. » [trad.par l’auteur de cet article]

[21]

Nicolas Chevassusau-Louis, « Chercheurs pris en fraude [4/5]. Le piège de la gratuité », Mediapart, 15/08/2013

[25]

Dans l’OA « voie verte », l’auteur publie dans une revue classique (sous abonnement) mais archive ensuite son texte dans un dépôt électronique institutionnel librement accessible en ligne.

[26]

Bande-annonce

Plan de l'article

  1. Valoriser le patrimoine : le projet de la bibliothèque numérique de l’École des Ponts et chaussées
    1. Premiers chantiers de numérisation
    2. La politique de numérisation
    3. D’autres formes de partenariat
    4. RefNum, format d’encodage : un choix stratégique
    5. Une application open source
  2. L’abus d’open access est-il nuisible à la science ?
    1. L’abonnement, garant de valeur scientifique ?
    2. L’open access peut-il garantir la valeur scientifique ?
    3. Concilier valeur scientifique et acceptabilité économique ?
  3. Ressources numériques : mesurer les accès avec ezPAARSE
    1. Comment utiliser ezPAARSE ?
  4. La chronique de Dominique Boullier. High Frequency Document

Pour citer cet article

Masteau Catherine, Tröger Gaëtan, Legendre Olivier, Boullier Dominique, « Méthodes, techniques et outils », Documentaliste-Sciences de l'Information, 4/2013 (Vol. 50), p. 10-15.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2013-4-page-10.htm
DOI : 10.3917/docsi.504.0010


Article précédent Pages 10 - 15 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback