Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2009/1 (Vol. 46)

  • Pages : 80
  • DOI : 10.3917/docsi.461.0012
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 12 - 17 Article suivant

La gestion de l’information et des archives électroniques en Europe

1

Archives. La cinquième conférence du DLM Forum, qui a eu lieu à Toulouse du 10 au 12 décembre 2008, a permis l’examen d’un très large échantillon de réalisations récentes, dans plusieurs pays d’Europe, en matière de gestion des archives électroniques. Un certain nombre de problématiques fortes ont émergé, qui ont permis de dégager de nouvelles directions pour la fonction et le métier de l’archiviste, pour que celui-ci devienne un créateur de valeur dans la chaîne documentaire.

2

Cette conférence du DLM Forum fut un succès marqué notamment par le nombre élevé des participants (quatre cents), la forte présence d’étrangers de toutes nationalités même si les Européens étaient le plus fortement représentés. Succès marqué aussi par le nombre (une soixantaine), la variété et la qualité des interventions tant étrangères que françaises. Plusieurs thèmes ont été débattus, qui illustrent les évolutions et les nouveautés depuis la dernière conférence d’il y a trois ans, alternant réflexions théoriques et cas pratiques.

3

On en retire le sentiment encourageant que, enfin, on ose se lancer, depuis de petits projets « artisanaux » jusqu’à une automatisation croissante des processus : gestion et archivage des données de la mission « État de droit » au Kosovo (EULEX), sauvegarde numérique des courriers électroniques en Belgique (élaboration d’une directive), archivage de la banque d’information radiophonique des Deux-Sèvres, archivage des données des logiciels sociaux et des dossiers des maisons départementales des personnes handicapées (Haute-Garonne et Finistère), plates-formes d’archivage électronique du département des Yvelines et pilote de la direction des Archives de France ou de la ville d’Anvers.

4

La conférence a été ouverte par la directrice des Archives de France, Martine de Boisdeffre ainsi que par Gilles Lassare, nouveau responsable en charge des projets de l’administration électronique à la direction générale de la modernisation de l’État. Leur propos venait conforter la place structurante de l’archivage électronique au sein du nouveau plan Économie numérique 2012. Au-delà des thèmes permanents autour des stratégies, de l’accessibilité, des architectures, de la conservation pérenne des données et documents numériques, des formats (présentations notamment du format PDF/A) et des supports, des stratégies de migration et d’émulation (mise en œuvre de la première version de l’émulateur DIOSCURI aux Pays-Bas), on peut se féliciter de la consolidation voire de l’émergence de thèmes nouveaux.

Plusieurs thèmes émergents : normalisation, interopérabilité, certification, pérennité, automatisation des processus…

5

On notera ainsi les conférences consacrées aux normes et à leur applicabilité : normes orientées « records management » et « archivage électronique » qui ont fleuri ces dernières années, dans des environnements et des contextes variés, nécessitant d’effectuer une cartographie critique de ces textes, ainsi que d’élaborer des guides explicatifs et des recueils de bonnes pratiques permettant de meilleures compréhension et prise en compte par des utilisateurs désarçonnés par le volume, le langage, les différents concepts et vocabulaires.

6

Thème également émergent : celui du transfert des données et de la question de l’interopérabilité, pour lequel l’Estonie, mais également la France, sont intervenues avec insistance : projet de coopération entre plusieurs pays européens avec la mise en place d’un wiki, application du standard d’échange de données pour l’archivage développé par la France à la préparation des transferts de documents issus de plusieurs processus métier (données sonores, données issues de logiciels « sociaux » ou encore d’outils de gestion électronique de documents).

7

Autre problématique abordée, celle de la certification avec l’expérience de la France (mise en place du COREF à l’initiative de trois fédérations professionnelles) ou encore le processus mis en place par les archives nationales d’Estonie qui s’appuient sur des auditeurs certifiés des systèmes d’information (CISA) sélectionnés dans le cadre d’un marché public (enregistrement des équipements et certifications d’outils). Notons également la mise en place, dans le cadre d’un projet européen, de l’outil DRAMBORA [1][1] Digital Repository Audit Method Based on Risk Asse... centré sur l’audit et où le risque et la gestion du risque sont les principaux moyens permettant de déterminer les bonnes performances d’un entrepôt et d’établir une courbe des améliorations.

8

La planification de la pérennisation, brique fondamentale de l’OAIS, est un domaine qui commence à être étudié à part entière aujourd’hui. Saluons dans ce cadre la présentation relative à la stratégie mise en œuvre aux archives nationales des Pays-Bas qui expérimentent et testent des outils de planification et de conservation proposés par le projet européen PLANETS afin d’obtenir des programmes de conservation standardisés et automatisés qui pourront être exécutés dès que les documents électroniques seront intégrés au dépôt numérique, ou encore la présentation du projet de plate-forme de la Bibliothèque nationale de France (SPAR) visant, par les choix opérés pour son infrastructure de stockage, à allier à la fois performance, accessibilité et pérennité.

9

Enfin un thème récurrent a été souvent évoqué, celui de la nécessité, étant donné la diversité croissante en terme de taille et la complexité des nouvelles ressources numériques, d’introduire une automatisation croissante dans les processus, que ce soit pour l’ingestion des archives sur les plates-formes, l’extraction des métadonnées, les modes de classement ou encore les technologies « agents intelligents » utilisées par exemple dans le projet européen PROTAGE pour lequel une sélection de ces « agents » collaborent afin de garantir que les objets numériques pertinents soient sélectionnés, analysés et transférés pour être retenus et conservés.

Repères

Le DLM Forum (Document Lifecycle Management) a été fondé sur les bases des conclusions du Conseil de l’Union européenne (Journal officiel des Communautés européennes C 235 du 17 juin 1994) concernant la coopération dans le domaine des archives. Il s’est développé en un regroupement d’intérêt économique rassemblant les archives nationales d’une vingtaine de pays, des administrations, des entreprises et des organismes de recherche de l’Union européenne autour des problèmes de la gestion de l’information numérique et du records management dans un environnement électronique.

La cinquième conférence du DLM Forum s’est tenue à Toulouse, au centre des congrès Pierre-Baudis, du 10 au 12 décembre 2008, sur le thème suivant : « La gestion de l’information et des archives électroniques en Europe : réalisations et nouvelles directions ». Organisée par la direction des Archives de France, en partenariat avec l’Association des archivistes français, cette manifestation clôturait l’ensemble des manifestations relatives aux archives mises en œuvre dans le cadre de la Présidence française de l’Union européenne.

Pour en savoir plus sur le programme et le contenu de cette conférence : www. dlm2008. com

Convergences sur l’OAIS et l’accès à l’information numérique

10

Les convergences des approches sont apparues clairement, notamment autour de l’adoption du modèle structurant qu’est l’OAIS [2][2] Open Archival Information System (norme ISO 14721),..., ainsi que des méthodologies mises en place : intervention de l’archiviste le plus en amont possible du cycle de vie des données, travail à mener en étroite collaboration entre l’archiviste et l’informaticien, stratégie organisée autour de la sécurité et de la gestion des risques (avec l’utilisation de la norme ISO 27001), projets de mutualisation à encourager afin de réaliser des économies d’échelle (par exemple au niveau d’un conseil général pour les autres collectivités du territoire).

11

Concernant les stratégies en matière d’accès à l’information numérique, des mises en garde ont été faîtes relatives au danger de juxtaposer sur les réseaux des documents sélectionnés pour élaborer des récits attrayants mais extraits de leur contexte et perdant ainsi leur sens et leur authenticité. Ou encore sur les conséquences des lois relatives à l’accès à l’information sur la gestion des documents numériques et la faiblesse trop souvent constatée au niveau du records management. Il a été préconisé la mise en place pour l’usager d’interfaces adaptées, simples et neutres à la fois.

12

On note l’exemple donné par les archives nationales danoises qui ont élaboré un outil Access pour des données extraites de bases de données. Celui-ci permet d’accéder aux données d’une manière qui est à la fois facile à utiliser pour le profane et assez sophistiquée pour permettre une exploitation exhaustive de la structure avec la puissance des fonctions de requêtes habituelles des systèmes de bases de données. Autre exemple : celui de la mutualisation et de la valorisation d’un travail d’archivage sur des documents numériques (au CNES à Toulouse) à travers des outils de gestion des connaissances avec la création d’un fonds documentaire de la mémoire d’entreprise reposant sur des outils de classement automatique, des ontologies et la modélisation des métiers.

La version 2 de MoReq

13

Autre événement qui a marqué cette conférence : la publication en 2008 de la version 2 de MoReq (Model Requirements for the Management of Electronic Records ou Exigences types pour la maîtrise de l’archivage électronique) qui définit les exigences fonctionnelles d’un système d’archivage électronique au sens fort du mot archivage, publication suivie en France de la sortie pour la conférence du DLM de sa traduction en français, demandée par la direction des Archives de France à Marie-Anne Chabin [3][3] Présidente de Archive 17. qui avait déjà assuré en 2001 la traduction de la première version de MoReq.

14

A été également ajouté à cette traduction un chapitre 0 visant à présenter l’environnement français de MoReq entre records management et archivage. Une originalité de ce chapitre vient de l’introduction d’une partie consacrée au contexte français du RM, ainsi que de la présentation de ce référentiel par rapport aux autres normes et standards relatifs au domaine (records management et archivage électronique), leurs points de recoupement, leurs différences, leurs articulations. L’autre originalité provient de la présentation de plusieurs cas d’espèces de mise en application des principes du records management tant dans le secteur public que dans le secteur privé. MoReq a été présenté dans le cadre de plusieurs ateliers et notamment de son application dans des cadres nationaux (Roumanie) ou par le biais d’études de marchés réalisées pour le compte de l’Allemagne, de l’Autriche et de la Suisse.

Perspectives du métier d’archiviste

15

La manifestation s’est terminée sur l’évolution du métier de l’archiviste. Les convergences sont nombreuses à travers les réflexions menées par exemple par le service national de la Poste ou par les conseils généraux de l’Aube ou des Yvelines, sur les nouvelles missions dévolues aux services publics d’archives avec un déport de l’action et de la prise en charge dès le début du cycle de vie des archives. Cette prise en charge très précoce se retrouve dans l’expérience des archives fédérales d’Allemagne ou encore des archives nationales des Pays-Bas (rôle d’entrepôt numérique de confiance pour le compte des agences gouvernementales). Autres interrogations liées : celles relatives aux notions de « versement », de numéro de versement, de système de cotation continu, à la nécessité d’une gestion très fine des droits d’accès, à la pertinence des tris pour les archives numériques, à la gestion des dossiers hybrides (papier et numérique).

16

Finalement, par la mise en œuvre des pratiques du records management génératrices de gains qualitatifs mais également quantitatifs en matière de gestion de l’information, les archivistes deviennent des prestataires de services auprès des organisations. L’enjeu est de taille avec, dans le contexte du renforcement de l’administration électronique actuellement mis en place, l’occasion pour les archives de devenir de véritables leviers pour la modernisation de l’administration. Ou, dit autrement, comment réussir à intégrer pleinement la gestion documentaire électronique dans les initiatives de réforme des services publics à travers la compréhension et la participation au processus de formulation du savoir, en passant d’un principe d’enregistrement passif à une démarche beaucoup plus engagée et interactive et en faisant de l’archiviste un créateur de valeur dans la chaîne documentaire ? •

17

Françoise Banat-Berger

Le nouveau visage des données de recherche

18

Information scientifique. Dans toutes les disciplines scientifiques se construisent de vastes espaces numériques contenant des millions de données produites par les chercheurs. Ces données de recherche prennent ainsi un nouveau visage où se brouille la frontière entre donnée, publication et information et qui conduit à réactualiser les concepts d’interopérabilité et de pérennité des données et des systèmes.

19

Un des grands projets qui anime aujourd’hui les astronomes des quatre coins de la planète est la mise en place d’un observatoire virtuel. Son but : pouvoir scruter le ciel sous tous les angles dans toutes les dimensions (optiques, spectrales, etc.). Pour y parvenir, les astronomes ne prévoient pas de construire un nouveau télescope, ils envisagent plutôt de rassembler toutes les images et les mesures prises par les grands télescopes du monde et d’en faire un tout cohérent. Ce « tout », c’est un espace numérique où des millions de données sont accessibles, c’est l’observatoire virtuel.

20

La réalisation de ce « tout » virtuel mobilise les astronomes au travers de projets propres à leur pays, comme le National Virtual Observatory (NVO) aux États-Unis, et les pousse à joindre leurs efforts à une échelle plus vaste, celle de la planète, en créant des partenariats comme l’International Virtual Observatory Alliance (IVOA).

21

Des « tout » tel celui de l’observatoire virtuel n’existent pas qu’en astronomie, ils se retrouvent dans plusieurs autres domaines scientifiques. En biologie moléculaire, les chercheurs rassemblent dans de vastes banques de données les séquences de protéines et de gènes fournies par de multiples laboratoires. Uni Prot KB, par exemple, est une banque qui contient plus de cinq millions de structures de protéines et, pour en exploiter pleinement les ressources, les chercheurs s’emploient à créer des outils informatiques qui mettent les séquences en rapport les unes avec les autres. Autre domaine : celui de l’environnement. Les systèmes qui collectent des informations sur la flore, la faune, la biodiversité (GBIF, par exemple) ou le climat alimentent des réservoirs de données de plus en plus volumineux qu’il faut organiser pour pouvoir en tirer des informations utiles.

22

Même le secteur des sciences humaines est touché : le projet ADONIS [4][4] Voir : Documentaliste - Sciences de l’information,... en France se fixe comme objectif d’offrir aux chercheurs un « espace de navigation unifié » pour explorer les documents et les données numériques des sciences humaines et sociales (SHS). Il ne s’agit plus de scruter les étoiles dans le ciel, comme dans le cas de l’observatoire virtuel, mais d’avoir des outils pour s’orienter dans le vaste espace documentaire des SHS. La démarche reste cependant la même : des données existent, éparpillées, il faut les rendre accessibles au travers d’un « tout » numérique cohérent.

23

La construction de ces espaces gagne ainsi progressivement l’ensemble des disciplines et, logées au cœur des « tout », se trouvent les données numériques produites par les chercheurs : il s’agit des données de recherche. Sous la poussée des « tout », celles-ci sont en train d’adopter un nouveau visage dont l’exemple de l’observatoire virtuel donne les grandes lignes.

La frontière s’estompe entre les données de recherche, les publications et l’information scientifique

24

Une vision classique du circuit de production et de diffusion de l’information scientifique établit une distinction entre les données et les publications. Les chercheurs travaillent à partir des données en tant que matériaux sources et, quand leurs analyses débouchent sur des résultats intéressants, ils les publient sous la forme d’articles. Dans cette vision, les données correspondent aux matériaux bruts et les publications aux résultats de l’exploitation des données. Schématiquement, la chaîne est « collecte ? analyse ? publication ».

25

Avec l’observatoire virtuel, un autre circuit se met en place, car les scientifiques vont d’abord rassembler les données éparpillées qu’ils possèdent les uns et les autres, ce qui implique de diffuser et de publier ces données, et ce n’est qu’après cette étape qu’ils entameront leur analyse. La nouvelle chaîne devient « collecte ? publication ? analyse ». Cette fois-ci la notion de publication n’est plus réservée aux seuls résultats et celle de donnée englobe à la fois des matériaux bruts et d’autres, plus élaborés, qui résultent des traitements appliqués à ces matériaux pour les rendre publiables.

26

La nouvelle chaîne ne se substitue pas à l’ancienne, les deux vont coexister. Mais la frontière donnée-publication-information va se brouiller, les trois termes vont devenir interchangeables.

27

Comment en est-on arrivé là ? La construction de l’observatoire virtuel entend rassembler des collections de données détenues par différents observatoires du monde : l’éparpillement de ces données constitue l’un des facteurs contribuant à l’émergence de la nouvelle chaîne. Autre facteur : la profusion des données générées par les nouveaux équipements de recherche. Au moment où des projets comme le NVO devenaient opérationnels, vers 2002, les scientifiques prenaient conscience d’un phénomène touchant bon nombre de disciplines qu’ils appelèrent le « déluge des données [5][5] Voir l’article de Tony Hey et Anne Trefethen : « The... ».

28

En physique, par exemple : un accélérateur de particules comme le nouveau collisionneur LHC [6][6] LHC : Large Hadron Collider (Grand collisionneur à... du CERN [7][7] CERN : Organisation européenne pour la recherche n... est conçu pour produire près de 10 Po [8][8] 1 Po = 1 Péta octet = 1 000 To = 1 000 000 Go. de données par an. Pour exploiter cette gigantesque masse d’information, une grille WLCG reliant deux cents sites informatiques répartis dans une trentaine de pays a été mise sur pied. Cette grille met les données à la disposition des scientifiques pour qu’ils les exploitent, son circuit de fonctionnement est « collecte ? diffusion ? exploitation », il constitue une variante de la chaîne « collecte ? publication ? analyse » de l’observatoire.

29

Ces deux facteurs, l’éparpillement et la profusion des données, peuvent aussi intervenir simultanément. C’est ce qui arrive dans les systèmes de surveillance planétaire du climat ou de l’environnement, qui rassemblent d’énormes volumes de données provenant de multiples réseaux de collecte.

30

Observatoire virtuel, accélérateur de particules, banque de données biomoléculaires, système de surveillance, etc. : à chaque fois la nouvelle chaîne s’impose car des données existent en grand nombre et, pour être analysées ou exploitées, elles ont préalablement besoin d’être diffusées ou publiées.

Repères

Les projets cités dans cet article

ADONIS : Accès unifié aux données et documents numériques des sciences humaines et sociales. Projet initié par le CNRS en 2005, actuellement en cours de développement.

ASOVFrance : Action Spécifique Observatoires Virtuels France. Structure créée en 2004 par l’INSU (Institut national des sciences de l’univers), soutenue par le CNRS et le Centre national d’études spatiales (CNES).

GBIF : Global Biodiversity Information Facility. Projet international lancé en 2001.

IUni Prot KB : Uni Prot Knowledge Base. Base de séquences de protéines de l’ensemble Uni Prot créé en 2002 à partir des bases Swiss Prot, Trembl et Pir.

NVO : National Virtual Observatory. Projet animé par l’Université John Hopkins, opérationnel depuis 2003.

VOA : International Virtual Observatory Alliance. Organisation créée en 2002, regroupant seize pays.

VOT : Virtual Observatory Table. Format XML défini par l’IVOA.

WLCG : World Wide LHC Computing Grid. La construction de cette grille a démarré en 2003.

Réactualisation des concepts d’interopérabilité et de pérennité

31

Habituellement l’interopérabilité s’applique aux systèmes : deux systèmes deviennent interopérables quand on peut à partir de l’un ou de l’autre activer les ressources des deux. Si les ressources comprennent des données, chaque système possède sa propre interface pour accéder aux données. L’observatoire virtuel propose un nouveau modèle d’interopérabilité : une interface unique prend en charge l’ensemble des données et des services des différents systèmes. Les données se retrouvent directement impliquées car elles doivent respecter des spécifications précises, des standards, afin de pouvoir être prises en charge par l’interface unique. L’IVOA a par exemple mis au point un standard VOT décrivant le format des tables de données astronomiques qui peuvent être intégrées dans l’observatoire virtuel.

32

La nécessité de normes et de standards est reconnue depuis longtemps en matière de diffusion, notamment pour définir les éléments descriptifs qui permettent de retrouver une publication (les métadonnées), mais elle se réactualise avec la prise en compte, dans le champ des données de recherche, de matériaux bruts ou élaborés qui se présentent sous une multitude de formats.

33

Le concept de pérennité se réactualise également. La conservation à long terme, autrement dit la pérennité des publications traditionnelles en papier repose sur des procédures d’archivage patiemment testées au cours des siècles. Les données numériques ne disposent pas d’une telle assise, leur conservation sur dix ans, cent ans, s’avère fragile. Pour que les données de recherche des « tout » numériques restent utilisables à long terme, de nombreux soins doivent leur être prodigués : il faut d’abord surveiller les signes d’altération de leur support matériel et veiller à maintenir un environnement logiciel capable de restituer leur contenu. Dans le cas d’un simple texte archivé numériquement, ces soins sont déjà assez conséquents. Ils se démultiplient quand entrent en jeu les formats techniques liés aux équipements de capture des données. Il faut également s’assurer de la validité des données.

34

Le monde anglo-saxon utilise le terme de « curation » pour décrire les soins à apporter aux données numériques afin qu’elles soient accessibles et réutilisables. Le NVO est par exemple associé au centre DRCC [9][9] DRCC : Digital Research and Curation Center. Centre... pour l’archivage de ses données. En France le terme d’« archivage pérenne » tend à englober les opérations de stockage, de préservation, de conservation et de gestion à mener sur les données pour qu’elles restent aisément accessibles et exploitables.

35

Le nouveau visage des données de recherche, qui met en avant l’interopérabilité et la pérennité, se déploie depuis cinq ou six ans déjà, principalement aux États-Unis et au Royaume-Uni, dans le cadre de l’e-science et des cyber-infrastructures. En France, il émerge progressivement. En astronomie, par exemple, l’IVOA, à laquelle la France ne participait au début que par l’intermédiaire des projets européens, compte depuis 2004 une structure française parmi ses membres, l’ASOVFrance. •

36

Dominique Aussant

La chronique de Stéphane Chaudiron. La recherche scientifique au risque de l’évaluation

37

La fièvre de l’évaluation semble avoir saisi les acteurs du système de recherche français. Si mesurer son efficacité est légitime, on peut s’interroger sur les finalités de l’évaluation et son risque d’instrumentalisation.

38

La question de l’évaluation est loin d’être nouvelle pour les professionnels de l’information mais se pose de manière neuve depuis que les autorités de tutelle de la recherche et les bailleurs de fonds l’ont transformée en enjeu politique. Le classement de Shanghai a ainsi entraîné, dans le monde académique, l’apparition d’une fièvre de l’évaluation dont les effets sont perceptibles à tous les niveaux, du chercheur à la ministre. Celle-ci ne déclarait-elle pas le 2 juillet 2008 que la « réalisation d’un classement européen des universités est une priorité pour la Présidence française de l’Union européenne en matière d’enseignement supérieur » ? Que signifie cet unanimisme et que sert un tel classement ?

39

Il ne s’agit pas d’affirmer que l’évaluation dans le champ des politiques publiques est une exigence illégitime mais de s’interroger sur les objectifs de cette pratique qui, les documentalistes le savent bien, se fonde sur des indicateurs très divers, mal contrôlés méthodologiquement, souvent inadaptés et dont l’interprétation est la plupart du temps contestable. Ainsi, dans le domaine jusque-là relativement épargné des SHS, cette fièvre comptable semble avoir saisi de nombreux directeurs de laboratoires et de départements scientifiques ainsi que les comités de visite de l’agence de l’évaluation (AERES) qui manient désormais facteur d’impact, h index et autres indicateurs avec la ferveur des nouveaux convertis, mais sans toujours en saisir les modes de construction ni les difficultés d’interprétation. De même, à la suite du rapport Bourdin, on reste dubitatif sur les méthodes utilisées pour établir les classements des universités qui valorisent systématiquement celles des pays où ils sont établis.

40

Mais, dépassant les questions méthodologiques, se dévoile un enjeu politique. Au-delà de la volonté de disposer d’outils de contrôle supposés améliorer le dispositif de recherche et sa compétitivité, on assiste en effet à une instrumentalisation de l’évaluation s’inscrivant dans la doctrine du New Public Management, destinée à importer le benchmarking comme technique de contrôle administratif de la recherche et remède managérial de la sphère publique.

41

Pour comprendre l’importance de l’enjeu, il faut le resituer dans la construction de l’Espace européen de la recherche, emblématique de la politique néolibérale mise en œuvre par la stratégie de Lisbonne et dans laquelle la compétitivité est endogène à la course sans fin que doivent désormais se livrer laboratoires, organismes de recherche et universités. L’évaluation comparative devient ainsi une fin en soi dans une vision de la recherche où sa finalité n’est pas de réduire les inégalités socio-économiques mais de distinguer des « pôles de compétitivité », des « centres d’excellence » susceptibles de concurrencer les laboratoires américains ou japonais et d’attirer les « meilleurs cerveaux ». En appliquant les méthodes du benchmarking à la recherche et l’enseignement supérieur, l’objectif est d’introduire sur le marché concurrentiel ce qui y échappait jusqu’à présent au moins dans une partie de l’Europe, à savoir la recherche fondamentale et les formations universitaires. •

Notes

[1]

Digital Repository Audit Method Based on Risk Assessment.

[2]

Open Archival Information System (norme ISO 14721), modèle conceptuel pour une Archive numérique.

[3]

Présidente de Archive 17.

[4]

Voir : Documentaliste - Sciences de l’information, 2008, vol. 45, n° 2, p. 4-6.

[5]

Voir l’article de Tony Hey et Anne Trefethen : « The Data Deluge : An e-Science Perspective », publié dans Grid Computing – Making the Global Infrastructure a Reality, Wiley, janvier 2003. www. rcuk. ac. uk/ cmsweb/ downloads/ rcuk/ research/ esci/ datadeluge. pdf

[6]

LHC : Large Hadron Collider (Grand collisionneur à hadrons).

[7]

CERN : Organisation européenne pour la recherche nucléaire.

[8]

1 Po = 1 Péta octet = 1 000 To = 1 000 000 Go.

[9]

DRCC : Digital Research and Curation Center. Centre rattaché à l’Université John Hopkins.

Plan de l'article

  1. La gestion de l’information et des archives électroniques en Europe
    1. Plusieurs thèmes émergents : normalisation, interopérabilité, certification, pérennité, automatisation des processus…
    2. Convergences sur l’OAIS et l’accès à l’information numérique
    3. La version 2 de MoReq
    4. Perspectives du métier d’archiviste
  2. Le nouveau visage des données de recherche
    1. La frontière s’estompe entre les données de recherche, les publications et l’information scientifique
    2. Réactualisation des concepts d’interopérabilité et de pérennité
  3. La chronique de Stéphane Chaudiron. La recherche scientifique au risque de l’évaluation

Pour citer cet article

Banat-Berger Françoise, Aussant Dominique, Chaudiron Stéphane, « Méthodes techniques et outils », Documentaliste-Sciences de l'Information 1/2009 (Vol. 46) , p. 12-17
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2009-1-page-12.htm.
DOI : 10.3917/docsi.461.0012.


Article précédent Pages 12 - 17 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback