Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2009/3 (Vol. 46)

  • Pages : 80
  • DOI : 10.3917/docsi.463.0014
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 14 - 19 Article suivant

À qui profite la normalisation documentaire ?

1

Normalisation. Les modèles économiques de production et de diffusion des normes et métadonnées étaient au centre de la journée d’étude annuelle Afnor-BnF, qui a eu lieu le 5 juin 2009 à Paris. Organisée à la BnF par la CG 46 de l’Afnor, elle entendait prendre la mesure des mutations que le développement d’Internet a imprimées au champ de la normalisation documentaire, désormais étendu à d’importants secteurs économiques comme l’industrie culturelle et la diffusion de l’information scientifique et technique.

2

Que représente la normalisation documentaire, dont le champ s’étend à d’autres secteurs d’activités que celui des bibliothécaires et des documentalistes ? Bouleversée par l’internet, elle doit répondre aujourd’hui à des nouvelles problématiques comme l’interopérabilité des systèmes d’information et l’identification des objets numériques. Par ailleurs, les sommes investies dans l’achat des normes, la mise à disposition d’experts et les cotisations des entreprises et des ministères posent la question du retour sur investissement. Cette journée entendait mettre l’accent sur les enjeux de la normalisation, facteur de compétitivité économique mais aussi instrument de pouvoir, et examiner les secteurs porteurs pour la normalisation documentaire.

Deux enjeux : l’enseignement et la valorisation des actifs

3

L’enjeu pour l’accès à la connaissance est de rééquilibrer l’hégémonie de Google et la dérégulation des contenus éducatifs. Si la norme garantit l’interopérabilité pour les nouveaux acteurs qui contrebalancent les acteurs dominants, il faut répondre à un autre défi. Avec Google, en effet, le buzz remplace la construction des connaissances, donnant aussi une approche monocorde de la culture, mêlée de considérations commerciales, et creusant un fossé entre ceux qui n’ont accès qu’aux savoirs communs gratuits et ceux qui bénéficient d’un accès aux savoirs payants. L’enjeu est politique car la norme est souvent le fait des grands industriels qui élaborent des standards de fait, validés ensuite par des experts payés par des industries privées. Il faut se donner les moyens d’avoir des politiques égalitaires d’accès aux savoirs, d’identifier les types de savoirs essentiels et les archives numériques ouvertes, d’adopter des moteurs de recherche adaptés, de bâtir des compétences documentaires et d’augmenter le dispositif de formation du public en ligne.

4

Depuis 2007, l’Agence pour le patrimoine immatériel de l’État (APIE) agit pour valoriser les actifs immatériels de l’État, actifs culturels dont on a détaillé les objectifs et le mode de fonctionnement. Chargée notamment de valoriser les bases de données, les marques et les savoirs ainsi que le patrimoine historique, elle ne peut manquer d’être intéressée par les enjeux liés aux normes.

Des acteurs

5

La Fédération internationale des associations de bibliothécaires et des bibliothèques (IFLA), qui n’entend pas remettre en cause son modèle économique fondé sur la construction de la norme par un travail collaboratif bénévole et la vente de quelques publications, répondra aux prochains défis que sont le contrôle bibliographique des collections numériques, la convergence entre bibliothèques, archives et musées et l’intégration de notices dans le web sémantique.

6

L’ouverture, c’est sur cette idée que fonctionne le World Wide Web Consortium (W3C), instance internationale financée par ses membres, qui « veille depuis 1989 à ce qu’il n’y ait qu’un seul web dans le monde ». Disposant de plusieurs groupes de travail et de bureaux régionaux, comme l’Ercim pour l’Europe, il fonctionne en liaison avec quarante autres organismes. Parmi ses principes : une participation ouverte, des règles définies par consensus, un code interopérable, des spécifications gratuites en ligne et des standards ouverts – puisque c’est à ce prix qu’un large accès à l’information et sa réutilisation restent assurés.

7

L’Organisation internationale de normalisation (ISO), c’est 161 pays membres, 200 comités techniques et des groupes de travail qui produisent 1 200 normes nouvelles chaque année, ainsi qu’un bureau à Genève. Son financement est assuré à 60 % par les cotisations de ses membres et à 40 % par les ventes de normes et des prestations. Ce modèle fondé sur le consensus, le volontariat et la compétence des experts, pose néanmoins le problème du poids des pays riches, qui ont les moyens de participer aux travaux.

8

L’ISSN, norme pour la description des publications en série, est un exemple de mise en œuvre d’une norme ISO. C’est un réseau de 87 pays membres et un centre international à Paris qui représente aussi les pays qui ne disposent pas encore de centre ISSN. Si l’enregistrement pour les utilisateurs est gratuit et que de nombreux acteurs en bénéficient, le financement est assuré encore majoritairement par des fonds publics (l’Unesco et les États), puis par le paiement de prestations et de produits, même si le poids de ces derniers tend à croître.

La valeur ajoutée pour les industries culturelles

9

La normalisation présente le même intérêt pour les œuvres de l’esprit, qui font aujourd’hui l’objet d’une commercialisation de masse, que pour les autres biens, même si elles ont des caractéristiques et des valeurs particulières. L’enjeu est d’organiser leur diffusion et leur circulation, et c’est le livre qui servira d’accroche pour cette démonstration.

Pour en savoir plus

• Sur la journée d’étude

On trouvera le programme de cette journée d’étude, les résumés, textes et supports des interventions à l’adresse : www. bnf. fr/ pages/ zNavigat/ frame/ infopro. htm? ancre= journeespro/ jp_intro. htm

• Sur la CG 46

La commission générale « Information et Documentation » (AFNOR/CG 46) a pour objectifs de :

  • définir la politique et l’orientation des travaux de normalisation française dans le domaine de l’information et de la documentation et assurer la coordination des commissions de normalisation (CN) placés sous sa responsabilité ;

  • constituer une force de proposition pour le comité technique ISO/TC 46 « Information et documentation » dont elle est le miroir. La CG 46 joue, en effet, un rôle moteur au sein de ce comité dont, depuis 2001, la présidence est française et le secrétariat est assuré par l’Afnor. En raison de ses contributions et de sa participation dans les différentes instances du TC 46, la CG 46 se doit de créer une dynamique au plan international.

La CG 46 pilote un certain nombre de commissions de normalisation qui élaborent les normes destinées aux bibliothèques, centres de documentation et d’information, services d’indexation et d’analyse, archives, monde de l’édition, organismes culturels tels que les musées.

www. bnf. fr/ PAGES/ infopro/ journeespro/ pdf/ AFNOR2008/ afnor_CG46. pdf

Le format Onix

10

Ce format a été développé pour l’échange d’informations bibliographiques, celles qui sont liées à la distribution commerciale et aux licences de droits. Il est adapté à un contexte où une chaîne physique complexe tend à se dématérialiser. Norme largement utilisée dans les pays anglo-saxons et de l’Europe du Nord, elle a un niveau de profondeur que peuvent gérer avec profit les bibliothèques et les autres acteurs de la chaîne.

L’identification

11

Les revenus associés à la représentation des biens culturels font de l’identification un enjeu stratégique, vital pour la rémunération de la création lorsqu’il y a représentation sans transaction. Les identifiants nécessaires étant extrêmement nombreux, il importe de définir des règles de gouvernance, d’assurer l’échange des métadonnées et de définir des règles d’interopérabilité.

Les formats du livre numérique

12

L’environnement électronique conduit à gérer de très nombreux fichiers et des formats hétérogènes. Si rationaliser et standardiser est crucial, les choix sont délicats pour les fournisseurs de contenus, puisque les modèles économiques restent à construire et que les solutions techniques ne sont pas stabilisées ni la pérennité garantie. D’où d’énormes difficultés pour créer une bibliothèque cohérente. Puisque la normalisation doit s’appliquer à la structuration intellectuelle et non plus à un type de document, il faut suivre l’évolution d’un contexte ouvert, tout en veillant à la permanence des contenus.

Les enjeux

13

Les coûts pour l’Afnor croissent, notamment celui du temps consacré par les experts à des travaux menés au niveau international, et à cause de la diversification des champs et de la nécessité de réviser régulièrement les normes. Si les travaux au niveau européen se surajoutent, on rationalise les efforts, en reprenant des normes nationales déjà existantes, pour le bénéfice de tous – l’accès au marché européen étant de meilleure qualité.

14

Le records management, associé au dépôt de brevet et à la contractualisation, permet d’obtenir le bon document au bon moment, et la normalisation de limiter les risques. Si le processus de contrôle d’un document doit débuter en amont d’un projet, la capitalisation documentaire doit se faire en même temps que l’avancée d’un projet ou d’un processus. Les apports de la normalisation sont indéniables lorsque l’on doit produire des documents lors de contrôles financiers ou en partager sur une plate-forme internationale, en gérant rigoureusement la confidentialité.

15

La Bnf, qui accorde à la normalisation des moyens importants, notamment en déléguant ses experts, en frais de déplacement et de traduction des normes, n’avait pas d’orientation stratégique à cet égard. Elle a désormais le projet de rationaliser le management des normes, même si les indicateurs de performances en la matière sont difficiles à définir.

16

ORI-OAI est un système qui donne accès aux ressources numériques des établissements universitaires et à celles de leurs catalogues. À cet effet, des moyens importants ont été accordés pour la normalisation et sa mise en œuvre dans des systèmes d’information. Les défis sont liés à l’accessibilité et au repérage par les moteurs généralistes et à la structuration des données pour la description des documents. Le pari est fait sur l’avenir du système et sa stabilité.

17

En matière de qualité, on passe du souci d’être conforme à la norme à celui de donner satisfaction au client. Il en est de même pour les bibliothèques : elles disposent de plusieurs normes qui les aident à manager leurs services et à améliorer leurs performances dans un contexte de baisse des budgets. Mais les normes sont aussi des outils pour défendre les bibliothèques qui ne disposent plus d’un public captif. Elles leur donnent l’opportunité de « convaincre par le récit », lorsqu’il s’agit de bâtir des référentiels sur la qualité des relations avec les utilisateurs et de les utiliser. Les normes présentent un intérêt stratégique et non uniquement économique.

18

Michèle Battisti

Évaluer la consommation des ressources électroniques

19

Évaluation. Les ressources électroniques occupent une place de plus en plus grande dans les contenus proposés au monde de la recherche et dans les budgets alloués à la documentation. Un atelier du salon i-expo proposait, le 18 juin dernier, d’étudier les méthodes d’évaluation de la consommation de ces ressources avec quelques-uns des acteurs concernés.

20

Mesurer, c’est ce qui permet au fournisseur de connaître son client et de mieux vendre en ciblant ses produits et ses accroches marketing. C’est une aide à la décision pour l’acheteur qui connaît l’usager final et ses besoins, qui peut évaluer la pertinence de ses acquisitions et des modalités d’usage ainsi que les économies réalisées par des achats groupés, et ventiler les coûts. C’est ce qui permet de comprendre les pratiques et l’évolution de la recherche de l’information et de la dissémination des savoirs, à l’aide d’indicateurs qualitatifs, aux côtés d’outils comme Counter ou Citation index pour les revues payantes. C’est aussi se mesurer aux autres en établissant des classements de laboratoires, de chercheurs, etc.

21

Mais on se heurte aux biais des indicateurs fournis par les éditeurs ou à l’absence d’outils évaluant l’usage des accès gratuits, modèle qui, pourtant, est appelé à prévaloir. Si, par ailleurs, pour fixer le prix, le papier sert encore trop souvent de référence, on s’oriente vers de nouveaux critères, tels que le niveau de développement du pays, le prix catalogue du e-only, la taille de l’établissement et ses caractéristiques (privé/public, ratio enseignement/recherche, etc.), l’usage et l’activité de production éditoriale. Ne fallait-il pas souligner aussi que mesurer peut n’avoir que les apparences de la rigueur lorsque l’on mesure des a priori, que l’on n’arrive pas à effectuer les comparaisons qui s’imposent et que se posent des problèmes techniques et juridiques qui font obstacle à l’obtention de chiffres fiables et analysables ?

Retours d’expériences

22

BiblioInserm est un portail de ressources électroniques qui s’adresse à un public de grands consommateurs qui dépasse la population de l’institut. Il est alimenté par des titres acquis, pour la plupart, « à la carte », par une offre ciblée négociée chaque année avec cinquante éditeurs via Ebsco. Les statistiques permettent de suivre les usages par thème et dans le temps, de vérifier l’adéquation de l’offre et de la demande, de gérer le portefeuille de titres lors de la mise à jour annuelle du portail, d’aider à la négociation et de justifier ses choix par des arguments chiffrés. Pour cela, elles doivent être homogènes, simples et fiables.

23

Mais si l’on dispose, en aval, des statistiques des éditeurs, certains n’utilisent pas le code de bonnes pratiques Counter. Les problèmes sont aussi liés à des questions techniques ou commerciales, aux périodes à définir, aux données à analyser titre par titre, aux consultations faites sans téléchargement ou sans impression, à la nature de la revue, au changement de titres, aux plates-formes des éditeurs, aux modes d’accès (IP ou proxy du portail) et à la multi-appartenance des chercheurs. En amont, il s’agit de définir une politique de nouvelles acquisitions en analysant l’utilisation des revues, en identifiant celles dans lesquelles l’INSERM publie et celles où il est cité, et d’effectuer les commandes après avoir fixé un seuil d’usage. Mais, si les indicateurs sont indispensables, il faut rester critique, comparer les paramètres quantitatifs et ajouter des paramètres qualitatifs en associant le point de vue des utilisateurs.

24

Les indicateurs de consultation des portails de l’INIST servent de relais à plusieurs plates-formes et sites d’éditeurs. Chaque laboratoire du CNRS ayant un login, on doit contrôler les accès, reprendre ensuite les fichiers logs du proxy, enregistrer les événements dans une base de données que l’on analyse en éliminant ce qui est lié à des problèmes techniques, et y injecter les statistiques des éditeurs. La base de données fournit des informations sur les consultations des revues, les tarifs, les login de chaque laboratoire ainsi que des indicateurs utiles pour les acquisitions, la négociation des contrats, la répartition des budgets et la définition des communautés.

Pour en savoir plus

Le programme de cette session, ainsi que les supports de plusieurs interventions, sont en ligne sur le site du salon i-expo : www. i-expo. net/ conf_2009. php

À suivre

Le laboratoire GERIICO (Groupe d’études et de recherches interdisciplinaires en information et communication) de l’Université Lille-3 annonce un colloque sur la même thématique. Il aura lieu à Lille les 26 et 27 novembre 2009, sous le titre « Ressources électroniques : mesures et usages ».

« La thématique de l’évaluation des ressources électroniques académiques par l’usage est corollaire à l’intégration de ces mêmes ressources au sein des bibliothèques académiques. Elle associe professionnels des bibliothèques, éditeurs, intermédiaires et chercheurs à une réflexion commune sur le sujet. Elle mêle les intérêts gestionnaires et d’évaluation des uns, à ceux théoriques et de recherche des autres.

« Le but de ce colloque est de marquer en visibilité les avancées les plus significatives – tant du point de vue des approches que des résultats – auxquelles les communautés des chercheurs et des professionnels des bibliothèques sont arrivés. Il s’agit d’obtenir la connaissance la plus large et la plus précise de la manière avec laquelle les ressources électroniques sont utilisées, d’en souligner les enjeux et de les discuter. »

Ce colloque sera également l’occasion « d’échanger sur des réflexions, des approches et des méthodologies qui investissent une problématique récente et complexe. » Les communications dégageront donc les problématiques plurielles de la question de l’évaluation des ressources électroniques par l’usage dans les bibliothèques académiques : points de vue économique, politique, scientifique et documentaire.

Renseignements : http:// epef. anr. free. fr

25

Lors de cette intervention, très technique, on a listé les informations exploitables ainsi que le schéma d’alimentation de la base de données statistiques. Si le champ d’application couvre aujourd’hui les revues payantes des portails dont on peut évaluer le coût par éditeur, on disposera prochainement des tableaux de bord pour l’année 2008 et de leur évolution, d’une interface d’automatisation du chargement des tables externes. On entend à plus long terme étudier les autres portails et bases de données de l’INIST, réaliser des tableaux de bord interactifs avec de nouveaux outils de modélisation des données, et automatiser le chargement des statistiques des éditeurs.

Zoom sur un outil

26

Sushi, norme adoptée en 2007, modèle de webservice qui encadre la collecte automatisée de données sur l’usage de ressources électroniques à partir des platesformes des éditeurs, s’appuie sur Counter, un code de bonnes pratiques. C’est, comme il a été démontré, l’aboutissement des efforts faits depuis 1996 puisque, si Counter représentait déjà un système satisfaisant pour les statistiques de comptage, les bibliothèques avaient besoin d’un modèle d’importation plus efficace. On a donné ensuite des explications sur la manière de mettre en œuvre Sushi, ce qui implique de disposer d’un système de gestion des usages et d’un système ERM de gestion des ressources électroniques. Et signalé qu’une commission Sushi maintenait cette norme, gérait le schéma Counter et les outils destinés aux développeurs, et que la version 3 de ce code faisait de Sushi un outil indispensable pour la collecte des rapports Counter.

27

Michèle Battisti

Les impacts stratégiques des réseaux professionnels

28

Réseaux. Si, avec ce qu’ils permettent d’échanges et de liens entre les individus, les réseaux font désormais partie du paysage social, il n’en va pas toujours de même dans les entreprises et les organisations. Sous ce titre « Maximiser l’impact stratégique des réseaux professionnels », un atelier du salon i-expo proposait, le 18 juin dernier, de tirer les enseignements de quelques expériences particulièrement convaincantes.

29

Définir les réseaux, une gageure ! C’est ce que l’on retiendra des propos tenus par les quatre intervenants qui animent des réseaux très différents : deux réseaux d’anciens élèves de statuts différents, un réseau professionnel et un réseau organisé autour de l’économie indienne.

30

Ce qui unit des personnes autour d’une entité, c’est la valeur, l’intérêt, la confiance, l’efficacité, l’influence ou le pouvoir. L’objectif peut être rationnel – l’efficacité de groupes projets, par exemple –, ou plus vague – l’influence, fondée sur la situation. On note aussi que, si être caché était le fondement du pouvoir dans le passé, les réseaux aujourd’hui se montrent. Ils sont par ailleurs complexes à gérer, notamment lorsqu’ils s’emboîtent les uns dans les autres, et il est difficile de savoir comment les décisions sont prises. Il y a aussi une intrication entre les réseaux personnels qu’il faut séparer… ou non.

31

La dimension inter-entreprise du réseau professionnel en ligne d’un des intervenants vise à capitaliser les connaissances d’un métier, en créant une bibliothèque de savoir-faire, et à organiser leur circulation pour en garantir un usage réel. Dans un cadre intra-entreprise, la circulation des connaissances suppose une organisation nouvelle, une intelligence collaborative, une entreprise dont la structure hiérarchique « s’aplatit » et qui modifie la façon de se déployer dans un cadre professionnel.

32

Le réseau sert aussi à casser le communautarisme lorsqu’il est, par exemple, organisé autour d’un projet précis mais très ouvert, associant professionnels et non-professionnels, soutenus pour leur capacité à porter des événements. Un réseau ne répond pas forcément à une définition exacte et le dernier intervenant croit à la force du chaos, qui mélange les équipes et crée des partenariats inattendus, provoquant ainsi des synergies…

La variété des outils de suivi

33

On a évoqué ainsi des applications cartographiques, des courriels, des contenus taggués, des sous-réseaux, des carnets d’adresses… qui sont le début de la compréhension de la segmentation des réseaux et de l’émergence de communautés. Très vite on a digressé sur la multi-appartenance de l’individu, « marginal séquent » qui appartient à plusieurs groupes, sur le « réseau habillé et déshabillé », que l’on investit ou désinvestit au gré du temps et des événements, et surtout sur le fait qu’avec Internet les outils s’épuisent vite, le temps s’accélère, les relations donnent des dimensions supplémentaires et que l’entreprise a tout à gagner avec l’accélération des liens.

Stratégies, enjeux de l’organisation

34

Dans cette partie, au cœur de l’objet de la session, on a noté les recoupements entre la notion passive de communauté et celle, plus active, de réseau, fondée sur la confiance et l’efficacité, sur le fait que la communication, notamment lorsqu’elle est organisée politiquement, est codée, et que l’on y adopte les codes sociaux des adolescents. D’autres codes aussi se mettent en place, qui créent des points de repère nouveaux, mais où les statuts et la position des uns et des autres restent équivoques.

35

On a souligné aussi que ce n’est plus la nostalgie qui lie dans les réseaux d’anciens élèves, mais la fierté autour de la marque d’une école, marque que l’on doit gérer en proposant différents services. Les adresses ne suffisent plus, en effet, pour qu’une communauté de projets ne tienne. Il faut parvenir à créer des synergies et l’idée de projet doit être appréhendée dans un sens très large.

36

Les outils répondent à des phénomènes de mode mais le temps ne cesse de s’accélérer, dans cette culture du zapping où on ne prend plus le temps d’analyser, et le poids donné à la fragmentation et à l’accélération du temps va structurer une génération et, plus ou moins, les autres, et multiplier les techniques de contacts dans le monde. L’on doit les intégrer dans la communication interne, et le processus de mise en œuvre d’une stratégie n’est plus le même, comme le démontre le circuit de communication professionnelle entre étudiant et enseignant, aujourd’hui totalement transformé.

37

Le facteur clé de succès d’un réseau, c’est la simplicité de son usage, comme le prouve Facebook dont les applications personnelles et professionnelles font concurrence aux réseaux traditionnels. Mais, si Twitter est en passe d’exploser, on note aussi des signaux de désaffection de ceux qui craignent non une prise sur le savoir mais sur le temps.

38

La montée de Facebook a des impacts sur les organisations hiérarchisées classiquement. On trouvait déjà, dans certaines entreprises, des organisations matricielles et liées à des projets. Mais, avec les réseaux sociaux, les organisations « s’aplatissent » parce le travail collaboratif inter, intra et extra-entreprise, fondé sur la capacité à rassembler autour d’un projet où la hiérarchie n’a pas d’importance, gagne du terrain. L’outsourcing, l’externalisation qui crée une entreprise à géométrie variable puisant des ressources dans des réseaux externes ou connexes, serait un mode de fonctionnement à adopter.

Relations avec la société

39

Il convient aussi de surveiller les réseaux occultes et les communautés parasites, tout comme la superposition des réseaux et les problèmes juridiques qui apparaissent. Il est important de comprendre ce qui se passe, d’appréhender ces nouvelles méthodes, d’associer les jeunes, de repérer « les malotrus et les pervers ». Mais on recrée aussi des enjeux de pouvoir et des clans, des silos avec des technologies plus performantes, où le temps prend plus de poids que l’aspect communautaire. Il faut accepter d’expérimenter, l’apprentissage étant essentiel pour maîtriser le processus, accepter l’outsourcing et investir dans des réseaux professionnels apportant de la valeur ajoutée.

40

Tout compte fait, cette session était organisée comme un réseau social, soit de manière plutôt déstructurée… Mais peu importe puisqu’on y a fait le plein d’idées !

41

Michèle Battisti

La chronique de Stéphane Chaudiron. L’IST : une redéfinition du périmètre s’impose !

42

Le champ de l’information scientifique et technique est confronté à de profondes mutations qui concernent tous ses acteurs sans exception, suscitant ainsi de nouveaux enjeux dont on peut parfois se demander s’ils sont correctement perçus par les instances dirigeantes, notamment en France.

43

Plus de 50 ans après la reconnaissance du rôle de l’IST dans l’économie, il peut paraître surprenant de s’interroger à nouveau sur son périmètre. Si cette question a peu de sens pour les acteurs de terrain, elle est pertinente quand on considère le pilotage du système d’IST par les pouvoirs publics depuis la fin des années 1990. Posons comme acquise la nécessité d’une politique nationale : les enjeux stratégiques qui lui sont liés imposent en effet une intervention des pouvoirs publics, au moins en terme de régulation d’un secteur dont la concentration capitalistique est une caractéristique majeure.

44

La création récente de la MISTRD (Mission de l’information scientifique et technique et du réseau documentaire) au sein du ministère de l’Enseignement supérieur et de la Recherche laisse ainsi espérer une implication nouvelle de l’État. Celle-ci pourrait se fonder utilement sur le récent rapport Salençon qui, dès son préambule, souligne que « l’accès à [l’IST], sa circulation et sa disponibilité sont des facteurs clés de l’efficacité de la recherche scientifique, de la compétitivité industrielle et du progrès social » et ajoute que « leur importance justifie l’attention que les pouvoirs publics portent à ce secteur [alors que], en France et à l’étranger, experts et acteurs concernés s’accordent à reconnaître que la situation de l’IST n’est pas satisfaisante et, pire encore, qu’elle se dégrade ».

45

Ces quelques lignes soulignent que le périmètre de l’IST ne se résume pas aux propositions, certes légitimes mais limitées, avancées par le Manifeste pour une politique nationale de l’IST (texte commun Couperin, ADBU et AURA) qui revendique la mise en place de licences nationales pour l’acquisition des ressources, le dépôt obligatoire des articles scientifiques dans les archives ouvertes et le renforcement de l’ABES comme opérateur national. Mais d’autres défis doivent être relevés de manière urgente, qui concernent l’apport de l’IST au processus d’innovation et de compétitivité industrielle.

46

Citons d’abord les risques de dépendance à l’égard des sources d’information. Si les pouvoirs publics se sont depuis plusieurs années intéressés à Internet et aux logiciels de traitement, ils ont malheureusement délaissé la question des banques de données alors que ces sources sont au fondement même de la veille et de l’intelligence économique (IE). Un deuxième défi concerne la nécessité de disposer d’une industrie de confiance dans le domaine du traitement avancé de l’information, c’est-à-dire fiable sur le plan de la sécurité informatique et fonctionnellement pertinente. En ce sens, l’organisation de campagnes d’évaluation, comme celles qui sont financées aux États-Unis par le NIST et la DARPA, correspond à un véritable besoin. Rappelons enfin que la sensibilisation et la formation aux pratiques de veille et d’IE restent une nécessité, en liaison avec les acteurs de terrain (courtiers, centres techniques, chambres de commerce, universités, etc.).

47

Est-il encore temps de relever ces défis ? Sans doute – mais il conviendrait de ne plus trop tarder… •

48

Stéphane Chaudiron

Plan de l'article

  1. À qui profite la normalisation documentaire ?
    1. Deux enjeux : l’enseignement et la valorisation des actifs
    2. Des acteurs
    3. La valeur ajoutée pour les industries culturelles
    4. Le format Onix
    5. L’identification
    6. Les formats du livre numérique
    7. Les enjeux
  2. Évaluer la consommation des ressources électroniques
    1. Retours d’expériences
    2. Zoom sur un outil
  3. Les impacts stratégiques des réseaux professionnels
    1. La variété des outils de suivi
    2. Stratégies, enjeux de l’organisation
    3. Relations avec la société
  4. La chronique de Stéphane Chaudiron. L’IST : une redéfinition du périmètre s’impose !

Pour citer cet article

Battisti Michèle, Chaudiron Stéphane, « Méthodes techniques et outils », Documentaliste-Sciences de l'Information 3/2009 (Vol. 46) , p. 14-19
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2009-3-page-14.htm.
DOI : 10.3917/docsi.463.0014.


Article précédent Pages 14 - 19 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback