Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2003/1 (Vol. 40)

  • Pages : 60
  • DOI : 10.3917/docsi.401.0050
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 50 - 63

Le management des savoirs, Jean-Claude Tarondeau, 2e éd. – Paris : Presses universitaires de France, 2002. – 127 p. – (Que sais-je ? ; 3407). – ISBN 2-13-052494-6 : 6,50 €

Des questions essentielles pour le documentaliste

1

« NOUS SOMMES ENTRES DANS L’ERE DU SAVOIR », déclare l’auteur, professeur à l’ESSEC et à l’Université Paris X-Nanterre. Et les portefeuilles de savoirs au sein d’une organisation n’étant pas figés, il faut être capable de les gérer et de les maintenir ; cela d’autant plus que, ces dernières années, la stratégie d’entreprise a considérablement évolué.

2

C’est pourquoi, dans un premier chapitre, J.-C Tarondeau examine « Le renouveau de la pensée stratégique » (p. 7-29). D’origine militaire, le concept de stratégie adapté à l’entreprise est devenu un concept civil. Les ressources stratégiques, c’est-à-dire tout ce qui peut contribuer à constituer des forces pour une firme, sont essentiellement composées de savoirs. Leur maîtrise, « attribut de l’organisation apprenante et non des individus qui la composent », nécessite que soient comprises « Acquisition et mémorisation des savoirs », objet du chapitre II (p. 30-55) consacré à la génération, au stockage, à la remise en cause des savoirs et à leur exploitation dans la décision stratégique. Car les entreprises créent et mémorisent des savoirs, mais ces processus ne sont que partiellement le résultat d’une volonté stratégique.

3

La stratégie d’entreprise fondée sur des ressources issues de savoirs, c’est-à-dire « L’exploitation des savoirs », fait l’objet du chapitre III (p. 56-87). Ces savoirs, du moins une partie d’entre eux, peuvent être gérés stratégiquement, c’est-à-dire identifiés, protégés, utilisés et développés, en vue de créer de la valeur et de « s’approprier des rentes durables » ! Et pour que des savoirs fournissent des avantages durables, il faut qu’ils ne se diffusent pas, ou de façon très lente, qu’ils ne soient pas imitables ou accessibles sur un marché. Ce sont les ressources les moins palpables et les moins tangibles qui possèdent ces propriétés. L’exploitation de ces savoirs tacites engendre la seule posture managériale « qui résiste aux bouleversements engendrés par la prédominance des savoirs ».

4

L’organisation doit, en ce sens, être conçue et animée pour apprendre. C’est le sujet du chapitre IV, « Les organisations apprenantes » (p. 88-112), où l’auteur examine les causes de leur émergence, due à des facteurs économiques et humains. Il décrit les caractéristiques de ces nouvelles formes d’organisation par rapport aux formes traditionnelles : flexibilité, ouverture, autonomie et capacité d’intégration. « Les organisations qui préfigurent le XXe siècle (sic ! p. 112) se caractérisent par la mobilisation, la diffusion des responsabilités, et… du stress » souligne l’auteur avant d’aborder « Décision stratégique et savoirs » (chap. V, p. 113-121). L’analyse des processus de décision stratégique montre que celle-ci ne résulte pas uniquement de l’exploitation de savoirs codifiés partagés identiquement par tous. Elle dépend du contexte et de l’histoire de l’organisation et repose sur des représentations différentes selon les intérêts des individus ou des groupes susceptibles d’influer sur la décision. Ainsi, les cartes cognitives données en exemple montrent que les décideurs ne s’appuient pas sur des faits pour décider mais sur des représentations et des croyances.

5

L’approche par les savoirs a renouvelé l’analyse de la stratégie et le management stratégique. « Nous vivons, conclut Jean-Claude Tarondeau, dans une société structurée selon la distribution de savoirs formalisés et codifiés ». Les élites sont sélectionnées, à l’issue de leur parcours scolaire, sur leur capacité de restauration de savoirs codifiés. Or aujourd’hui, pour développer des organisations performantes, il faut des leaders « modestes, ayant oublié les figures imposées qui les ont propulsées au sommet des organisations, avides d’apprendre et de partager le savoir des autres » (Conclusion, p. 122-125).

Le professionnel de l’information et le gestionnaire du savoir

6

Ce « Que sais-je ? », passionnant, se situe à la limite des centres d’intérêt et des pratiques du professionnel de l’information : il porte en effet sur le management des organisations (ce que confirme la bibliographie). En ce sens, il intéressera en priorité les spécialistes du management. Toutefois, le documentaliste trouvera dans ce travail matière à réflexion sur de nombreux points. Car cette étude le replace face à des questionnements essentiels. Il s’agit, par exemple, de l’analyse de la valeur de l’information que nous livre J.-C. Tarondeau. « En exploitant le savoir, on le dégrade ». Mais il s’agit surtout de la place importante donnée à l’information orale et plus spécialement à l’information non explicitée dans l’entreprise où l’information codifiée prend une seconde place. « Les systèmes de stockage et de traitement de l’information, ou systèmes d’archivage, sont souvent individuels ou répartis dans l’organisation […] Ce sont les stocks de connaissances les plus facilement accessibles […] Mais ils ne concernent qu’un bas niveau du savoir : l’information codifiée et écrite […] informations pauvres et peu stratégiques, alors que la communication orale véhicule les informations qui importent ! ». Les professionnels de l’information et de la documentation liront ce livre avec intérêt, qui pourra les aider à comprendre les limites de leur profession dans les entreprises et la perception que le gestionnaire du savoir a du document et du documentaliste, même s’il n’est jamais nommé ou s’il est confondu avec l’archiviste.

7

Marie-France Blanquet

Méthodes et outils pour la gestion des connaissances : une approche pluridisciplinaire du knowledge management, Rose Dieng-Kuntz, Olivier Corby, Fabien Gandon, et al., 2e éd. – Paris : Dunod, 2001. – 372 p. – (Informatiques. Série Systèmes d’information). – ISBN 2-10-006300-6 : 37,50 €

Un ouvrage des plus complets sur la mémoire d’entreprise

8

LES NOMBREUX COLLABORATEURS DE CET OUVRAGE COLLECTIF sont issus de l’équipe de recherche ACACIA de l’INRIA à Sophia-Antipolis. Cette équipe est connue pour ses publications éclairantes sur la mémoire d’entreprise, sujet proche des préoccupations des documentalistes et des archivistes qui doivent résoudre les nombreuses questions ayant trait à sa conservation et à sa valorisation. La deuxième édition du présent ouvrage est dense, très construite, agrémentée de nombreux schémas explicatifs : elle présente la particularité d’être très technique et d’offrir en même temps une réflexion de chercheurs sur un domaine parfois complexe. Mais que le futur lecteur se rassure : ce n’est pas un ouvrage difficile d’accès, il est suffisamment clair et argumenté pour trouver son public.

9

Les chercheurs de l’équipe ACACIA travaillent depuis de nombreuses années sur la thématique de l’acquisition des connaissances. Leurs dernières observations en entreprise les conduisent à constater que celle-ci est maintenant préoccupée par la capitalisation de ses « connaissances cruciales », selon les propres termes de Michel Grundstein, un des théoriciens français actuels les plus intéressants de la gestion des connaissances. Ils nous livrent, dans cette publication, le fruit de leurs recherches dans de très grandes entreprises hexagonales telles l’Aérospatiale, Dassault-Aviation, l’INRETS ou Renault. Pour les néophytes, il est important de préciser que le concept de gestion des connaissances (knowledge management) est adopté surtout par ce type d’entreprise, car sa mise en œuvre nécessite des investissements importants que des PME ne peuvent envisager. Cependant, un grand nombre d’entreprises, dans des secteurs très divers, « font du knowledge management sans le savoir », et le concept a tendance à être de plus en plus appliqué. Le phénomène n’est pas seulement un des effets de mode actuels (repris et amplifié par les revues spécialisées en management, en économie, puis par les revues en sciences de l’information et de la communication), mais une réelle préoccupation des dirigeants qui voient dans la gestion des connaissances une manière de manager différemment leurs équipes.

La première partie est consacrée à la mémoire d’entreprise

10

Le premier chapitre est une introduction explicative de l’ouvrage. Il expose de nombreux modèles de mémoire d’entreprise (les modèles de Jaspers, de Grundstein, de Nonaka) et retient une définition de la mémoire d’entreprise qui va conduire leur réflexion : « elle est la représentation persistante, explicite, désincarnée, des connaissances et des informations dans une organisation, afin de faciliter leur accès, leur partage et leur réutilisation par les membres adéquats de l’organisation, dans le cadre de leurs tâches. » L’originalité de ce livre est que les auteurs proposent d’aborder la question selon un schéma qui repose sur le cycle de vie de la mémoire d’entreprise : la détection des besoins en mémoire d’entreprise ; la construction de celle-ci ; sa diffusion et son utilisation ; son évaluation et son évolution.

11

La détection des besoins en mémoire d’entreprise est rendue possible par l’analyse des besoins en mémoire : ceux-ci vont permettre de déterminer le type de mémoire nécessaire (mémoire de projet, métier, managériale, individuelle) ; puis de discerner les usagers de cette mémoire et les modes d’exploitation possibles adaptés à l’environnement de travail. Cette phase d’analyse est en réalité quasi constante, car de nouveaux besoins peuvent apparaître en cours de cycle.

12

La construction de la mémoire d’entreprise repose sur un certain nombre de techniques. La première citée est la mémoire documentaire avec l’exemple de la gestion électronique de documents ; une autre technique employée peut être l’emploi du standard XML, par ailleurs très détaillé dans une partie qui lui est consacrée. Les bases de connaissances, utilisant l’ingénierie des connaissances (méthodes CommonKADS, KOD, etc.) sont également abordées, ainsi que les bases de cas. Les collecticiels pour un meilleur partage des connaissances, les systèmes de workflow, les technologies du web sémantique (utilisant les documents, les ontologies et les annotations sur les documents) sont d’autres techniques. Les auteurs n’oublient pas que leur intégration dans l’environnement de travail implique des changements organisationnels : ils préconisent l’exploitation des outils qui existent dans l’entreprise, la difficulté consistant dans le fait que les techniques précitées entraînent d’importants bouleversements dans l’organisation du travail.

13

La diffusion et l’utilisation de la mémoire d’entreprise sont les deux phases suivantes du cycle. La diffusion exploite des technologies comme la messagerie électronique, un serveur de news, un serveur de connaissances, un portail d’entreprise, un intranet. L’utilisation de la mémoire signifie qu’il doit être possible de la consulter, d’offrir des moyens de recherche d’information. Le standard XML peut également être mis à contribution.

14

L’évaluation et l’évolution de la mémoire d’entreprise est certainement un des chapitres qui intéressera le plus les futurs lecteurs de l’ouvrage. C’est un des plus détaillés, qui expose diverses méthodes : l’approche « centrée sur les intéressés » ; les classifications de Lester et de Ramage pour les collecticiels ; l’évaluation heuristique ; les tests d’utilisateurs ; les expériences de laboratoires ; la méthode ethnographique d’Ehrlich et Cash… Des critères et mesures d’évaluation sont donnés pour la mémoire organisationnelle, le capital intellectuel. La maintenance et l’évolution de la mémoire sont les dernières phases du cycle : la mémoire est vue comme un système évolutif constant. L’importance pour l’entreprise de collecter, d’enregistrer les données sur ses activités est soulignée, et l’utilisation des registres électroniques est recommandée.

La deuxième partie expose des méthodes pour la mémoire d’entreprise

15

Une des difficultés majeures semble être la gestion de multiples points de vue dans la construction d’une mémoire à base de connaissances, surtout quand il s’agit de points de vue d’experts qui divergent.

16

La mémoire de projet se voit consacrer un chapitre entier. Le cycle d’un projet comprend plusieurs étapes et toutes ces étapes sont importantes à mémoriser pour l’entreprise. Les difficultés et problèmes en font partie intégrante. Une approche intitulée SAMOVAR est proposée ; elle concerne une mémoire de problèmes rencontrés lors d’un projet de conception d’un véhicule.

17

Les méthodes de capitalisation des connaissances sont nombreuses et détaillées dans de nombreux ouvrages. Parmi celles-ci, les méthodes REX, MKSM, CYGMA, MEREX, FRAMEWORK, COMMONKADS, KOD sont reprises ici et étayées de nombreux exemples applicatifs qui démontrent leur efficacité. Ce livre s’achève avec un retour d’expérience du projet ACACIA, projet construit pour offrir des aides méthodologiques à la mémoire d’entreprise. Une bibliographie conséquente permet de constater l’étendue du travail de recherche entrepris.

18

Un ouvrage aussi complet sur la mémoire d’entreprise est unique dans la production éditoriale actuelle. Il doit figurer en bonne place dans toute entreprise et dans toute documentation d’entreprise. Sa richesse en termes de méthodes proposées et d’exemples est à souligner. Documentalistes et archivistes trouveront de nombreuses solutions à leurs problèmes, ils pourront s’en inspirer pour proposer à leur direction des méthodes éprouvées et efficaces de gestion de la mémoire d’entreprise.

19

Jean-Philippe Accart

La veille stratégique sur l’Internet, Henry Samier et Victor Sandoval, Paris : Hermès Science Publications, 2002. – 191 p. – ISBN 2-7462-0325-1 : 40 €

Une méthode rigoureuse de veille sur Internet

20

LES OUVRAGES SUR INTERNET SE MULTIPLIENT, signifiant ainsi l’importance de ce réseau à l’échelle internationale. Ici, les auteurs analysent l’Internet pour expliciter les problématiques liées à l’irruption de ce réseau et à ses conséquences pour l’entreprise dont l’environnement ne cesse de se complexifier. Dès lors, comment surveiller efficacement l’Internet et se mouvoir dans ce nouvel espace concurrentiel virtuel dans lequel la maîtrise de l’information devient stratégique ? Comment mettre en place une veille automatique capable d’extraire les informations pertinentes ?

21

Pour répondre à ces questions, Henri Samier, enseignant-chercheur à l’Institut des sciences et techniques de l’ingénieur d’Angers et Victor Sandoval, attaché à l’École nationale des ponts et chaussées, entrent directement dans le vif du sujet en nous engageant dès le chapitre 1 dans « La surveillance de l’environnement de l’entreprise » (p. 10-36). Cet environnement multiforme, à la fois réel et virtuel, nécessite des principes et des méthodes de surveillance performants, une organisation et des services de surveillance actifs et aptes à protéger le patrimoine de l’entreprise.

22

La surveillance de l’environnement de l’entreprise implique la mise en place de nouvelles méthodes de veille exploitant pleinement les ressources de l’Internet. C’est pourquoi dans le chapitre 2 sont présentées les « Sources d’information » (p. 37-62), leurs localisations géographiques et thématiques, les index et méta-index, le web visible mais surtout invisible. « L’une des difficultés rencontrées par les chercheurs d’information, déclarent les auteurs, est le manque de systématisation des approches existantes ». C’est pourquoi ils proposent une méthode générique appelée X-Find, regroupement de quatre méthodes spécifiques et complémentaires destinées à trouver l’information rapidement (RapidFind), à localiser des carnets d’adresses (DetectFind), à identifier un site pointant un lien sur un autre site (LinkFind), à extraire une page d’un site sans le consulter (ExtractFind). Curieusement, les auteurs ne font aucune allusion à un autre ouvrage qu’ils ont pourtant aussi co-signé, intitulé La recherche intelligente sur l’Internet : outils et méthodes (paru chez le même éditeur en 1998, voir notre numéro 1/1999, p. 57) dans lequel pourtant cette méthode est déjà explicitée.

23

Désormais consacrée à la veille, son utilisation permet de mettre en place une surveillance électronique pertinente et exhaustive, avec l’assistance d’« Outils de veille automatique » présentés dans le chapitre 3 (p. 63-96). Répondant aux fonctions principales du processus de veille, ces derniers sont présentés à partir de cinq catégories : outils de surveillance et d’alerte, d’aspiration, de gestion intelligente, d’analyse et de représentation de l’information. Les auteurs approfondissent la cinquième catégorie, les agents intelligents, parce qu’ils remplissent plus ou moins la totalité des fonctions de veille. Ils en présentent une sélection.

Adopter une démarche, une méthode et des outils conformes à ses besoins

24

La « Méthodologie de la veille automatique » (chap. 4, p. 97-123) conduit le lecteur à choisir une démarche, une méthode et des outils adaptés à son besoin. Pour cela, les auteurs préconisent cinq méthodes dissociées. Méthode des cibles, méthode fonctionnelle, méthode adaptée aux PME ou répondant aux besoins des responsables de services en entreprise et la méthode ActivFind ou AutoFind dédiée à la veille scientifique et technologique. Chacune d’elles fait l’objet d’une description par étapes, d’un bilan présentant ses avantages et ses limites et d’une étude comparative concrètement illustrée et complétée par le chapitre 5 (p. 125-152), « Déroulement des cas ». Le premier cas porte sur l’enseignement à distance, le second sur la vache folle.

25

Enfin, dans le chapitre 6 (p. 153-174), « Domaines d’application », les auteurs développent six exemples de veille : réglementaire, environnementale, financière, technologique et industrielle, en proposant des pistes pour adapter les méthodes et les outils présentés auparavant.

26

Une brève conclusion leur permet d’insister sur l’importance de la mise en place d’une veille efficace et automatique. « Si l’on considère que le jour Internet a 24 heures, alors trois jours classiques de travail humain (8 heures) équivalent à un jour Internet. Ainsi, pendant une année normale s’écoulent trois années Internet ». La surinformation et sa sœur jumelle la sous-information menacent. C’est pourquoi la maîtrise de l’information devient vitale.

27

Cet ouvrage très documenté de Henri Samier et Victor Sandoval permet de découvrir un certain nombre de possibilités offertes par l’Internet, peut-être moins développées dans d’autres ouvrages, comme par exemple les agents intelligents. Dans le texte comme dans les annexes, le lecteur découvre un utile carnet d’adresses thématiques : outils d’analyse et de représentation de l’information, outils de gestion intelligente, agents de surveillance et d’alerte, etc. Toutefois, ce qui fait l’intérêt essentiel de ce livre réside dans la méthode rigoureuse qui y est proposée. Celle-ci est décrite de façon claire et illustrée de nombreux exemples. Les auteurs contribuent ainsi à confirmer les professionnels de l’information en stratèges de l’information.

28

Marie-France Blanquet

Internet et la propriété intellectuelle : le droit, l’information et les réseaux, Michel Vivant et Agnès Maffre-Baugé, Paris : Institut français des relations internationales (diff. La Documentation française), 2002. – 84 p. – (Les notes de l’IFRI, ISSN 1272-9914 ; 42). – ISBN 2-86592-123-9 : 8 €

Trois questions sur l’impact des nouvelles technologies sur le droit

29

VOICI UN OUVRAGE PEU VOLUMINEUX mais très dense. Il ne se limite pas, en effet, comme son titre pourrait le laisser penser, à la propriété intellectuelle, mais il aborde aussi tous les droits susceptibles d’être appliqués à la numérisation et à l’accès à l’information. Adoptant une vision large et nuancée, présentant également d’autres systèmes juridiques, comme le copyright, et retenant à maintes reprises des perspectives qualifiées d’hétérodoxes par les auteurs eux-mêmes, il présente un intérêt réel.

30

Il est articulé en trois chapitres, présentés sous forme de trois questions liées à l’impact qu’auraient les nouvelles technologies sur le droit. L’évolution technique a-t-elle conduit à l’émergence de nouveaux « biens » au sens juridique de ce terme ? L’Internet présente-t-il des spécificités juridiques ? Une harmonisation internationale du droit appliquée aux nouveaux supports est-elle souhaitable ?

31

Le premier chapitre met l’accent sur la tendance actuelle qui consiste à tenter de protéger de plus en plus souvent la valeur économique en s’attachant moins à la notion de création. La notion de « biens informationnels » devient de fait, même si elle ne figure pas dans les textes, une catégorie juridique, comme le prouve l’examen, très approfondi dans cet ouvrage, du droit appliqué au logiciel et à la base de données, pour lesquels des règles particulières ont dû être ménagées. Les auteurs parlent d’un « droit revisité » ou d’un droit « reconsidéré » où, bien que l’investissement soit devenu un élément dominant, la propriété intellectuelle n’est pas remise en cause, bien au contraire, puisque ce concept est aujourd’hui en expansion.

32

Le deuxième chapitre a trait à la spécificité éventuelle de l’Internet. En fait, le droit d’auteur s’applique à l’information numérisée car la nature du support est indifférente. Quant au lien, les auteurs de l’ouvrage affirment qu’il ne crée pas une nouvelle situation juridique. Ce sont les exceptions qui donnent plutôt lieu à des débats, en particulier la copie privée qui a des incidences non seulement économiques mais également politiques et sociales en raison de son impact sur les libertés publiques.

33

Le troisième chapitre, qui évoque l’harmonisation du système, démontre d’abord que cette tendance est suivie de longue date puisqu’elle a commencé à la fin du XIXe siècle. L’on retrouve, en revanche, l’attention donnée aux investissements dans des textes plus récents conçus au sein de l’OMC. Mais cette volonté d’harmonisation du droit doit faire face à de réels obstacles, comme le confirment, d’une certaine manière, les dispositions communautaires récentes qui ne réussissent à proposer qu’une harmonisation limitée. L’accent risque d’être alors mis aussi sur des formules alternatives - les auteurs ont utilisé le terme de « soft law » – à l’image de ce qui est instauré dans le commerce électronique. Il faudrait néanmoins tenir compte de nombreuses règles d’ordre public auxquelles il n’est pas possible de déroger. L’exemple d’un règlement particulier des litiges est illustré, dans l’ouvrage, par les noms de domaines, qui n’ont pas – encore – de statut juridique particulier.

34

Ce qui permet aux auteurs de conclure en affirmant la nécessité d’innover pour répondre aux défis techniques et à ceux de l’internationalisation, et la nécessité d’une réflexion prospective.

35

Michèle Battisti

Thésauroglossaire des langages documentaires : un outil de contrôle sémantique, Danièle Dégez et Dominique Ménillet, Paris : ADBS Éditions, 2001. – 181 p. – (Sciences de l’information. Série Recherches et documents, ISSN 1159-7666). – ISBN 2-84365-051-8 : 19 €

Une initiative originale à étendre à d’autres champs

36

CE TRAVAIL DE TERMINOLOGIE a pour point de départ la révision du Vocabulaire de la documentation dont la deuxième édition avait été publiée par l’Afnor en 1987. Il est apparu important à Danièle Dégez et Dominique Ménillet d’apporter plus de précision sémantique sur des termes appartenant au champ spécifique de l’analyse et des langages documentaires. Dans cette perspective, tous les concepts relatifs à ce domaine ont dans un premier temps été réunis dans un glossaire ensuite transformé en thésaurus ; d’où le titre de Thésauroglossaire donné à cet ouvrage.

37

L’objectif poursuivi par les auteures est d’offrir au professionnel de l’information un outil de contrôle sémantique, en apportant des définitions claires et en interelations : « Ce travail, constatent-elles en effet, a démontré clairement que le sens des termes n’apparaît pas uniquement dans leurs définitions mais aussi dans les relations qu’ils entretiennent entre eux ». Par ailleurs, tous ceux qui travaillent dans le domaine de l’information scientifique et technique connaissent l’importance en soi des définitions et des outils terminologiques qui permettent de les connaître et de les exploiter ; la qualité et la précision des définitions conditionnant la rigueur de tout travail scientifique.

38

Le thésauroglossaire est constitué de trois parties principales.

39

Le glossaire apporte les définitions de 138 termes, descripteurs du thésaurus, avec pour un certain nombre d’entre eux des exemples éclairants. Certains sont très courants dans l’environnement linguistique du documentaliste, comme par exemple classe, descripteur, indexation… D’autres, moins courants et connus, tels que classification à grandes divisions, indexat, indicateur de rôle, lien, octave ou subdivision affranchie, entraînent le lecteur à s’interroger sur l’utilité de leur recensement, d’autant qu’il peut regretter l’absence de certains termes tels que autorité, index permuté ou polyéquivalence présents pourtant pour certains d’entre eux dans la norme Afnor Z47-100 (Règles d’ établissement des thésaurus monolingues).

40

Le thésaurus se compose de trois parties : la liste alphabétique structurée, la structuration par champ sémantique et une liste permutée KWIC. Auparavant, les auteures ont explicité le sens des abréviations annonçant les diverses relations reliant les descripteurs entre eux ; c’est-à-dire le champ sémantique, les relations préférentielles, hiérarchiques et associatives, mais aussi leur traduction anglaise. Le lecteur retrouve dans la liste alphabétique tous les descripteurs précédemment définis et les non-descripteurs absents du glossaire. La structuration par champ sémantique ouvre sur cinq catégories générales : analyse et indexation, élaboration d’un langage documentaire, élément de langage documentaire, présentation d’un langage documentaire et type de langage. La lecture des champs sémantiques révèle que, dans ce thésauroglossaire, le vocabulaire concernant les langages prime sur celui de l’analyse documentaire. Les termes de résumé informatif ou signalétique sont par exemple absents, ainsi qu’un certain nombre de concepts présents dans l’ouvrage sur L’analyse documentaire de Suzanne Waller et Claudine Masse.

41

Enfin, le lexique bilingue donne les équivalents français-anglais.

Un ouvrage qui comblera enseignants, étudiants et praticiens

42

Les auteures sélectionnent en guise de conclusion une série d’exemples de langages documentaires : langages documentaires imprimés parmi lesquels figurent classifications, lexiques, listes de vedette matière, thésaurus mono et multilingues, et langages documentaires sur le web proposant des thésaurus et des répertoires. Une riche bibliographie clôt cet ouvrage du « troisième type » mais qui comblera les formateurs en science de l’information chargés de l’enseignement des langages documentaires, leurs étudiants, et les professionnels de l’information chargés d’élaborer un thésaurus ou qui, au fil du temps, auraient oublié quelques définitions…

43

Danièle Dégez et Dominique Ménillet émettent en début d’ouvrage le vœu de voir d’autres auteurs prendre le relais pour élaborer des thésauroglossaires dans les autres champs terminologiques de la documentation. Et c’est vrai qu’il serait précieux de disposer à la suite de tous ces travaux d’une sorte de « macrothésauroglossaire », outil de contrôle sémantique pour la profession dans son ensemble !

44

Marie-France Blanquet

La publication en ligne, Sous la direction de Charlotte Nikitenko et Peter Stockinger, Paris : Hermès Science Publications, 2001. – 222 p. Numéro de : Les cahiers du numérique, ISSN 1469-3380, 2000, vol. 1, n° 5. – ISBN 2-7462-0201-8 : 37 €

Les principales facettes de l’édition électronique

45

LE PHENOMENE DE LA PUBLICATION EN LIGNE ne cesse de prendre de l’ampleur et de se complexifier. C’est pourquoi les responsables des Cahiers du numérique ont choisi ce thème d’étude en le limitant toutefois à deux thématiques principales : le monde de l’édition et de la presse face à l’Internet et aux technologies nouvelles, et les enjeux de la publication en ligne dans la constitution de nouvelles formes de circulation du savoir et d’accès à la connaissance à l’ère du numérique. Ainsi les contributions des différents auteurs, chacune d’entre elles comportant sa bibliographie propre, sont réparties en deux parties intitulées : « Promesses et défis » (p. 19-150) et « La circulation des savoirs à l’ère des NTIC : genres et enjeux » (p. 151-222).

46

La première partie donne la parole à neuf auteurs qui analysent les enjeux, les impacts et les conséquences de l’édition électronique pour différents acteurs. Dans l’article intitulé « De l’édition traditionnelle à l’édition numérique : interchangeabilité des politiques et nouveaux partenaires externes », Charlotte Nikitenko s’efforce de montrer, en s’appuyant sur l’exemple de l’entreprise 00h00.com, les modifications des pratiques éditoriales, les nouvelles compétences et profils professionnels exigés par cette nouvelle forme d’édition. Richard Figuier, dans « Printing glass-mirror : l’édition de SHS et l’électronique », parle de la crise de l’édition et remarque : « La crise, c’est tout à la fois aujourd’hui une crise de la médiation (éditeur), de la mise en texte (auteur-livre), de la production du savoir, des modes de pensée et d’expression, des procédures logiques, et, enfin, des cadres sociaux par lesquels tous ces échanges sont possibles » (p. 52).

47

Marie Lebert examine « L’impact des NTIC sur les auteurs, les éditeurs et les libraires » quand Bernard Legendre analyse « L’encyclopédie numérique au risque de l’information ». Il s’interroge notamment sur les risques que présentent l’Internet et les NTIC pour l’édition et la qualité de la production encyclopédique. Rémy Galland, quant à lui, considère « Le grand saut des journalistes dans l’inconnu de la cyberpresse » parce que l’Internet constitue un nouveau média à part entière et confronte le journaliste à de nouveaux questionnements, en particulier à celui d’une écriture originale. « Librairie numérique de livres numériques : nouveau métier pour un nouveau marché ? », interroge Denis Zwirn qui insiste sur les intérêts du livre électronique. Olivier Gainon présente ce que recouvre la notion de diversification de l’offre dans le domaine de « La littérature en ligne ». Hubert Tilliet, à sa suite, pose la problématique juridique des droits d’auteur dans l’édition numérique. La première partie se termine par une communication assez atypique car très technique : Jean Philippe Mouton y décrit « La mise en place technique d’un site d’édition ».

Des interrogations très proches de celles des professionnels de l’information

48

La deuxième partie, plus courte, est composée de cinq communications très orientées sur les interrogations actuelles des professionnels de l’information. Stéphane Chaudiron l’inaugure en posant « Les nouveaux modes d’intermédiation de l’information spécialisée ». Il décrit les différents types de technologies dont on dispose actuellement pour accéder aux ressources pertinentes : veille, technologies d’intermédiation, développement de nouveaux services… Guy Teasdale questionne : « Vers l’e-édition savante ? Étude des défis du passage à l’internet » ; occasion de rappeler les fonctions sociales principales du système de communication savante traditionnelle dont devra tenir compte l’édition savante électronique. Arlette Attali et Richard Walter décrivent « Le catalogue critique des ressources textuelles sur l’Internet » (CCRTI) : ils expliquent les objectifs de cette initiative émanant de l’InaLF, présentent les critères d’analyse et d’évaluation des ressources et montrent l’intérêt d’une telle démarche pour le développement d’une politique de qualité des ressources accessibles sur le web.

49

Muriel Amar signe ensuite un article très pertinent sur « Les enjeux des collections numériques en bibliothèque : création de nouveaux dispositifs d’accès aux savoirs ? » Ce sont les pratiques de lecture qui subiront des changements profonds dont nous mesurons mal encore la portée, affirme-t-elle. Enfin, Mohamed Boughanem, Nicole Le Pottier et Anne-Marie Moulis clôturent ce numéro par une dernière interrogation : « Les NTIC et les médiathèques : quels enjeux pour la formation ? » en dessinant, à travers l’exemple de la publication en ligne d’images scientifiques, les perspectives nouvelles du traitement des documents dans le cadre des bibliothèques numériques et leurs conséquences sur les formations professionnelles.

50

La publication en ligne est un sujet de pleine actualité qui intéresse tous les professionnels de l’information. Ce numéro des Cahiers du numérique répond à cet intérêt en s’efforçant de traiter, dans des articles de qualité, les principales facettes de cette problématique de l’édition électronique. Chaque auteur y apporte non seulement des informations bien documentées mais aussi des réflexions sur les modifications amorcées des activités des professionnels de l’édition et de la documentation. Cette vue d’ensemble devra toutefois être complétée par la lecture d’autres articles, dans l’objectif principal de suivre l’actualité de cette édition (en particulier en ce qui concerne l’e-book) que tous les auteurs de cette étude présentent comme un chapitre complètement original et en pleine évolution de l’environnement informationnel.

51

Marie-France Blanquet

Traitement et contrôle de l’information : procédures sémiotiques et textuelles, Peter Stockinger,. Paris : Hermès Science Publications, 2001. – 190 p., bibliogr., index. – ISBN 2-7462-0240-9 : 30 €

Un cadre théorique et méthodologique pour l’analyse de l’information

52

« IL EST REELLEMENT ETONNANT, déclare dans son avant-propos Peter Stockinger, professeur de sémiotique et nouveaux médias à l’Institut national des langues et civilisations orientales de Paris, de constater l’absence quasi totale des théories du texte et du discours qui sont tout de même les plus habilitées à fournir des approches d’analyse et de modèles conceptuels pour le traitement de l’information ». C’est pour combler cette lacune que cette étude s’attache à donner un cadre méthodologique et théorique de l’analyse de l’information, à des fins non seulement technologiques et pragmatiques, mais aussi et surtout critiques.

53

Cette approche multidimensionnelle de l’information conduit l’auteur à construire son travail autour de trois parties principales.

« Signe sémiotique, texte et discours »

54

La première partie (p. 15-86) est composée de dix chapitres. Elle introduit les principales problématiques et notions de la recherche sémiotique sur le traitement de l’information, tout en identifiant le cadre d’une sémiotique de l’information. Qu’est-ce qu’un signe sémiotique ? Comment distinguer signifiant et signifié ? Quelle est la dimension pragmatique du signe sémiotique ? Toutes ces interrogations conduisent Peter Stockinger à examiner le document comme signe sémiotique, donnant comme sens à cette expression : « tout objet porteur d’informations pertinentes relatif à un problèmes posé ». Entrent donc dans cette catégorie les documents (textes, signes textuels, etc.) considérés comme enregistrements intentionnels et les documents (objets naturels ou artificiels) décrits comme manifestations d’une activité ou d’un processus. Intéressé essentiellement par le signe sémiotique complexe « texte », l’auteur introduit la notion centrale de discours, « considéré à la fois comme l’activité humaine par excellence du traitement et du contrôle de l’information et comme le résultat de cette activité sous forme d’un signe textuel quelconque ». L’arrivée des signes textuels numériques fait voler en éclat l’idéologie du document « figé », c’est-à-dire du document au sens du texte écrit. Il importe dès lors de bien distinguer les différentes facettes d’un signe textuel et de comprendre l’aspect pragmatique ou communicationnel du signe sémiotique. L’auteur conclut cette première partie en décrivant différents types de scénarios sémantiques.

« Stratégies de filtrage et de hiérarchisation d’informations »

55

La deuxième partie (p. 87-133), composée de huit chapitres, traite des opérations de traitement discursif de l’information à l’aide desquelles l’auteur d’un signe textuel (c’est-à-dire d’un document) peut exercer un contrôle réel sur la diffusion et la circulation de l’information. L’auteur y décrit un ensemble de procédures et de stratégies récurrentes dans la sélection et la mise à jour ou actualisation de l’information dans un signe textuel ou une classe de signes textuels. Le terme d’actualisation, défini ici selon Greimas, désigne une certaine compétence ou savoir-faire pour filtrer et mettre en scène une information de façon à ce qu’elle corresponde aux objectifs de l’auteur, aux contraintes particulières du contexte, aux attentes du destinataire… Sont particulièrement discutées les procédures ou stratégies paradigmatiques de traitement dont le résultat est le filtrage d’informations devant être produites dans un discours, et celles de hiérarchisation de ces informations selon des critères différenciés comme l’importance, la rareté, l’accessibilité…

« Stratégies d’intégration et de développement d’information »

56

La troisième partie (p. 135-174) comprend cinq chapitres de dimensions variables. Ils portent sur les stratégies dont se sert un auteur individuel ou collectif pour intégrer, agencer et développer des informations préalablement sélectionnées et hiérarchisées, afin d’en produire un discours correspondant à la fois à ses intentions, aux contraintes institutionnelles de la production et de la consommation du signe textuel, et aux spécificités du domaine d’expertise. L’auteur engage là une discussion sur un certain type de modèles culturels qui sous-tend l’organisation de n’importe quel signe textuel et dont l’objet est de définir et de classifier les genres textuels et de comprendre les divers programmes de traitement de l’information : narratif, rhétorique ou thématique. Aujourd’hui, la problématique du genre se repose de nouveau dans le cadre des produits et des services d’information numériques. Il convient, dès lors, de découvrir les particularités et l’originalité du signe textuel numérique.

57

« Dans cet ouvrage, déclare l’auteur, nous avons voulu montrer qu’une compréhension appropriée de l’information et de son traitement ne peut faire abstraction ni de l’organisation structurale du signe sémiotique censé véhiculer une information, ni de la fonction sociale que ledit joue dans la vie d’une institution, d’un groupe social ». Ce but est atteint, malgré le niveau très théorique et abstrait de ce texte tempéré toutefois par de nombreux exemples provenant notamment de la presse écrite et audiovisuelle. Peter Stockinger est, en effet, un sémioticien et il parle au nom de cette spécialité. En lisant son étude, le documentaliste ne se reconnaît pas dans la bibliographie, ni dans la façon de traiter le document. Il ne peut toutefois que s’enrichir en faisant la connaissance de disciplines qui parlent, avec une autre approche, d’autres mots et d’autres perspectives, de concepts qui font partie de son environnement : auteur, document, source d’information, diffusion, etc. ; et comprendre un environnement global qui se situe en amont du sien.

58

Marie-France Blanquet

Hommage à Robert Escarpit, universitaire, écrivain, journaliste, 1918-2000, Nicole Robine et Maïka Fourgeaud, Bordeaux : IUT Michel de Montaigne, filière Bibliothèques-Médiathèques ; Presses universitaires de Bordeaux, 2001. – 47 p. – (Coll. Lecteurs - Bibliothèques - Usages nouveaux, ISSN 1275-0522). – ISBN 2-911185-06-4 : 7 €

Les multiples facettes d’un pionnier des SIC

59

REALISE PAR SA COLLABORATRICE NICOLE ROBINE – elle-même bien connue pour ses recherches sur le livre et la lecture –, cet Hommage à Robert Escarpit, si « neutre et sans anecdotes » qu’elle l’ait voulu, touchera ceux qui l’ont connu et en apprendra beaucoup aux autres. En quelques pages, cet opuscule réussit à retracer les principales étapes de la vie de cet homme hors du commun et à souligner la diversité et la richesse de ses activités.

60

On le connaît universitaire, mais sait-on qu’il fut aussi militant soucieux d’éducation permanente, journaliste sans carte – auteur, entre autres, de 1949 à 1979, du « billet d’humeur » et d’humour du journal Le Monde et collaborateur de divers hebdomadaires –, écrivain, en particulier de contes pour enfants, peintre, etc. ?

61

Chercheur à la Faculté des lettres de Bordeaux en sociologie de la littérature, il suscite progressivement des recherches sur la création littéraire, le livre, la lecture, la littérature de jeunesse, puis sur les sciences de l’information et de la communication dont il fut l’un des pionniers en France. On trouvera, pages 14 à 18, les détails de la création, à la demande du ministre de l’Éducation nationale mais sans grands moyens, de l’IUT B qui réunit les filières des sciences sociales, du journalisme, des métiers du livre, puis de la documentation créée par Denise Escarpit en 1969, et reste à l’origine des deux UFR actuelles de communication de l’Université Bordeaux-3.

62

C’est en 1976 que paraît un de ses ouvrages les plus importants : Théorie générale des sciences de l’information et de la communication, base de savoir et de réflexion pour beaucoup d’entre nous.

63

Complété par une bibliographie thématique (réalisée avec Maïka Fourgeaud) qui souligne la fécondité de son esprit et présente certains des articles qui lui furent consacrés depuis son décès (2000), ce petit ouvrage a l’immense mérite de faire revivre, à côté du savant, l’humaniste lucide et courageux que fut Robert Escarpit.

64

Claire Guinchat

Les bibliothèques municipales : enjeux culturels, sociaux, politiques, Anne-Marie Bertrand, Nelle éd. - Paris : Électre-Éditions du Cercle de la librairie, 2002. – 147 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0837-8 : 28 €. Les Bibliothèques municipales et leurs publics : pratiques ordinaires de la culture, Anne-Marie Bertrand, Martine Burgos, Claude Poissenot, Jean-Marie Privat ; préface de Jean-François Hersent, Paris : Bibliothèque publique d’information - Centre Georges Pompidou, 2001. – 286 p. – (Études et recherche, ISSN 0993-8958). – ISBN 2-84246-052-9 : 22,87 €. Politique culturelle et bibliothèque publique : lieu de diffusion des savoirs : actes du séminaire tenu à Québec le 28 février 2002, Sous la direction de Marie Goyette, Montréal : Les Éditions ASTED, 2002. – 127 p. – ISBN 2-921548-63-1 : 19,95 $ : 13,31 €. Diff. en France par l’ADBS

Trois réflexions sur l’évolution récente de la lecture publique

65

PLUSIEURS OUVRAGES RECEMMENT PARUS se penchent sur les enjeux culturels et sociaux des bibliothèques municipales et sur l’évolution en cours des politiques de lecture publique.

Les perspectives des bibliothèques municipales en France

66

L’un des intérêts de cette refonte de son étude de 1994 tient à la prise en compte par Anne-Marie Bertrand des changements, voire des « bouleversements » subis par la société en cette courte période et dont elle cherche le reflet sur les bibliothèques. En conclusion du court, mais dense historique de leur évolution de 1945 à la fin des années quatre-vingt-dix, elle souligne la croissante « complexité de l’objet bibliothèque » (p. 27).

67

Elle se propose alors d’explorer l’enjeu culturel, social et politique qu’est devenu cet objet au fur et à mesure que se modifiait la conjoncture municipale et patrimoniale (chap. 2 : « Développement », p. 29-44). S’il est avéré que la bibliothèque « est une figure aujourd’hui reconnue par les acteurs publics » (p. 43), les conceptions diverses qu’ils se font de ses objectifs sont plus problématiques. En s’appuyant sur des textes explicites émanant des professionnels ou de l’administration, A.-M. Bertrand souligne l’imprécision de ces objectifs et les tensions qui, à son sens, en résultent, selon que l’on est usager, bibliothécaire ou élu. Elle dénonce la possible instrumentalisation médiatique ou idéologique de l’établissement (cf. p. 59 : « L’inspection de la bibliothèque municipale de Marignane, 1997 ») et s’interroge sur la dérive culturelle qui menace leur légitimité (p. 61). Sans se cacher les avancées de la coopération entre bibliothèque et municipalité (tel le « contrat ville-lecture »), elle s’inquiète des risques de la « révolution communale » mise en place depuis 1995, en particulier pour les villes petites et moyennes.

68

Une fois posé ce constat et soulignés les problèmes, la seconde partie de l’ouvrage, « Débats » (p. 79-115), se veut plus polémique et plus engagée. Évolution de la profession, constitution des collections et donc rapport offre/demande, poids des NTI, du « tout est possible » des débuts au « rien ne va plus » (p. 94), confusion autour du droit de prêt, évolution des usages et des publics et complexité des liens avec la profession – autant de points sur lesquels l’auteure jette un regard critique et appelle la réaction de ses collègues. Enfin, elle dessine, en conclusion, ce qui, pour elle, pourrait être l’avenir des bibliothèques municipales (« Enjeux », p. 119-143). Son analyse s’attache alors à débusquer ce qui se cache derrière l’appel permanent à la modernité, derrière le « politiquement correct » ou la « culture légitime », ou encore le « multiculturalisme », toutes notions qui brouillent le paysage socioculturel. Elle s’interroge enfin sur l’articulation entre le privé – envahissant – et le public – en désuétude –, et esquisse le chemin « légèrement décalé » qui mène à l’espace de liberté que doit rester la bibliothèque (p. 143).

69

De ton vif, souvent caustique, mais très documenté, accompagné d’une bibliographie thématique, cet ensemble est plus qu’une étude : une prise de position personnelle d’une spécialiste très impliquée, qui déclare d’emblée : « L’avenir des bibliothèques m’importe » (p. 8) et le fait savoir avec brio.

Les publics des bibliothèques municipales françaises

70

L’évolution, positive, qui a marqué le réseau de la lecture publique au cours des dernières décennies a-t-elle permis une démocratisation de la pratique ? C’est pour tenter de répondre à cette question que fut lancée en 1995, par la Direction du livre et de la lecture et le Service des études et recherches de la Bibliothèque publique d’information (BPI), une nouvelle enquête nationale sur le public des bibliothèques. Elle a été conçue pour pouvoir être comparée avec le premier sondage réalisé à cette échelle auprès du grand public en 1979, mais le matériel méthodologique en a été affiné. Elle se compose, en effet, d’un double dispositif d’enquêtes quantitatives et d’une phase qualitative consistant en entretiens semi-directifs et observations sur trente-deux « fréquentants » non inscrits expressément.

71

Constitué à partir du traditionnel panel de la SOFRES, l’échantillon national représentatif a subi divers dispositifs d’interrogation (cf. p. 7-22) dont les résultats sont analysés, dans la première partie de l’étude, par Anne-Marie Bertrand. Usagers, non-usagers et bibliothécaires forment ainsi un « portrait de groupe » (p. 25) comparé à celui de 1979. La conclusion à laquelle aboutit cette comparaison est celle d’une grande stabilité du public. Même si « la connaissance de la bibliothèque est meilleure aujourd’hui, plus proche de la réalité […] ce sont les facteurs socioculturels qui ont la plus grosse influence sur la fréquentation » (p. 78). L’image de la bibliothèque est positive, mais son public se diversifie moins qu’on aurait pu l’espérer.

72

La seconde partie de l’étude, très originale, s’attache aux caractéristiques de cette population hétérogène, nombreuse (7 % de l’échantillon), qui fréquente l’établissement sans s’y inscrire. L’exploitation des trente-deux entretiens semi-directifs, conduits sur huit sites, s’accompagne et s’enrichit d’une analyse sémiologique du concept d’« inscription » et des connotations qui s’y attachent (Martine Burgos, « Symbolique de l’inscription », p. 121-160), permettant de comprendre pourquoi « on n’en a jamais fini avec l’inscription » (p. 145). L’analyse des trajectoires sociales des usagers non inscrits (Claude Poissenot, p. 161-197) et la description des logiques dans lesquelles ils fonctionnent (Jean-Marie Privat, p. 199-232), complétées par le point de vue des bibliothécaires, assez perplexes devant cette catégorie de lecteurs non emprunteurs (p. 91-105), ouvrent d’intéressantes perspectives sur une attitude a priori paradoxale.

73

On trouvera en annexe les divers questionnaires, une description des sites étudiés et la présentation des personnes interrogées.

La politique du livre et de la lecture au Québec

74

Éprouvant, elle aussi, le besoin d’actualiser sa politique culturelle en matière de lecture publique, la municipalité de Québec s’est interrogée récemment (28 février 2002) sur le rôle des bibliothèques dans une société en rapide évolution. En effet, les fusions municipales et la création de nouvelles villes québécoises entraînent une nouvelle problématique et imposent la recherche d’autres stratégies. C’est à cet objectif qu’a répondu la présentation de l’expérience française du « contrat ville-lecture », lancée en 1998 (Noëlle du Plessis, directrice des bibliothèques de Caen, p. 27-40), qui ouvre ce séminaire. Le rappel de l’historique des bibliothèques publiques de la « Belle province » (Jean Payeur) et l’analyse, d’une part de l’importance de l’acte de lire (Thomas de Koninck), d’autre part de la contribution de ces établissements à la transmission du savoir (Patrick Beaudin), achèvent cet ensemble de réflexions sur une politique municipale du livre et de la lecture en pays francophone.

75

Claire Guinchat

Les métiers de la net-économie, Jean-Marc Engelhard, Paris : Syntec informatique : L’Étudiant, 2001. – 255 p. – (Les guides de L’Étudiant, ISSN 1262-327X). – ISBN 2-86745-945-1 : 13,56 €

Pour intégrer le monde de la net-économie

76

ÉDITE PAR L’ÉTUDIANT, ce guide pratique truffé d’adresses fait le point sur ce qu’on appelle la net-économie, centrée sur la mise en ligne de services d’information et de transaction (le e-commerce).

77

Après avoir présenté les acteurs du Net (start-up, SSII, éditeurs de logiciels, web agencies, fournisseurs d’accès Internet) et les secteurs porteurs, ce document aborde les différents métiers : ceux qui sont liés à la technologie Internet, ceux qui travaillent sur le support et la sécurité des données, les consultants, les métiers de commerce et de publicité, et enfin ceux qui ont trait à l’animation des sites.

78

Suivent enfin les principales formations spécialisées sur le multimédia ainsi que des conseils pour trouver un emploi dans ce secteur.

79

Brigitte Guyot

Manuel théorique et pratique d’évaluation des bibliothèques et centres documentaires, Thierry Giappiconi ; préface de Jacques Bourdon, Paris : Électre-Éd. du Cercle de la librairie, 2001. – 223 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0795-9 : 38 €

Une incitation pédagogique à la réflexion et à l’action

80

L’EVALUATION EST UNE PREOCCUPATION CONSTANTE des bibliothécaires. Ces derniers n’ont cependant pas une véritable pratique d’évaluation, c’est-à-dire de mise en œuvre de méthodes et d’outils leur permettant d’apprécier et de faire valoir leur efficacité au regard de l’accomplissement de leur mission et du bon usage des moyens mis à leur disposition par les décideurs. Cette évaluation active fait l’objet de ce livre organisé autour de sept principaux points.

81

« Les dimensions politiques et stratégiques de l’évaluation des performances des bibliothèques » (chap. I, p. 15-44) reposent sur une conviction forte exposée par l’auteur dans son avant-propos : l’évaluation des bibliothèques dépasse le seul champ des sciences de l’information et des bibliothèques en rejoignant la problématique de l’évaluation des politiques publiques. C’est pourquoi, après avoir présenté le rôle de la fonction de contrôle, les différentes formes du contrôle dans le management des organisations et la relation de cette fonction avec l’évaluation des bibliothèques, l’auteur aborde les aspects stratégiques et politiques de sa mise en œuvre dans différents domaines interdépendants : culturel, financier, social, etc.

82

« Le cadre méthodologique et instrumental », objet du chapitre II (p. 45-71), est consacré à la méthodologie d’un processus de programmation stratégique en bibliothèque et décrit les indicateurs de performance (qualité, efficacité, pertinence, etc.). Suit l’exposé de la mise en place du dispositif de recueil, de traitement et la normalisation des données internes et externes et la présentation de logiciels d’aide à la décision.

83

« L’évaluation des services » (chap. III, p. 73-100) examine la production et les divers services traditionnels ou électroniques offerts par les bibliothécaires, l’accessibilité et la promotion de ces services ainsi que leur usage.

84

« L’évaluation des ressources documentaires » (chap. IV, p. 101-127) présente les outils de programmation et d’évaluation des collections. Les différents indicateurs de développement des collections sont explicités à partir de la méthode d’évaluation la plus répandue : le Conspectus. Développé par OCLC/WLN, ce service définit les indicateurs d’évaluation des collections (par exemple : niveau de base, de recherche, etc.), ceux relatifs à la couverture linguistique des documents, à leur conservation. Les méthodes d’évaluation des collections sont présentées à partir de l’axe quantitatif : décompte du nombre de titres et d’articles, âge des collections, etc., et qualitatif : évaluation par expertise, recours à des manuels… L’organisation d’une collection suppose une segmentation catalographique ou physique intellectuellement significative. C’est pourquoi il est essentiel de ne pas confondre cotes et indices qui répondent à des fonctionnalités nettement différenciées.

85

« L’évaluation des compétences et des coûts des options et des procédures de délivrance des services » (chap. V, p. 129-154) entraîne l’auteur à parler de l’évaluation du personnel et du rôle de celle-ci comme moyen de susciter et d’orienter l’initiative et la responsabilité des agents vers les besoins de l’organisation. L’analyse des coûts dans le choix des options et des procédures fait l’objet d’un deuxième axe de réflexion de ce chapitre, ainsi que la définition des objectifs et des demandes d’attribution de ressources.

86

En s’appuyant sur des exemples concrets, Thierry Giappiconi entreprend, en décrivant « Le dispositif politique et stratégique » (chap. VI, p. 155-178), de décomposer, étapes par étapes, ce que pourrait être un processus de planification et d’évaluation, afin de mettre en lumière les modalités de son application et les conditions de son succès. Il s’agit de définir avec précision les objectifs et les missions du projet engagé, de programmer les orientations documentaires et d’analyser les diverses segmentations du public afin de mettre en place une stratégie de service et un dispositif opérationnel. Il conviendra dès lors de « Piloter et rendre compte » (chap. VII, p. 179-203) en utilisant les tableaux de bord prenant en compte les composantes techniques et bibliothéconomiques et la communication interne et externe.

De la gestion interne d’un équipement délimité à la vision stratégique d’un lieu ouvert

87

« L’évaluation des bibliothèques, conclut l’auteur, est demeurée longtemps partagée entre tradition statistique et des discours idéologiques trop simplistes pour servir de base à une approche méthodologique et pratique. Nous avons voulu montrer que le renouveau des études politiques permet de renouer le fil qui unit les résultats, l’observation et l’interprétation. » En ce sens, T. Giappiconi atteint son objectif en offrant à son lecteur un travail exhaustif, extrêmement documenté comme le montre d’ailleurs la bibliographie.

88

Mais T. Giappiconi n’est pas seulement un expert de l’évaluation ; c’est aussi un pédagogue. L’organisation de son manuel le prouve. Chaque chapitre est introduit par un résumé, conclu par un bilan des points importants qui y sont traités. De nombreux tableaux et schémas concrétisent encore plus les démonstrations de l’auteur. On peut citer, par exemple, la fiche descriptive de poste préparatoire à une procédure d’entretien annuel d’évaluation (p. 137), ou le tableau récapitulant les différences entre cote et indice (p. 126) ou encore le tableau de bord d’un responsable des circuits d’acquisition (p. 188). Un lexique bilingue aide le lecteur à se retrouver dans les concepts français comme américains.

89

Une étude réussie où, comme l’indique Jacques Bourdon qui signe la préface de ce livre, « l’auteur franchit une ligne de démarcation : d’une gestion interne d’un équipement délimité il passe à une vision stratégique d’un lieu ouvert, traversé par de multiples lignes d’action publique : la lecture, bien sûr, mais aussi la cohésion sociale, la politique culturelle, la citoyenneté… ». Cette ligne de démarcation, le lecteur a envie de la franchir avec lui. Certes, les professionnels de l’information, documentalistes d’entreprise ou indépendants, trouveront cet ouvrage, malgré son titre, trop orienté vers les bibliothèques, en particulier de lecture publique. Des considérations sur la lecture ou l’illettrisme, sur la segmentation des lecteurs par tranche d’age ne les intéressent pas directement. Cette étude peut cependant leur apporter beaucoup en les incitant à la réflexion et à l’action : à la réflexion sur les problématiques pratiques liées à l’évaluation ; à l’action, en leur offrant la possibilité de la mettre en œuvre avec des outils et des méthodes adaptables à la documentation. De plus, les professionnels de l’information découvriront avec intérêt le Conspectus, service ignoré de la plupart d’entre eux.

90

Les formateurs et les étudiants, quant à eux, y trouveront de très nombreuses sources d’inspiration et d’application pour leurs différents travaux.

91

Thierry Giappiconi signe ici un manuel qui non seulement comble un vide mais est surtout d’un niveau scientifique qui honore la profession.

92

Marie-France Blanquet

Éducation et nouvelles technologies : théorie et pratiques, Jacques Perriault, Paris : Nathan/VUEF, 2002. – 125 p. – (Collection 128 ; 264. Série Éducation). – ISBN 2-09-191164-X : 8,10 €

Usages pédagogiques des NTI

93

L’OBJECTIF DE CE PETIT OUVRAGE est de rassembler, à destination des enseignants de classes primaires et de collèges, des exemples de pratiques pédagogiques centrées sur l’utilisation de l’informatique et de ses produits liés : Internet, cédéroms, jeux vidéo, mais aussi ressources documentaires. Dans cette perspective, il mêle étroitement une présentation des concepts et des exemples de pratiques qui constituent autant de propositions d’exercices très concrets que les enseignants peuvent adapter à leur situation particulière. Pour faire participer les élèves, de façon raisonnée, tant à la production qu’à l’usage de ces nouveaux produits en leur faisant prendre conscience de ce qu’ils permettent et des modes de raisonnement qu’ils supposent. L’ouvrage est en réalité un ouvrage collectif car les présentations de cas données en exemples sont rédigées par ceux qui les ont conçus ou les appliquent concrètement.

94

Après un rappel des incidences du développement des technologies, et notamment de l’évolution d’une médiation des savoirs, l’ouvrage s’organise autour des principales opérations mentales induites par l’usage de ces technologies, comme autant de méthodes intellectuelles dont on ne souligne jamais assez la complexité : raisonner, se repérer dans l’espace et dans le temps, rechercher et exploiter des informations, utiliser l’image, s’exprimer et mémoriser, s’organiser. Pour chacune de ces thématiques, un bref rappel des principales notions sous-jacentes permet de situer le problème, avant l’exposé des exercices.

95

Bien qu’il soit totalement orienté vers les pédagogues, ce guide peut également servir aux professionnels de l’information et de la documentation d’aide-mémoire sur la cognition, la communication, la médiation ou la mémoire, concepts dont il fournit les principales définitions. Du fait de sa concision, il pourra laisser insatisfaits ceux que ces questions intéressent ; mais l’objet de la collection 128 n’est pas d’aller plus loin que cette présentation.

96

Brigitte Guyot

Initiation au métier de documentaliste, Ginette Hamel, Paris : Berger-Levrault, 2002. – 157 p. – (Coll. Administration locale, ISSN 0980-2606). – ISBN 2-7013-1392-9 : 29 €

La profession, ce n’est pas cela !

97

IL EST REGRETTABLE QUE L’AUTEURE de cette « initiation » ne se soit pas appliqué à elle-même les conseils d’auto-bilan qu’elle prodigue (chap. 15). Cela lui aurait peut-être permis d’apporter un peu de rigueur et de savoir à son ouvrage. Car si, sur le plan pratique, quelques conseils peuvent s’avérer utiles dans un strict cadre territorial, les notions théoriques et les techniques fondamentales de la documentation semblent inconnues ou mal assimilées, tout au moins telles qu’elles sont présentées ici.

98

Erreurs, imprécisions, lacunes sont trop nombreuses pour pouvoir être toutes citées. En voici un échantillon : confusion entre plans de classement et classifications - quasiment pas traitées -, absence totale de références aux normes existantes, AFNOR ou ISO, en particulier dans le pauvre chapitre 5 bizarrement intitulé « La description », faiblesse du traitement de la recherche documentaire qui semble ne se faire que sur Minitel, notions mal assimilées (voir la définition de « concept », p. 27), termes techniques utilisés sans la moindre explication préalable, etc. En ce qui concerne le métier, dont les tâches et les compétences sont données au premier chapitre, on ne trouvera rien sur la formation, les salaires, les associations professionnelles ou les statuts.

99

Les chapitres 7, naïf sur le stress, et 9, un peu mieux venu sur « l’instruction civique », auraient pu être avantageusement remplacés par l’approfondissement de certaines techniques, à commencer par celles de l’ordinateur et d’Internet qui ne semblent guère familières à Ginette Hamel.

100

Enfin, un « manuel de documentation pratique » dont l’auteure est convaincue qu’il rendra les plus grands services et qu’il « deviendra votre “compagnon” privilégié de travail » (p. 12), sans la moindre bibliographie, sans la moindre référence aux travaux existants par ailleurs, laisse perplexe sur l’étendue du savoir de sa réalisatrice. À quel public peut bien servir ce pseudo « manuel » ?

101

Claire Guinchat

Titres recensés

  1. Le management des savoirs, Jean-Claude Tarondeau, 2e éd. – Paris : Presses universitaires de France, 2002. – 127 p. – (Que sais-je ? ; 3407). – ISBN 2-13-052494-6 : 6,50 €
    1. Des questions essentielles pour le documentaliste
      1. Le professionnel de l’information et le gestionnaire du savoir
  2. Méthodes et outils pour la gestion des connaissances : une approche pluridisciplinaire du knowledge management, Rose Dieng-Kuntz, Olivier Corby, Fabien Gandon, et al., 2e éd. – Paris : Dunod, 2001. – 372 p. – (Informatiques. Série Systèmes d’information). – ISBN 2-10-006300-6 : 37,50 €
    1. Un ouvrage des plus complets sur la mémoire d’entreprise
      1. La première partie est consacrée à la mémoire d’entreprise
      2. La deuxième partie expose des méthodes pour la mémoire d’entreprise
  3. La veille stratégique sur l’Internet, Henry Samier et Victor Sandoval, Paris : Hermès Science Publications, 2002. – 191 p. – ISBN 2-7462-0325-1 : 40 €
    1. Une méthode rigoureuse de veille sur Internet
      1. Adopter une démarche, une méthode et des outils conformes à ses besoins
  4. Internet et la propriété intellectuelle : le droit, l’information et les réseaux, Michel Vivant et Agnès Maffre-Baugé, Paris : Institut français des relations internationales (diff. La Documentation française), 2002. – 84 p. – (Les notes de l’IFRI, ISSN 1272-9914 ; 42). – ISBN 2-86592-123-9 : 8 €
    1. Trois questions sur l’impact des nouvelles technologies sur le droit
  5. Thésauroglossaire des langages documentaires : un outil de contrôle sémantique, Danièle Dégez et Dominique Ménillet, Paris : ADBS Éditions, 2001. – 181 p. – (Sciences de l’information. Série Recherches et documents, ISSN 1159-7666). – ISBN 2-84365-051-8 : 19 €
    1. Une initiative originale à étendre à d’autres champs
      1. Un ouvrage qui comblera enseignants, étudiants et praticiens
  6. La publication en ligne, Sous la direction de Charlotte Nikitenko et Peter Stockinger, Paris : Hermès Science Publications, 2001. – 222 p. Numéro de : Les cahiers du numérique, ISSN 1469-3380, 2000, vol. 1, n° 5. – ISBN 2-7462-0201-8 : 37 €
    1. Les principales facettes de l’édition électronique
      1. Des interrogations très proches de celles des professionnels de l’information
  7. Traitement et contrôle de l’information : procédures sémiotiques et textuelles, Peter Stockinger,. Paris : Hermès Science Publications, 2001. – 190 p., bibliogr., index. – ISBN 2-7462-0240-9 : 30 €
    1. Un cadre théorique et méthodologique pour l’analyse de l’information
      1. « Signe sémiotique, texte et discours »
      2. « Stratégies de filtrage et de hiérarchisation d’informations »
      3. « Stratégies d’intégration et de développement d’information »
  8. Hommage à Robert Escarpit, universitaire, écrivain, journaliste, 1918-2000, Nicole Robine et Maïka Fourgeaud, Bordeaux : IUT Michel de Montaigne, filière Bibliothèques-Médiathèques ; Presses universitaires de Bordeaux, 2001. – 47 p. – (Coll. Lecteurs - Bibliothèques - Usages nouveaux, ISSN 1275-0522). – ISBN 2-911185-06-4 : 7 €
    1. Les multiples facettes d’un pionnier des SIC
  9. Les bibliothèques municipales : enjeux culturels, sociaux, politiques, Anne-Marie Bertrand, Nelle éd. - Paris : Électre-Éditions du Cercle de la librairie, 2002. – 147 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0837-8 : 28 €. Les Bibliothèques municipales et leurs publics : pratiques ordinaires de la culture, Anne-Marie Bertrand, Martine Burgos, Claude Poissenot, Jean-Marie Privat ; préface de Jean-François Hersent, Paris : Bibliothèque publique d’information - Centre Georges Pompidou, 2001. – 286 p. – (Études et recherche, ISSN 0993-8958). – ISBN 2-84246-052-9 : 22,87 €. Politique culturelle et bibliothèque publique : lieu de diffusion des savoirs : actes du séminaire tenu à Québec le 28 février 2002, Sous la direction de Marie Goyette, Montréal : Les Éditions ASTED, 2002. – 127 p. – ISBN 2-921548-63-1 : 19,95 $ : 13,31 €. Diff. en France par l’ADBS
    1. Trois réflexions sur l’évolution récente de la lecture publique
      1. Les perspectives des bibliothèques municipales en France
      2. Les publics des bibliothèques municipales françaises
      3. La politique du livre et de la lecture au Québec
  10. Les métiers de la net-économie, Jean-Marc Engelhard, Paris : Syntec informatique : L’Étudiant, 2001. – 255 p. – (Les guides de L’Étudiant, ISSN 1262-327X). – ISBN 2-86745-945-1 : 13,56 €
    1. Pour intégrer le monde de la net-économie
  11. Manuel théorique et pratique d’évaluation des bibliothèques et centres documentaires, Thierry Giappiconi ; préface de Jacques Bourdon, Paris : Électre-Éd. du Cercle de la librairie, 2001. – 223 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0795-9 : 38 €
    1. Une incitation pédagogique à la réflexion et à l’action
      1. De la gestion interne d’un équipement délimité à la vision stratégique d’un lieu ouvert
  12. Éducation et nouvelles technologies : théorie et pratiques, Jacques Perriault, Paris : Nathan/VUEF, 2002. – 125 p. – (Collection 128 ; 264. Série Éducation). – ISBN 2-09-191164-X : 8,10 €
    1. Usages pédagogiques des NTI
  13. Initiation au métier de documentaliste, Ginette Hamel, Paris : Berger-Levrault, 2002. – 157 p. – (Coll. Administration locale, ISSN 0980-2606). – ISBN 2-7013-1392-9 : 29 €
    1. La profession, ce n’est pas cela !

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information, 1/2003 (Vol. 40), p. 50-63.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2003-1-page-50.htm
DOI : 10.3917/docsi.401.0050


Article précédent Pages 50 - 63
© 2010-2014 Cairn.info
back to top
Feedback