Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2003/6 (Vol. 40)

  • Pages : 60
  • DOI : 10.3917/docsi.406.0401
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 401 - 415

Documents numériques. Coordonné par Jacques André et Gérard Dupoirier. Éd. n? 1, mai 2002. - Paris : Techniques de l’ingénieur, 2002-. – Disque optique numérique (cédérom). – Configuration minimale requise pour PC : Pentium, 16 Mo RAM ; carte graphique SVGA en 800x600 pixels ; Windows 95, 98, 2000 ou NTA ; optimisé pour le navigateur Internet Explorer, version 5.5. – (Documents numériques, ISSN en cours). – 135 € HT pour le cédérom + 58 € HT pour l’abonnement de 12 mois (mise à jour semestrielle)

Une excellente introduction à la gestion électronique de documents

1

QUEL DOCUMENTALISTE OU BIBLIOTHECAIRE ne connaît pas les célèbres reliures rouges ou vertes de l’encyclopédie Techniques de l’ingénieur avec leurs mises à jour régulières et nombreuses ? Il était grand temps que cet éditeur songe au format numérique pour une collection qui s’y prête particulièrement bien : c’est chose faite dorénavant et cela ne peut que réjouir les lecteurs des Techniques de l’ingénieur et les documentalistes chargés de leur gestion au quotidien.

2

Coordonné par Jacques André (directeur de recherche à l’Irisa/Inria-Rennes) et Gérard Dupoirier (consultant auprès de Xerox Business Services), ce cédérom Documents numériques propose un tour d’horizon des différentes technologies numériques, depuis la conception de documents hypermédias, l’archivage et l’indexation jusqu’à la restitution et au transfert de données. Une trentaine d’auteurs, spécialistes de l’entreprise, de la recherche et de l’enseignement supérieur, ont contribué à cette édition. À l’instar des cédéroms documentaires actuels, celui-ci est très bien organisé et structuré : la présentation de l’information est claire, il est facile de repérer immédiatement ce que l’on recherche grâce à des rubriques telles que Mots clés, Abréviations, Articles, Auteurs, En savoir plus, et à un moteur de recherche intégré. La principale rubrique et la plus riche, Articles, est divisée en cinq sous-rubriques : Représentation et traitement des documents ; Technologies d’acquisition et de transfert ; Technologies de restitution ; Gestion du contenu ; Droits et réglementation. Chaque sous-rubrique est complétée par une bibliographie, une sitographie et un glossaire des termes techniques.

3

S’il est un sujet d’actualité dont les éditeurs se sont emparés, c’est bien celui des documents numériques. Le cédérom des Techniques de l’ingénieur se différencie de bien des publications par son caractère didactique, une approche volontairement simplifiée qui démystifie le sujet et qui constitue, en quelque sorte, une introduction à des ouvrages ou articles de réflexion sur le sujet. Il est donc à conseiller pour une première approche. La structure par article (associée à la mise à jour semestrielle du cédérom) permet de s’adapter rapidement aux évolutions et d’acquérir une vision d’ensemble en matière de gestion électronique de documents.

4

Jean-Philippe Accart

La France dans l’économie du savoir : pour une dynamique collective. Rapport du groupe présidé par Pascal Viginier ; Commissariat général du Plan. Paris : La Documentation française, 2002. – 285 p. – ISBN 2-11-005286-4 : 12 €

L’économie de la gestion et de la transmission de l’IST

6

SI, COMME L’AFFIRME DANS SON AVANT-propos Jean-Michel Charpin, commissaire au Plan, « pour la France […] la principale source de richesses réside désormais dans les savoirs et les compétences, davantage que dans les ressources matérielles » (p. 5), quelle part tient effectivement l’économie du savoir dans la production nationale et l’économie du pays ? C’est pour répondre à cette problématique que le Commissariat au Plan a fait réaliser en 2001-2002 une étude par un groupe de travail, composé d’une part de chercheurs, d’autre part d’acteurs sociaux (cf. annexe « Composition du groupe », p. 279-283).

7

Leur rapport reflète une triple préoccupation : définir l’économie de la connaissance (ou du savoir, les deux termes étant employés indifféremment), réaliser « un diagnostic précis sur le degré d’insertion de la France » dans cette économie et identifier les obstacles rencontrés, enfin poser les recommandations nécessaires pour améliorer la situation.

8

Le premier chapitre apporte les clarifications nécessaires à la définition de cette économie, en précisant le concept même de « connaissance », en particulier par rapport à celui d’« information » ; en analysant les origines et les caractéristiques de ce nouveau type d’économie ; enfin en indiquant les problèmes posés par la mesure de l’économie du savoir et les principes retenus par le groupe. Le second chapitre vise à situer l’état de la question en France et sa position relative par rapport à un ensemble de pays comparables (Europe, Canada, États-Unis, Japon en particulier). Sont examinés les différents investissements, publics et privés, consacrés au savoir dans trois domaines : éducation et formation, innovation et recherche, enfin équipements et services en TIC, ainsi que les résultats obtenus dans ces différents domaines. Ne cachant pas que les indicateurs quantitatifs disponibles (nombre de diplômés, niveaux de qualification, performances en termes d’innovation, diffusion des TIC) sont souvent réducteurs ou peu comparables, les auteurs les complètent par un bilan des « performances globales de la France » en termes de PIB par habitant, d’« attractivité du territoire » et de commerce extérieur. Un réel décalage est constaté entre l’importance des investissements dans le savoir et les résultats obtenus (p. 69-72).

9

La seconde partie du rapport s’attache alors à cerner l’évolution des trois principales dimensions de l’économie du savoir que sont les institutions, les territoires et les acteurs. Au nombre des institutions, l’accent est mis sur l’évolution, depuis vingt ans, du système d’éducation et de recherche, des politiques de la science et de la technologie et des conditions de la propriété intellectuelle (chap. 3, 4 et 5). On retiendra, entre autres précisions intéressantes, l’analyse du phénomène de privatisation du savoir et de ses conséquences (p. 143-159) et l’appel à de nouvelles politiques pour pallier les dysfonctionnements actuels.

10

En ce qui concerne les « territoires » de l’économie du savoir, les stratégies de localisation des entreprises sont confrontées aux politiques de développement territorial mises en œuvre par les régions et par les autorités nationales et européennes.

11

Enfin, quelle est l’organisation des acteurs dans cette nouvelle économie ? Quelle est l’évolution des entreprises, tant en interne que dans leurs rapports externes ? Quelle est la capacité du système français d’innovation à stimuler la « dimension collective du savoir », à faire fonctionner des réseaux, vecteurs essentiels de la diffusion des connaissances ? Quelles sont les compétences indispensables pour gérer les « blocs de savoir » qu’engendrent la spécialisation croissante et la multiplication des fusions ? C’est à tous ces problèmes que cherche à répondre la dernière partie du rapport. L’analyse des pratiques émergentes en matière de gestion du savoir et de valorisation du « capital immatériel » de l’entreprise est illustrée de cas précis et de comptes rendus d’enquêtes. Des perspectives d’amélioration, concernant aussi la gestion des ressources humaines, sont proposées.

12

Le bilan de l’insertion de la France dans l’économie du savoir ne cache pas les principales difficultés rencontrées : échecs et déséquilibre dans la formation, performances insuffisantes et retard de la recherche publique – dus non au manque de ressources investies mais « au manque de coordination et de stratégies claires à long terme » (p. 258) – tant en entreprises que dans les administrations – même si l’intérêt commence à s’en faire sentir.

13

Complétée par de nombreuses bibliographies thématiques, chapitre par chapitre, cette synthèse critique sur la gestion et la transmission de l’IST ne peut manquer de donner matière à réflexion à notre profession.

14

Claire Guinchat

Assistance intelligente à la recherche d’informations. Sous la direction d’Éric Gaussier et Marie-Hélène Stéfanini. Paris : Hermès Science Publications, 2003. – 319 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0726-5 : 100 €

De savantes et difficiles études sur la recherche d’information

15

L’OBJECTIF DE CET OUVRAGE COLLECTIF, indiqué dans l’avant-propos, est d’offrir aux utilisateurs du monde de la recherche et de l’industrie une aide à la satisfaction de leurs besoins d’informations. « Le titre […] se veut le reflet de cette perspective, ainsi qu’un espoir certain que l’assistance fournie soit suffisamment intelligente pour qu’elle ne se transforme pas en un obstacle à l’accès à l’information ». Pour cela, plusieurs spécialistes sont invités à exposer leurs connaissances regroupées en trois parties principales précédées d’une introduction : « Le domaine de la recherche d’information, survol d’une longue histoire » (p. 19-28) par J.-Y. Nie. On y apprend que l’expression « recherche d’information » a été utilisée pour la première fois par Calvin B. Mooers en 1948. Par la suite, cette recherche fait l’objet de nombreuses expérimentations et d’élaboration de modèles théoriques, jusqu’à l’arrivée d’Internet, nouvel environnement dans lequel se situe désormais toute étude portant sur ce sujet.

« Introduction au domaine »

16

La première partie comprend deux chapitres consacrés à la recherche d’information et à l’application dans ce cadre du traitement automatique des langues. Dans le premier chapitre, J. Savoy présente les « Modèles en recherche d’informations » (p. 31-69). Il s’agit de décrire comment l’ordinateur représente un document, comment le système représente un besoin d’information exprimé par une requête, comment l’appariement s’effectue entre la requête et les documents. L’auteur explicite quatre familles de modèles : le modèle booléen, le modèle vectoriel, les approches probabilistes et celles fondées sur la logique, en s’appuyant pour cela sur de nombreuses formules, équations et logarithmes complexes et extrêmement difficiles à maîtriser pour le non-spécialiste du traitement automatique des langues. Cinq pages de ce texte sont consacrées à la bibliographie : 152 références issues de la littérature américaine, ce qui laisse supposer au lecteur que seuls les Américains travaillent sur le sujet des modèles en recherche de l’information.

17

Dans « Traitement automatique des langues et recherche de l’information » (chapitre 2, p. 71-96), E. Gaussier, C. Jacquemin et P. Zweigenbaum présentent les différentes techniques de traitement automatique de la langue qui peuvent être mises en œuvre dans l’indexation des documents. Ils abordent des problématiques particulières de la recherche d’information comme le multilinguisme, l’extraction d’information, le résumé automatique et les systèmes de question-réponse. La bibliographie conséquente (mais moins que dans le précédent chapitre) qui accompagne ce texte s’appuie essentiellement sur la littérature américaine ou sur des thèses de doctorat en linguistique. Les autres textes qui composent cet ouvrage, sauf celui écrit par Bruno Bachimont, confirment cette tendance. Il n’existerait donc pas de travaux sur le traitement automatique des langues menés dans d’autres pays et écrits dans d’autres langues ?

« Des bases de connaissances au multimédia »

18

La deuxième partie aborde avec M.-F. Bruandet et J.-P. Chavallet « L’utilisation d’une base de connaissances pour la recherche de l’information » (chapitre 3, p. 99-132). Ces auteurs y expliquent ce qu’est un thésaurus et quel intérêt il présente pour la recherche d’information. Le professionnel de l’I-D se sent pleinement concerné par ce texte, mais il s’inquiète un peu lorsque les auteurs le renvoient à la « classification décimale de Melvil Dewey qui date de 1876 » comme modèle de thésaurus ! Manifestement, les auteurs confondent classification et thésaurus, conférant à ces derniers les caractéristiques d’un langage à structure hiérarchique (p. 101). L’essentiel de ce chapitre est centré sur la construction automatique de thésaurus en utilisant des méthodes statistiques ou linguistiques et sur son utilisation pour une expansion automatique de requêtes.

19

L’intégration de connaissances n’allant pas sans une modélisation générale, il importe de décrire les types de modèles qui peuvent s’appliquer à ce processus. Les auteurs illustrent leurs propos par une expérience menée dans le cadre de l’Aupelf « avec la collection Amaryllis » dont ils ne disent pas plus, ce qui rend donc difficile la lecture de résultats exposés page 118 mettant en scène la LRSA, l’OFIL, l’INIST. Mais comme les auteurs le constatent : « À l’heure actuelle, aucune méthode automatique ne permet d’indexer un document à l’aide de concepts. Pour cela il faudrait “comprendre” un texte, et l’on ai [sic] bien loin de savoir le faire ».

20

La « Représentation vectorielle de connaissances sémantiques pour la recherche d’information » intéresse dans le chapitre 4 (p. 133-152) R. Besançon, M. Raiman, J.-C. Chappelier. Les modèles vectoriels associent à chaque document un vecteur dont les composantes y représentent l’importance des termes d’indexation. Cela permet de calculer une valeur de proximité thématique entre deux documents par l’utilisation d’une mesure de similarité entre les vecteurs qui les représentent. Les auteurs présentent le modèle DSIR (Distributional semantics information retrieval) fondé sur l’intégration de co-occurrences et l’intégration de connaissances de synonymie pour la désambiguïsation sémantique à partir d’un autre modèle. Les exemples expliquent les nombreuses matrices ou équations qui accompagnent ce texte auxquelles le professionnel de l’information est fort peu habitué.

21

B. Bachimont clôture cette partie avec « L’indexation multimédia » (chapitre 5, p. 153-184). Il en expose les problématiques. En particulier, après avoir passé en revue l’indexation conceptuelle, structurelle et par le contenu, l’auteur explique les difficultés liées à l’indexation d’un objet temporel, objet sonore ou audiovisuel, et explicite la norme MPEG-7. Il signe aussi la plus courte bibliographie de ce document, ne comportant que trois références mais françaises.

« Des stratégies au service des utilisateurs »

22

Dans la troisième et dernière partie de cet ouvrage, B. Chidlovskii se penche d’abord sur la « Métarecherche : la recherche distribuée d’information » (p. 187-218). Trois problèmes centraux de la recherche d’information distribuée y sont présentés et discutés. Il s’agit de la sélection du serveur à partir d’une liste de serveurs disponibles. C’est la reformulation de la question exprimée par l’utilisateur en une requête exploitable par les serveurs sélectionnés et le classement des résultats de recherche. L’auteur décrit différents paramètres et traitements liés notamment à la gestion de l’hétérogénéité des serveurs permettant de les résoudre. Par la suite, est discuté un modèle de recherche distribuée de l’information. Le chapitre se ferme sur une revue des véritables systèmes de métarecherche sur le web.

23

Le chapitre suivant, rédigé par J. Caelen, présente la problématique du « Dialogue homme machine [et de] recherche d’information » (p. 219-254). L’auteur illustre son propos à l’aide d’un hyperdialogue avec un agent en langage proche de l’interaction naturelle (Halpin), un système multimodal permettant la recherche de documents structurés ou d’informations sur le web. Ce système, évalué auprès d’utilisateurs, permet de conclure à l’intérêt du dialogue en langage naturel entre l’homme et la machine.

24

C. Berrut et N. Denos abordent le thème en vogue du « Filtrage collaboratif » (chapitre 8, p. 255-283). De façon très détaillée, elles analysent les algorithmes classiques qu’utilise ce type de filtrage avant de conclure sur un tour d’horizon des systèmes les plus connus et une comparaison des fonctionnalités perceptibles dans les systèmes existants sur la toile.

25

Et ce livre s’achève avec la contribution originale de J. Caelen, V. Egli, et S. Hollard sur l’« Évaluation de documents par oculométrie » (p. 285-315). L’idée est d’analyser la trace du regard dans l’activité de lecture d’un document pour en tirer un diagnostic sur la pertinence de ce document, aux niveaux de la structure et du contenu.

26

Un index est proposé en fin d’ouvrage, dont la construction laisse le lecteur dubitatif. Il y manque un certain nombre de mots clés tels qu’anaphore, base de connaissance, index. Pour certains autres, les pages où ils apparaissent ne sont pas toutes référencées comme, par exemple, le terme co-occurrence page 77. Un test mené sur le mot clé thésaurus renvoie à des pages où le terme n’est que cité (p. 24-27), d’où il est absent (p. 23), ou bien où il correspond au titre d’un ouvrage donné dans la bibliographie (p. 131) quand les autres ouvrages proposés dans les autres chapitres ne sont pas indexés. Le système DSIR est référencé, mais pas Halpin.

27

Il est toujours difficile de rendre compte d’un ouvrage collectif. Ici, toutefois, l’ensemble des contributions est assez hermétique et, en ce sens, ne peut intéresser que des chercheurs ou des étudiants en thèse. Le lecteur se demande si tous ces textes écrits par des spécialistes du traitement de la langue qui n’entament jamais de dialogue avec des spécialistes des sciences de l’information, en particulier de la recherche d’information, ni avec des praticiens, ont réellement leur place dans une collection intitulée « Traité des sciences et techniques de l’information ».

28

Marie-France Blanquet

La gestion d’un centre d’archives : mélanges en l’honneur de Robert Garon. Sous la direction de Louise Gagnon-Arguin et Jacques Grimard. Sainte-Foy (Québec) : Presses de l’Université du Québec, 2003. – XX-339 p. – (Gestion de l’information). – ISBN 2-7605-1188-X : 45 $ CND

Gestion d’archives : état des lieux et questionnements actuels

30

LA PREFACE DE CET OUVRAGE, SIGNÉE PAR Dominique Maurel, présidente de l’Association des archivistes du Québec, nous apprend qui est Robert Garon, à qui ces mélanges sont dédiés. Conservateur des Archives nationales du Québec pendant une vingtaine d’années, ce professionnel de l’information s’est également engagé, à l’échelle nationale comme à l’échelle internationale, dans la défense des archives et des archivistes, de leurs actions et de leur formation. L’Avant-propos ainsi que l’Introduction écrits par les responsables de ces mélanges en indiquent les objectifs : « Faire le point sur l’état des connaissances et des questionnements en matière de gestion d’archives » en hommage à cet archiviste dont Jean-Pierre Therrien, dans un premier chapitre, nous retrace la vie (« Robert Garon : une passion, les archives ; une vocation, les Archives nationales du Québec »). Par la suite, l’ouvrage est divisé en quatre parties principales donnant, au fil des chapitres, la parole à différents professionnels et gestionnaires.

Aucun aspect de la gestion n’est négligé

31

Dans la première partie : « Principes et cadres de gestion d’un centre d’archives », c’est Robert Garon lui-même qui prend la plume pour expliquer l’influence extérieure sur la gestion des archives et ce que les archivistes doivent faire évoluer (chapitre 2 : « Vivre dans le changement », p. 35-55). Ce chapitre aurait pu être écrit par un documentaliste et pour les documentalistes. Il suffirait de remplacer le mot archives par documentation pour obtenir un contenu très adapté aux actuels questionnements des professionnels de l’information. Le documentaliste vit lui aussi de nombreuses influences externes et il veut avoir la même dynamique : « faire bouger les choses ».

32

« Les aspects généraux et particuliers de l’administration d’un service d’archives » sont ensuite présentés par Carol Couture et Jacques Grimard (chapitre 3, p. 57-82). Après avoir fait le point sur les notions de gestion et de services d’archives, ils décrivent l’ensemble des fonctions nécessaires pour administrer un service d’archives : management, marketing, production, ressources humaines, ressources financières et comptabilité. Les auteurs situent ensuite la problématique de la gestion des centres d’archives dans un environnement plus large où l’utilisateur a de nouvelles exigences, où les technologies et la mondialisation jouent un rôle déterminant.

33

« Gestion des ressources et des activités » constitue la deuxième partie de cet ouvrage, composée de trois chapitres abordant les thèmes communs à toute organisation : planification, gestion des ressources et évaluation. Christian Huot et André Gareau exposent et illustrent à partir d’exemples vécus et avec cinq annexes, synthèses de leur propos, les principes de « La planification stratégique et [de] la gestion des opérations » (p. 85-107). Le plan de développement doit clairement énoncer les principes de base que devront refléter les activités du centre : sa mission, ses priorités, ses engagements, et d’autres éléments tels que l’âge du centre, le type d’organisme, etc. Aux documentalistes qui travaillent dans l’institution scolaire, ce plan de développement rappellera grandement le projet d’établissement.

34

Jacques Grimard s’intéresse, quant à lui, à la gestion des ressources humaines, informationnelles, financières ou matérielles et soulève, à travers l’analyse de la littérature archivistique, « Le défi de l’équilibre » que posent ces sources (p. 109-134). Dans le même esprit, Lucie Pagé veut « Évaluer pour évoluer » (p. 135-166). Elle propose, en s’appuyant elle aussi sur la littérature professionnelle, des méthodes et techniques d’évaluation à explorer qui ne dépaysent pas le documentaliste. Celles-ci portent sur les acquisitions, les services, les statistiques, la disponibilité des documents, etc.

35

La troisième partie donne la parole aux « Gestionnaires et usagers ». Elle débute par le point de vue d’un gestionnaire dont le mode d’administration est entièrement axé sur les services aux usagers (« Services d’archives et utilisateurs : vers une gestion plus éclairée », p. 169-188). Elle se poursuit par les réflexions d’une historienne : Joanne Burgess, lancée dans « La recherche dans les archives » dont elle retrace l’évolution sur vingt ans (p. 189-208). Enfin, le point de vue des gestionnaires est évoqué dans le neuvième chapitre : « Archives et administrateurs : entrevues avec Michel Lespérance, Claire McNicoll et Jean-Pierre Côté » ; le but de ces rencontres étant essentiellement de savoir quels services leur avaient été les plus utiles dans les problèmes récents de gestion auxquels ils ont dû faire face (p. 208-222). Il y est question, entre autres, de l’organisation intellectuelle de l’information et de la classification.

36

Les « Expériences de gestion de services d’archives » qui constituent la quatrième et dernière partie de ces mélanges concernent « Les archives nationales du Québec » présentées par Robert Garon (p. 225-247), « Les archives universitaires » de Montréal (Claude Minotto, p. 249-267), « Les archives municipales » (Denis Chouinard, p. 269-286) et enfin « Les archives ecclésiastiques » (Monique et Michèle Boisvert, p. 287-309). Autant de témoignages qui reprennent très concrètement les concepts exposés dans les trois premières parties : acquisition, gestion, communication de l’information - mais adaptés chacun à un lieu et à une spécificité donnés.

Des problématiques communes aux diverses professions de l’I-D

37

Titre et sous-titre pourraient desservir cette étude. Le documentaliste se sent a priori assez éloigné de la spécialisation archivistique. Par ailleurs, Robert Garon, pour un grand nombre de lecteurs français, est sans doute un inconnu. Pourtant, toutes les parties de ce livre sont riches et (sauf, peut-être, la dernière, très « archivistique québécoise » !) très intéressantes pour tous les gestionnaires de l’information. Elles soulèvent des problématiques que connaissent aujourd’hui les documentalistes : les changements de supports, le rôle des technologies dans la diffusion de l’information, etc. Archivistes, documentalistes et bibliothécaires se croisent dans des fonctions de gestion, de marketing, d’évaluation ; ils se préoccupent des besoins de l’utilisateur final. Celui-ci est omniprésent dans cet ouvrage. Sur ce point, d’ailleurs, le lecteur sera peut-être surpris de découvrir « qu’il en est des usagers comme des documents : tous n’ont pas la même importance. Il importe donc de “repérer les clients les plus importants” » (page 53).

38

Ce livre permet en outre de faire la connaissance d’un homme actif et passionné par l’ensemble des problèmes liés au document et à l’information. À travers les textes réunis ici et leurs bibliographies, nous découvrons des auteurs peu connus en France mais tenant des propos d’intérêt général qui sont ceux de tous les professionnels de l’information. Et le lecteur français sera heureux de surcroît d’y rencontrer des auteurs français : Marie-Anne Chabin, Claire Guinchat, Michel Menou, Jean Favier et même… Alain Juppé !

39

Marie-France Blanquet

Guide pratique : mettre en place le records management dans son organisation. Catherine Hare, Julie McLeod ; responsable d’édition Marie-Pierre Oriol ; traduction de Geoffrey Hare. Nouv. éd. mise à jour. – Paris : IDP, 2003. – 47 p. – ISBN 2-9510477-0-3 :46 € Trad. de : Developing a records management programme. – London : ASLIB, 1997

Un guide pour faire mieux comprendre le records management

41

RARES SONT LES PUBLICATIONS EN FRANÇAIS portant sur le records management. La bibliographie commentée placée à la fin de cet ouvrage, de même que celles qui accompagnent chacun de ses chapitres, illustre très clairement ce point. C’est pourquoi – même si, selon le traducteur, Geoffroy Hare, elle n’a pas toujours été aisée à effectuer – la traduction de ce recueil de recommandations présente un intérêt certain pour les professionnels de l’information pour qui cette notion conserve quelques zones d’obscurité.

Une orientation résolument pratique

42

Découpé en huit courts chapitres, ce document veut répondre en priorité aux besoins de l’action, c’est-à-dire de la pratique. Le premier chapitre dresse « L’évolution du records management à travers l’histoire » (p. 6-9). On y apprend que les représentants de la civilisation sumérienne ont créé, 7 000 ans avant J.-C., les premiers records. Mais les supports sont des tablettes d’argile… « Le records management dans l’organisation », objet du chapitre 2 (p. 10-14), explique comment est né le concept du cycle de vie du document, pose la finalité et la valeur des records pour l’entreprise et énumère les conséquences négatives de leur « non-gestion ».

43

« Le programme de records management » (chapitre 3, p. 15-18) décrit les sept principes à respecter pour réussir. Il s’agit d’analyser les besoins en information de l’entreprise, de créer l’information, de l’enregistrer, de la stocker, de la repérer pour l’utiliser, de la protéger et enfin de la détruire si elle ne présente plus d’utilité. Les deux chapitres suivants montrent comment conduire un inventaire ou un « Audit des records » (p. 19-25) et développer un « Référentiel de conservation » (p. 26-31). Des exemples de formulaires d’audit ou de bordereaux de conservation ou de destruction sont proposés, qui éclairent bien le texte.

44

« Promouvoir le programme » fait l’objet du très court chapitre 6 (p. 32-33) développant pourtant l’originale idée d’un cleaning day : une « journée où les employés de bureau du monde entier cesseraient leur activité pour se débarrasser de la “paperasse” qui s’est accumulée sur leur bureau ». L’adhésion des documentalistes à cette proposition ne fait aucun doute ! Les derniers chapitres – « La formation en records management » (p. 34-36) et « La mise en œuvre d’un records management efficace » (p. 37-39) – mettent l’accent sur le déploiement du programme dans l’organisation par le biais d’actions de formation et la connaissance de la norme internationale ISO I 5489. Un glossaire français/anglais, une liste d’associations professionnelles nationales ou internationales, et une courte bibliographie commentée terminent cette étude.

Beaucoup reste à faire pour la reconnaissance du records management

45

« Il reste aussi beaucoup à faire, concluent les auteurs de ce guide, pour que soient reconnus à la fois la place du records management et la nécessité d’une bonne gestion des records au sein de maintes organisations ». En France, ce concept reste très lié à celui d’archives. La lecture de cet ouvrage devrait faire comprendre l’intérêt du records management dans d’autres champs de l’information. Les services de documentation des entreprises qui s’appliquent à rationaliser la production, la conservation et l’accès des informations produites et reçues par l’organisation dans le cadre de ses activités font déjà du records management. Ce guide pratique devrait les aider à préciser cette notion encore mal connue, à en comprendre la spécificité et l’importance.

46

Marie-France Blanquet

Méthodologie documentaire : comment accéder à la littérature scientifique à l’heure d’Internet. Bernard Pochet. Bruxelles : De Boeck et Larcier, 2002. – 141 p., bibliogr., lexique, index. – (Sciences α méthodes, ISSN 1376-2281). – ISBN 2-8041-4142-X : 18 € Ouvrage complété par un site Internet : <www. bib. fsagx. ac. be/ edudoc/ DBU. htm>

Un manuel riche et clair qui facilitera l’accès à l’information scientifique

48

Les editions belges de boeck et larcier nous proposent, dans leur très bonne collection Sciences et méthodes, un ouvrage de méthodologie documentaire : celui-ci est à consulter avec attention et peut être recommandé à tous ceux qui souhaitent mieux définir leur démarche d’information.

49

Maître de conférences à la Faculté universitaire des sciences agronomiques de Gembloux (Belgique) et également directeur de la bibliothèque de cette Faculté, l’auteur, Bernard Pochet, insiste dans son introduction sur les changements qui affectent les bibliothèques – notamment en terme d’accès à la littérature scientifique –, sur les nouveaux rôles qui leur sont dévolus tels le repérage et la mise à disposition des ressources du web, et sur la nécessaire formation des utilisateurs. Dans cette perspective, son ouvrage s’inscrit dans la lignée actuelle des ouvrages qui, avec plus ou moins de bonheur, s’essaient à faciliter l’accès à l’information. En l’occurrence, nous avons affaire à l’ouvrage d’un professionnel (c’est d’ailleurs l’actualisation d’un cours) qui connaît son domaine et clarifie autant qu’il est possible le dédale de la recherche d’information. En outre, ce livre est fort heureusement complété par un site Internet relatif aux sources d’information.

50

Les premiers chapitres situent le cadre global de l’information documentaire et expliquent les notions de documents primaires et de documents secondaires. Les définitions données sont claires et illustrées par de nombreux exemples scientifiques. Une demi-page est consacrée ensuite à l’évolution informatique, ce qui est bien peu et demanderait sans doute plus de développements. Puis viennent plusieurs chapitres sur la mise en forme de l’information avec l’indexation et les langages documentaires, puis sur la recherche documentaire elle-même et sur Internet. Comment accéder à l’information, comment utiliser de manière efficace les sources disponibles, comment évaluer l’information trouvée sont autant de questions posées qui trouvent des réponses simples et pratiques. Cet ouvrage s’adressant en premier lieu à un public universitaire et scientifique, les derniers chapitres sont consacrés à la rédaction d’un article scientifique et à celle de la bibliographie.

51

L’initiative de l’auteur et de l’éditeur de mettre en ligne les sources d’information sur un site Internet spécifique est tout à fait judicieuse, car elle permet d’illustrer à bon escient cet ouvrage et d’en faciliter la mise à jour. Le site Internet se présente avec un plan identique à celui du manuel et permet de mettre en regard les principes théoriques de la recherche d’information avec les sources correspondantes. Les sources citées sont très nombreuses, structurées et classées, et devraient intéresser plus d’un professionnel de l’information. Les étudiants et les enseignants en sciences de l’information trouveront également dans cet ouvrage matière à enrichir et à clarifier leurs cours.

52

Jean-Philippe Accart

Filtrage sémantique : du résumé automatique à la fouille de textes. Jean-Luc Minel. Paris : Hermès Science Publications, 2002. – 202 p. – ISBN 2-7462-0602-1 : 55 €

Technologies et outils pour l’analyse documentaire

54

« POURQUOI RESUMER ? », INTERROGE L’AUTEUR dans l’introduction qui est aussi le premier chapitre (p. 13-20). Les professionnels de l’information connaissent déjà les réponses : surinformation, nécessité de trier les informations, de stocker les documents… Ils connaissent également la typologie, les spécificités et les limites de l’analyse documentaire. L’une d’elles concerne la création d’un résumé standard ne répondant pas toujours à l’hétérogénéité des besoins, des attentes et des utilisateurs. C’est pourquoi, les technologies le permettant, des chercheurs ont élaboré des outils capables d’effectuer automatiquement des analyses, répondant à des situations informationnelles diversifiées avec une réponse adaptée à chaque utilisateur, et cela selon différentes méthodes développées au cours des trente dernières années.

Du résumé automatique…

55

Ces méthodes, objet de la première partie de cette étude, sont classées en trois groupes. « Les méthodes fondées sur la compréhension » (chapitre 2, p. 23-36), s’inspirant des travaux menés en intelligence artificielle, prennent leurs racines dans l’étude de la compréhension automatique. Résumer un texte implique de le comprendre. La méthode découpe ce processus de compréhension en trois temps : le premier vise à construire une représentation du texte à traiter ; cette représentation (graphes, frames, scripts ou schémas…) devient alors l’entrée d’un module qui procède à sa réduction au moyen d’une série d’opérations ; enfin la représentation réduite des parties essentielles du texte, obtenue à l’issue de cette étape, est à l’origine de la génération du résumé. Ce procédé donne lieu à plusieurs courants de recherche issus de la psychologie cognitive ou du traitement automatique du langage naturel que l’auteur expose en termes clairs, illustrés de schémas très parlants.

56

Toutefois, se heurtant à de nombreux problèmes, ces méthodes ont progressivement été abandonnées. Elles ont ouvert la voie aux « Méthodes par extraction » (chapitre 3, p. 37-66) fondées sur l’idée que, dans tout texte, il existe des unités textuelles saillantes. Ces méthodes utilisent un algorithme de sélection fondé sur des connaissances statistiques (calcul du score d’un mot, par exemple), linguistiques (calcul de similarité lexicale) ou sur des heuristiques combinant différents types de connaissances. Elles consistent à extraire du texte source une liste ordonnée d’unités textuelles (repérage de phrases prototypiques, de chaînes lexicales). Le résumé est construit à partir de cette liste en veillant à ne pas dépasser « le seuil de réduction ». L’auteur multiplie les illustrations et les exemples qui sont les bienvenus pour le lecteur. Toutefois ces méthodes se heurtent à une importante difficulté qui porte sur leur fondement même : il n’existe pas de critères reconnus qui permettent de caractériser la saillance d’une unité textuelle dans un texte. Mais, avertit J.-L. Minel, ces systèmes cherchent à prendre en compte les connaissances linguistiques. « La problèmatique du résumé automatique a ainsi glissé des sciences de l’information aux sciences du langage ».

57

Les résumés sont produits par des professionnels. Il est donc envisageable de construire un système qui apprenne à classifier les critères sur lesquels se sont appuyés ces professionnels pour élaborer leurs résumés. Les systèmes fondés sur ce type d’apprentissage sont dits « supervisés ». Ainsi, « Les méthodes par apprentissage » (chapitre 4, p. 67-79), dérivées des méthodes par extraction, occupent aujourd’hui le champ de la recherche. Le principe est simple : à partir d’un corpus de textes sources et de leurs résumés, le concepteur choisit les critères d’extraction (par exemple, la phrase contient des mots présents dans le titre ou des mots fréquents dans le texte). On utilise par la suite un algorithme d’apprentissage pour produire les règles d’extraction validées au cours de la dernière étape où les résumés générés par le système sont comparés aux résumés de référence. Ici, aussi, un schéma explicatif est le bienvenu.

58

Cependant, si le principe paraît simple, la réalisation semble relativement complexe qui croise des connaissances scientifiques, linguistiques et techniques. Par ailleurs, les problématiques du résumé sont nombreuses : leur coût, la masse documentaire, l’apparition de nouvelles formes sémiotiques ou plus simplement, la qualité du texte ou son intérêt. Cela justifie l’abandon par les services de documentation de la pratique analytique. Ces derniers utilisent alors les résumés d’auteur, forcément hétérogènes et de qualité inégale. C’est pour résoudre ces problèmes qu’ont été mis au point des systèmes « non supervisés » ou « semi-supervisés » construits sans corpus d’apprentissage ou à partir de corpus de petite taille qui, en terme de recherche, font aujourd’hui l’objet « d’un net regain d’intérêt ».

59

Quelle que soit la méthode utilisée, les résumés doivent impérativement faire l’objet d’une évaluation clairement explicitée ; ceci pour éviter que fleurissent des prototypes aux résultats flatteurs mais inapplicables (chapitre 5, p. 81-93) ! Cette évaluation peut être abordée sous l’angle de l’informatique documentaire en utilisant des critères quantitatifs tels que ceux du rappel et de la précision. L’auteur relate et illustre diverses expériences fondées sur ces critères ; elles permettent de conclure sur les interdépendances qui existent entre l’attente du lecteur, son niveau scientifique et la pertinence de la phrase. Ces constats ont conduit les chercheurs à élaborer d’autres protocoles d’évaluation basés non plus sur des critères quantitatifs mais qualitatifs, donnant la première place à l’utilisateur du résumé.

… à la fouille de texte

60

Il n’a été question jusqu’ici que du résumé. Or, un texte et son résumé constituent un tout. « Le filtrage et la fouille sémantique des textes », objet de la deuxième partie de cet ouvrage, réconcilient les deux. Le résumé n’est plus considéré comme un instrument de consultation mais comme une partie intégrante du texte source, comme le sont une table des matières ou un index. L’auteur aborde dans le chapitre 6, « Les besoins en filtrage d’informations » (p. 97-109), ce type de résumé dynamique où l’utilisateur et le type de texte à résumer reviennent au premier plan. Il donne plusieurs exemples pour illustrer son propos comme, par exemple, la recherche de définitions ou de citations. Il s’agit désormais d’identifier dans des textes, indépendamment des domaines traités, des informations pertinentes pour une tâche donnée et offrir à l’utilisateur une présentation adaptée à ses besoins.

61

J.-L. Minel présente deux systèmes : SuMUM (Summarization at Université de Montréal) centré sur le résumé indicatif et informatif (chapitre 7, p. 111-121) et le projet FilText et la plate-forme ContextO (chapitre 8, p. 123-157) dont il décrit l’architecture et la méthode d’exploration textuelle. Sortis des laboratoires, plusieurs produits commerciaux sont apparus ces dernières années dans le domaine du résumé automatique.

62

Dans la neuvième partie de son travail (p. 159-166), l’auteur se livre à « L’étude d’outils industriels » : Pertinence, Summarist, AutoSummarizer de Microsoft Office, InXight Summarizer ou Extractor, et Copernic Summarizer. Pour le professionnel de l’information qui connaît ces systèmes et a eu l’occasion de les utiliser, un voile se déchire. Il passe derrière l’écran et comprend enfin comment ceux-ci fonctionnent. S’il souhaitait cibler les professionnels de l’information, Jean-Luc Minel aurait dû commencer par ce chapitre. Car le documentaliste est conscient des problématiques liées à l’analyse documentaire, et à ses limites lorsqu’elle est le résultat de l’action de l’homme mais aussi et peut-être surtout lorsqu’elle est le résultat de l’action machinale. Ainsi le dernier chapitre concernant « Les perspectives et applications » (p. 167-181) aurait pris tout son sens à travers les projets et leurs résultats décrits, pour conforter le spécialiste de l’analyse de l’information. L’analyse est et reste une activité spécifiquement humaine avec ses forces et ses faiblesses, tant pour l’analyste que pour l’utilisateur du résumé.

63

Ce livre brillant, savant et au style sobre exige du lecteur une culture transversale, même si l’auteur est pédagogue qui sait « ex-pliquer » le difficile. Car cette étude est difficile. Mais le professionnel de l’information doit impérativement faire l’effort de lire ce travail de haut niveau qui lui apprend comment la technologie essaie de résoudre des problèmes qu’il connaît depuis longtemps et qui concerne une de ses activités phares : l’analyse documentaire. La riche bibliographie (p. 187-199) et l’index final qui comporte des mots clés inhabituels dans son environnement lui confirmeront à la fois l’urgence de s’intéresser à la question du résumé automatique mais aussi les beaux jours qui lui restent à vivre comme résumeur humain, à cet âge de pierre dans lequel commence à vivre le résumé automatique.

64

Marie-France Blanquet

Image et droit. Institut de recherche en droit des affaires ; sous la direction de Pascale Bloch. Paris : L’Harmattan, 2002. – 672 p., bibliogr. – (Champs visuels). – ISBN 2-7475-2085-4 : 53,35 €

Pour approfondir la réflexion sur tous les aspects juridiques de l’image

66

SI CET OUVRAGE, CONSTITUÉ DE DOUZE contributions, est structuré de manière très classique en deux sections principales abordant successivement le droit à l’image puis le droit de l’image, on relèvera cependant que la plupart des thèmes qui y sont traités ne répondent pas aux clichés habituels sur ces sujets. Certes, à propos du droit à l’image, on ne pouvait éviter de rappeler les textes fondamentaux, comme la Convention européenne des droits de l’homme, ou le délicat problème de la protection de l’image dans les relations internationales. En revanche, l’image humoristique, l’image de marque ou l’image de la voix sont des sujets nettement plus rares dans la littérature…

Le droit à l’image

67

Le difficile équilibre que tente d’instaurer l’article 10 de la Convention européenne des droits de l’homme, qui protège l’image d’une personne tout en reconnaissant le droit à l’expression par l’image, nécessitait un long développement. Cette analyse devait être complétée par une présentation de son interprétation au niveau national. L’auteur regrette que ce soient les dimensions politique et journalistique qui, pour l’application de cette convention, sont le plus souvent abordées par les tribunaux et non celle de la liberté d’expression artistique.

68

La contribution suivante explique pourquoi la création de l’image comique justifie l’exclusion des droits des tiers au titre du droit de l’auteur, du droit des marques ou du droit à l’image. Les premières décisions des tribunaux à propos de l’image humoristique donnent lieu à une analyse du caractère original et de l’intention humoristique. Il s’agit en effet d’évaluer la part de création et l’éventuelle intention de nuire. La contrefaçon, soit la copie non autorisée, ou l’atteinte à d’autres droits, peut effectivement être très rapidement alléguée, comme l’ont démontré plusieurs procès. Il convient aussi de pouvoir s’assurer que la notoriété de l’image humoristique ne dépasse pas celle de l’œuvre ou de la personne, une question encore plus cruciale dans l’environnement électronique.

69

La marque, outil de séduction, applicable à un produit ou à une entreprise, est transposable aux personnes. Comment lutter alors, en utilisant des armes juridiques, contre la dépréciation de son image ou du profit indu de celle-ci par des tiers ? Il est fort justement rappelé que l’utilisation de l’image de la personne physique dans un but commercial ne peut pas se faire sans son accord, ce qui conduirait à reconnaître un droit d’exploitation à l’image proche d’un droit patrimonial du droit d’auteur. Mais si les personnes célèbres se forgent une véritable « image de marque », la protection de leur image reste assurée par le droit commun. Il est vrai que la recherche et l’entretien d’une bonne image sont sources de richesse pour ses dépositaires. Elle doit néanmoins rester attachée à l’existence d’investissements.

70

Sont abordés ensuite les problèmes inhérents à la diversité des régimes juridiques et des disparités des traitements en matière de protection de données personnelles : ils contribuent à une certaine insécurité juridique, que pallie fort heureusement une approche jurisprudentielle pragmatique lors de conflits de lois et de juridictions. L’adoption de règles matérielles uniformes protectrices de la vie privée consiste à veiller au respect de la transparence, de la proportionnalité et de la sécurité. Mais ce chapitre insiste aussi sur le fait que des actions en faveur d’une coopération internationale doivent encore être envisagées pour concilier la liberté d’expression et d’entreprise avec le respect de la vie privée des personnes.

71

La contribution sur le droit de la voix débute par une étude physiologique complète. Ce n’est qu’ensuite que sont traités les aspects juridiques qui lui sont propres et qui apparaissent particulièrement complexes. On y dissocie, en effet, les aspects subjectifs des aspects objectifs avant d’aborder chacun d’entre eux sur le plan juridique. La voix doit d’ailleurs être bien souvent appréhendée séparément des images qu’elle accompagne. Cette analyse très approfondie est appliquée à diverses prestations vocales qui nous sont familières comme l’interview, la lecture publique, la sonorisation, le doublage, l’échantillonnage.

Le droit de l’image

72

La deuxième partie de l’ouvrage aborde tour à tour le problème épineux de la manipulation de l’image ou de la commercialisation de la personne physique mais aussi d’autres aspects, très divers, comme celui de l’image du corps humain, des biens culturels, du salarié et de l’étranger.

73

L’image manipulée, pratique ancienne, doit être appréciée du point de vue de la personne victime ou de la personne à qui elle est destinée. L’élément intentionnel jouera naturellement un rôle fondamental dans l’appréciation de l’atteinte à divers droits, qu’il s’agisse du droit des auteurs au titre du droit patrimonial ou du droit moral, de l’atteinte à l’image des personnes ou des objets représentés. La manipulation par l’image engage la responsabilité de son auteur. Pourtant peu de décisions ont été rendues sur ce point et le CSA tend à mettre surtout l’accent sur les actions de prévention. Une vigilance s’impose pour qu’un équilibre puisse être établi entre la liberté d’expression et l’exigence éthique de l’information diffusée par les médias.

74

La commercialisation de l’image de la personne physique, si fréquente aujourd’hui, est source de profits quelquefois considérables. Elle a une dimension patrimoniale bien que, liée à la personne, elle ne puisse a priori donner lieu à un véritable droit de propriété sur son image. Seul est reconnu généralement le fait de pouvoir s’opposer à sa captation et à son utilisation commerciale. Or l’on crée soi-même sa propre image, que l’on soit une personne célèbre ou non. On devrait à ce titre pourvoir revendiquer ainsi, d’une certaine manière, la propriété d’une image de sa personne physique. On le voit, le droit de l’image est un droit protéiforme qui, comme le démontre l’auteur, concernerait finalement surtout le droit de la propriété.

75

La contribution sur l’image du corps humain propose une réflexion historique très approfondie et réellement passionnante. On y trouvera des analyses sur des aspects particuliers, et parfois inattendus, de l’image : le salarié, la justice et la police, les malades, les mineurs, la religion, le cadavre, le corps non identifié, la médecine, les arts. Ainsi que des thèmes mettant l’accent sur l’« ambivalence des corps », liés à Éros et Thanatos : la pudeur, l’enfance, la violence, le mauvais goût… Soit une source de méditation sur la variabilité des perceptions du corps dans le temps et dans l’espace.

76

L’image des biens culturels permet d’aborder le thème du paysage, en tant que création ou propriété, ainsi que celui des objets culturels. On y insiste sur l’insuffisance des textes en ce qui concerne la prise en compte de l’intérêt culturel par le droit propre au patrimoine culturel ou par le droit commun. L’auteur évoque alors « l’image confisquée » lorsqu’il s’agit du droit de reproduction des musées, des sites archéologiques ou des œuvres de l’esprit ou « l’image consignée » dans les archives. Il ne peut que constater que le principe de libre parcours est difficile à plaider lorsqu’il s’agit de biens culturels.

77

On constatera ensuite que l’image du salarié prend, elle aussi, diverses dimensions, au sein de l’entreprise et à l’extérieur de celle-ci. La loi et la jurisprudence l’ont bien évidemment abordée. Pourtant cette image est particulièrement ambiguë car « elle est à la fois physique et mentale, vraie et déformée ». C’est cette articulation entre l’image physique du salarié, celle qui est reproduite, et « l’image déduite », autrement dit l’image mentale qui en découle, qui est traitée dans cette contribution étonnante car elle aborde, sans aucun doute, des aspects très rarement développés.

78

Tout aussi insolite et passionnante est l’analyse de l’image de l’étranger qui traite de la construction de sa représentation tant sur le plan historique que politique depuis le XIXe siècle et la construction d’images négatives de l’étranger à partir d’une analyse de la loi : l’étranger dangereux et fraudeur, le faux touriste, le clandestin, le délinquant, l’étranger non respectueux des valeurs fondamentales de la famille ou consommateur de prestations sociales. Une analyse qui dérange, très certainement, mais qu’il fallait traiter pour disposer d’un corpus exhaustif sur l’ensemble des débats liés à l’image et au droit.

79

C’est à ce titre que tous ceux qui souhaitent approfondir leur réflexion sur toutes les facettes de l’image, abordée sous un aspect juridique, consulteront avec profit ce gros ouvrage de près de sept cents pages auquel plusieurs chercheurs en droit ont collaboré. Ouvrage de recherche, on y trouvera naturellement aussi des références nombreuses constituées de textes de loi mais aussi la présentation d’une jurisprudence détaillée, ainsi qu’une bibliographie complète classée par thème.

80

Michèle Battisti

Le document audiovisuel : procédures de description et exploitation. Peter Stockinger. Paris : Hermès Science Publications, 2003. – 272 p. – ISBN 2-7462-0619-6 : 50 €

Une forte synthèse sur le document audiovisuel

82

CET OUVRAGE SE PROPOSE DE DEVELOPPER un cadre théorique et méthodologique pour la description du contenu des documents et produits d’information audiovisuels.

83

La première partie, réservée au « Cadre conceptuel et pratique », comprend trois chapitres. « De la description d’un objet signifiant » (p. 17-29) problématise la description d’un document en général et audiovisuel en particulier. L’auteur identifie quelques paramètres importants pour répondre à la définition du terme de description et examine les connaissances qui sont obligatoirement présupposées par toute description scientifique, sémiotique ou autre. Il présente ensuite les principaux composants des connaissances pour la description sémiotique d’une donnée textuelle avant de conclure sur la notion de connaissances méthodologiques.

84

« Le signe visuel » (chapitre 2, p. 31-44) cherche à élucider ce qu’est un signe audiovisuel en général, (film et vidéo), comment il se différencie en type et en genres particuliers afin de constituer avec les produits textuels et numériques l’essentiel des produits et services de l’information et de la communication. L’auteur y rappelle également les principaux paramètres de l’approche sémiotique du document audiovisuel ainsi que la place et le rôle de la description sémiotique par rapport aux exploitations pratiques et, plus particulièrement, technologiques.

85

« Description sémiotique et exploitations pratiques » (chapitre 3, p. 45-75) indique qu’une description d’un corpus de documents audiovisuels doit répondre à des objectifs variés comme, par exemple, l’indexation et la recherche de segments audiovisuels pour lesquelles le thésaurus joue un rôle déterminant. Un autre outil de description-indexation, très en vogue actuellement, est l’ontologie d’un domaine de connaissances que l’auteur explique très clairement. Il expose également le standard de description MPEG7, très important pour tout projet professionnel ayant à voir avec des ressources d’information audiovisuelle, et discute brièvement de l’importance du scénario dans un projet de production et d’édition d’un document audiovisuel.

Description textuelle d’un document audiovisuel

86

La deuxième partie est découpée en trois chapitres. « Identification et classification de segments audiovisuels » (chapitre 4, p. 79-103) expose les grandes lignes de la description textuelle d’un document audiovisuel, illustrées à partir d’un documentaire commercial consacré à la présentation de grandes villes chinoises. L’auteur y définit la notion centrale de segment audiovisuel dont il explicite les modes de manifestation avant de partir à la recherche de segments typiques et de poser la question théorique et méthodologique de l’identification d’un segment audiovisuel et du découpage d’un document en segments qui le composent. De très nombreux exemples illustrent ce texte qui permettent de comprendre le découpage hiérarchique des segments audiovisuels ainsi que les formats simples de leur classification.

87

« La description du plan audiovisuel » et « La description des séquences audiovisuelles » constituent les chapitres 5 (p. 105-118) et 6 (p. 119-138) définis et illustrés à partir d’un documentaire sur Brasilia. Le plan, entité composite, doit être traité à plusieurs niveaux : sonore, visuel, plan du discours et du texte, etc. La description des séquences audiovisuelles est l’occasion de poser des hypothèses sur le contenu et le message d’un documentaire à partir des indications liées à des paramètres différenciés : forme, structure interne, taille et place d’une séquence dans l’ensemble des constituants du documentaire, etc. Il convient de prendre en compte la longueur et la place d’un segment audiovisuel dans un document, son élaboration interne, de délimiter des segments types audiovisuels. Les nombreux tableaux, figures et exemples permettent de suivre la progression de ces chapitres très techniques et les rendent accessibles même à un non-spécialiste.

Description thématique de documents audiovisuels

88

La troisième partie porte sur « La description thématique de documents audiovisuels ». Dans le chapitre 7, « Définitions, enjeux et exemples » (p. 141-158), il s’agit de clarifier les termes de thème, terme et référent et de description thématique. Puis vient une catégorie particulière de thème : les taxèmes qui constituent les éléments de base d’une description thématique et, enfin, les thèmes analytiques, sortes de modèles ou standards que l’on utilise dans une description thématique pour identifier des thèmes permettant de décrire un fonds de façon pertinente.

89

Le chapitre 8 (p. 159-175) se préoccupe de « L’identification des taxèmes dans un corpus de documents audiovisuels », illustrée à partir de documentaires info-touristiques. Peter Stockinger y développe une méthodologie pour l’identification de thèmes constituant des modèles supposés représenter une certaine partie du contenu d’un corpus audiovisuel. Le lecteur visite ainsi la Norvège, la Nouvelle-Zélande… voyage qui lui permet de comprendre l’élaboration d’une base canonique de taxèmes proposée en fin de chapitre. Le chapitre 9 (p. 177-200) est consacré à la spécification et la mise en place d’« Un format pour la description thématique ». Des exemples nombreux permettent de comprendre et de maîtriser un certain nombre de termes nouveaux pour le profane comme, par exemple, la description taxinomique, méréonymique ou partonymique d’un taxème.

90

Enfin, la quatrième et dernière partie est intitulée « Description thématique et document audiovisuel » – titre à ne pas confondre avec celui de la précédente qui est presque identique. Ici, il s’agit de décrire « L’ancrage du thème dans le document audiovisuel » (chapitre 10, p. 203-216), c’est-à-dire son statut structural. Il est question de montage, de l’action de la caméra, des stratégies de mise en scène. L’auteur présente les principales familles de paramètres permettant de décrire le statut structural d’un thème ou d’une configuration thématique dans un document. « Le thème et sa dimension narrative et rhétorique » (chapitre 11, p. 217-238) aborde un point central : la distinction entre le composant textuel et le composant narratif et rhétorique d’un thème et insiste sur l’importance du montage.

91

« Mise en scène discursive et expression syncrétique du thème » (chapitre 12, p. 239-251) s’intéresse au statut discursif d’un thème ainsi qu’à ses formes d’expression. Ce texte traite ensemble les deux grands paramètres de description sémiotique d’un composant textuel : celui de la mise en scène discursive et celui de l’expression. Enfin, le dernier chapitre, « Procédés de l’organisation visuelle du thème » (p. 253-260), traite des principaux procédés de construction visuelle d’un message sur une situation « profilmique » (réalisation professionnelle d’un film) : cadre et cadrage, champ et hors champ, échelles de l’image, angle de prise de vue, profondeur du champ, mouvements de caméra.

92

Peter Stockinger conclut ce livre par un rappel de ses objectifs privilégiant la description textuelle et la description thématique, suffisamment complexes pour écarter la problématique du contexte : environnement historico-culturel et usages et exploitations dont le document audiovisuel est l’objet. Il accompagne son travail d’une bibliographie dans laquelle le lecteur retrouvera les nombreuses dimensions qui y sont abordées. L’index l’étonne un peu, qui reprend les mots clés, sujets du livre, comme description ou détaille trop des composants d’un terme qui auraient pu être regroupés ; par exemple thésaurus. Par contre, un glossaire avait sa place ici, qui aurait rendu un grand service au non-spécialiste.

93

Professeur de communication et de sémiotique à l’Institut national des langues et civilisations orientales, Peter Stockinger nous livre une solide et exhaustive étude sur le document audiovisuel. Il s’adresse, certes, à des professionnels de l’image et à des étudiants. Ce livre leur apporte une excellente synthèse sur les procédures de description et d’exploitation des documents audiovisuels. Toutefois, le non-professionnel, documentaliste comme étudiant en sciences de l’information, doit faire l’effort de lire cet ouvrage. De nombreuses illustrations de toute nature lui permettent de le faire. C’est particulièrement important aujourd’hui où les technologies du numérique favorisent l’émergence de nouvelles pratiques et de nouvelles formes de produits et services. Le professionnel de l’information, même s’il ne gère pas de documents audiovisuels, ne peut en ignorer l’importance. Ce livre arrive à point pour lui permettre de faire la connaissance de ce monde…

94

Marie-France Blanquet

Arts du spectacle : patrimoine et documentation = Performings arts : national heritage and information. Société internationale des bibliothèques et musées des arts du spectacle, XXIIIe congrès international, Paris, 25-30 septembre 2000. Paris : SIBMAS (58 rue de Richelieu, F-75002) : Bibliothèque nationale de France, 2002. – 206 p. – ISBN 2-7177-2198-3 : 29 €. Arts en bibliothèques. Sous la direction de Nicole Picot ; préface d’Alain Schnapp. Paris : Électre-Éditions du Cercle de la librairie, 2003. – 270 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0850-5 : 39 €

Deux nouveaux ouvrages sur le traitement de documents spécifiques en bibliothèque

95

VOICI DEUX NOUVEAUX TEMOIGNAGES DE l’importance grandissante qu’attachent bibliothèques et médiathèques aux documents traitant de l’art – et aux œuvres elles-mêmes. L’un, collectif signé d’une vingtaine d’auteurs, est consacré aux arts plastiques, le second aux arts du spectacle, mais tous deux posent la problématique du traitement des documents spécifiques que sont les dossiers d’artistes, catalogues de musées, décors de théâtre, photographies, etc., de leur restauration et de leur accès à un public toujours plus nombreux et plus diversifié.

Les bibliothèques et les arts plastiques

96

Arts en bibliothèques s’ouvre sur une étude très dense de « L’histoire de l’histoire de l’art » (p. 15-34), dont on date les débuts avec l’œuvre de Vasari, imprimée à Florence en 1550 : Vie des plus excellents architectes, peintres et sculpteurs. Les trois auteurs qui signent cette contribution ouvrent de nombreuses pistes, balisées par force références, sur la naissance de l’esthétique et de la critique d’art, la psychologie de l’art et l’évolution de la recherche jusqu’à notre époque. Cette perspective historique est complétée par la peinture des rapports entre le développement des bibliothèques et celui de l’histoire de l’art en France, sur une cinquantaine d’années charnière (fin XIXe - première moitié du XXe siècle). On y apprendra en particulier comment s’est effectué le « croisement des carrières « pour les historiens de l’art devenus bibliothécaires et conservateurs et quelle fut la nature des collaborations, fructueuses, entre chercheurs et professionnels du livre (p. 35-49).

97

Par contre, l’édition d’art semble subir une véritable régression, due tant au manque d’auteurs intéressés à transmettre leur savoir qu’à l’absence d’une politique éditoriale et à un « lectorat introuvable » (p. 57). De même, l’éducation artistique et culturelle, on le sait, n’a pas l’importance qu’elle mérite. Le rôle des bibliothèques d’art n’en est que plus essentiel : disposant de fonds très riches et diversifiés de plus en plus organisés en réseaux et de professionnels spécialisés, elles n’ont pas encore de moyens suffisants pour satisfaire la demande mais leur évolution est prometteuse. En écho sont présentées en référence quelques bibliothèques en Europe et aux États-Unis : on notera la richesse des collections allemandes et italiennes (p. 77-82).

98

La seconde partie de l’ouvrage, technique, porte sur la gestion des collections d’art en bibliothèque (avec, entre autres, une analyse de la classe 700 « Beaux-arts et arts décoratifs » de la classification de Dewey, p. 85-103), puis étudie les spécificités et le mode de traitement de certains de ces documents, y compris le livre d’artiste. Un accent particulier est mis sur deux types de produits relevant du « domaine inaccessible » – car échappant à toute normalisation : les dossiers d’artistes contemporains (80 000 au Centre Pompidou !) et les « archives privées » conservées par les artistes : manuscrits, correspondance, photographies, articles de presse, etc. Leur traitement est illustré par l’exemple de la bibliothèque Kandinsky. Là encore on assiste à une multiplicité d’initiatives et à la constitution de réseaux spécialisés et d’établissements spécifiques comme les artothèques.

99

Enfin, l’apport des NTI est précisé sous deux aspects : l’Internet artistique, dont une méthodologie d’exploration est proposée, et le pari de la numérisation de l’image fixe, décrit à partir des réalisations et projets de la Bibliothèque nationale de France, qui abrite plus de vingt millions d’images fixes (p. 241-264).

100

De nombreux renseignements pratiques et une bibliographie thématique renforcent l’intérêt de cet ouvrage par ailleurs joliment illustré.

Les bibliothèques et les arts du spectacle

101

Quant au thème choisi pour le congrès de la Société internationale des bibliothèques et musées des arts du spectacle (SIBMAS) : « Les fonds patrimoniaux en matière d’arts du spectacle », il est lui aussi largement traité sous l’angle documentaire. C’est sous cet angle qu’est évoquée par Cécile Giteau la collection exceptionnelle du rénovateur du théâtre que fut Gordon Craig, préoccupé dès le début de sa carrière par le souci de toujours accompagner ses créations par tous les éléments en ayant inspiré l’élaboration (p. 19-29). Il constitua en outre un ensemble de dossiers sur l’histoire du théâtre, des répertoires de créateurs, de chronologies, supports durables d’un art éphémère, conservés par la BnF.

102

La richesse et la diversité des objets liés aux arts du spectacle sont illustrées par la description d’institutions spécialisées, tant françaises – BnF, Bibliothèque-musée de l’Opéra de Paris, Musée du théâtre forain d’Artenay, Médiathèque théâtrale de Vaise, l’un des quartiers de Lyon – qu’étrangères, à Bruxelles ou à Barcelone. Cet aperçu sur les collections est complété par l’analyse de la spécificité des documents réunis : maquettes, photos, textes, costumes de scène, archives musicales et filmiques, tant pour leur conservation que pour leur accessibilité au public. Un bon exemple, entre autres, en est donné par le récit de la restauration du petit théâtre du château de Compiègne, installé en 1832, et de ses décors, littéralement abandonnés jusqu’en… 1996.

103

L’accessibilité à cette documentation est étudiée dans la seconde partie du recueil qui présente trois études de cas : la conservation du patrimoine en Australie, les institutions « mémoires du spectacle » en Italie, et le projet français de répertoire des arts du spectacle. Enfin les dernières contributions portent sur le traitement informatisé des documents sur les arts du spectacle (un exemple en est donné par la base BN-OPALINE de la BnF) et sur la nécessité d’une entente internationale sur l’identification de ces documents. Est-il possible d’élaborer un « outil conceptuel généraliste » capable de « décrire convenablement l’entité documentaire qu’est le spectacle vivant » (p. 163) ? Une première réponse peut-elle être donnée par le modèle FRBR (Functional Requirements for Bibliographic Records) élaboré par l’IFLA ? C’est sur cette interrogation théorique que se clôt l’ouvrage. Il a le double mérite de stimuler l’intérêt du profane curieux et de permettre aux professionnels de confronter leurs expériences.

104

Claire Guinchat

Accès public et liberté d’expression dans les réseaux d’information : lignes directrices pour une politique culturelle européenne. Conseil de l’Europe, Comité de la culture. Strasbourg : Éditions du Conseil de l’Europe, 2001. – 49 p. – ISBN 92-871-4650-0 : 9,15 €

Trouver un équilibre entre dérives et restrictions

105

À L’HEURE DU SOMMET MONDIAL SUR LA société de l’information, cette brochure d’une cinquantaine de pages, bien que publiée en 2001, sera lue avec un intérêt renouvelé. L’objectif du Conseil de l’Europe était de donner un cadre politique permettant d’assurer, dans l’environnement numérique, l’accès à l’information et la liberté d’expression. Les arguments qui y sont développés peuvent naturellement – et c’est un aspect que nous avons tout particulièrement retenu – être repris par les professionnels de l’information afin d’être utilisés dans un cadre local.

106

Après avoir rappelé ce que représente la liberté d’expression, la première partie évoque les principaux textes applicables au niveau international à cet égard. Pourtant des soucis de sécurité nationale, de moralité ou de prévention de la délinquance ont fait paraître, dans plusieurs pays, d’autres textes de loi qui s’avèrent menacer gravement les libertés. Le filtrage, solution technique évoquée comme un palliatif utile et souvent mis en avant, y est à son tour analysé. Mais, utilisé systématiquement, il aurait lui aussi des effets pervers et dangereux pour la démocratie. L’accent est alors mis sur une solution éthique qui consiste à mettre au point des codes de conduite permettant d’encadrer les comportements.

107

Ces divers moyens législatifs, techniques et éthiques sont appliqués ensuite aux points d’accès publics aux réseaux, ceux qui sont gérés par les professionnels de l’information. Ce chapitre propose alors une série de réflexions et de recommandations sur la responsabilité de leur gestionnaire, la protection des mineurs, la position législative européenne et les divers modes de gestion de la liberté d’expression.

108

Trouver un équilibre entre les dérives et des restrictions trop fortes à la circulation de l’information, voilà ce qui est développé dans la seconde partie, consacrée à la définition de certains principes qui pourraient être adoptés pour lutter efficacement contre les dangers des réseaux, mais de manière « raisonnée » et responsable.

109

Michèle Battisti

Titres recensés

  1. Documents numériques. Coordonné par Jacques André et Gérard Dupoirier. Éd. n? 1, mai 2002. - Paris : Techniques de l’ingénieur, 2002-. – Disque optique numérique (cédérom). – Configuration minimale requise pour PC : Pentium, 16 Mo RAM ; carte graphique SVGA en 800x600 pixels ; Windows 95, 98, 2000 ou NTA ; optimisé pour le navigateur Internet Explorer, version 5.5. – (Documents numériques, ISSN en cours). – 135 € HT pour le cédérom + 58 € HT pour l’abonnement de 12 mois (mise à jour semestrielle)
    1. Une excellente introduction à la gestion électronique de documents
  2. La France dans l’économie du savoir : pour une dynamique collective. Rapport du groupe présidé par Pascal Viginier ; Commissariat général du Plan. Paris : La Documentation française, 2002. – 285 p. – ISBN 2-11-005286-4 : 12 €
    1. L’économie de la gestion et de la transmission de l’IST
  3. Assistance intelligente à la recherche d’informations. Sous la direction d’Éric Gaussier et Marie-Hélène Stéfanini. Paris : Hermès Science Publications, 2003. – 319 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0726-5 : 100 €
    1. De savantes et difficiles études sur la recherche d’information
      1. « Introduction au domaine »
      2. « Des bases de connaissances au multimédia »
      3. « Des stratégies au service des utilisateurs »
  4. La gestion d’un centre d’archives : mélanges en l’honneur de Robert Garon. Sous la direction de Louise Gagnon-Arguin et Jacques Grimard. Sainte-Foy (Québec) : Presses de l’Université du Québec, 2003. – XX-339 p. – (Gestion de l’information). – ISBN 2-7605-1188-X : 45 $ CND
    1. Gestion d’archives : état des lieux et questionnements actuels
      1. Aucun aspect de la gestion n’est négligé
      2. Des problématiques communes aux diverses professions de l’I-D
  5. Guide pratique : mettre en place le records management dans son organisation. Catherine Hare, Julie McLeod ; responsable d’édition Marie-Pierre Oriol ; traduction de Geoffrey Hare. Nouv. éd. mise à jour. – Paris : IDP, 2003. – 47 p. – ISBN 2-9510477-0-3 :46 € Trad. de : Developing a records management programme. – London : ASLIB, 1997
    1. Un guide pour faire mieux comprendre le records management
      1. Une orientation résolument pratique
      2. Beaucoup reste à faire pour la reconnaissance du records management
  6. Méthodologie documentaire : comment accéder à la littérature scientifique à l’heure d’Internet. Bernard Pochet. Bruxelles : De Boeck et Larcier, 2002. – 141 p., bibliogr., lexique, index. – (Sciences α méthodes, ISSN 1376-2281). – ISBN 2-8041-4142-X : 18 € Ouvrage complété par un site Internet : <www. bib. fsagx. ac. be/ edudoc/ DBU. htm>
    1. Un manuel riche et clair qui facilitera l’accès à l’information scientifique
  7. Filtrage sémantique : du résumé automatique à la fouille de textes. Jean-Luc Minel. Paris : Hermès Science Publications, 2002. – 202 p. – ISBN 2-7462-0602-1 : 55 €
    1. Technologies et outils pour l’analyse documentaire
      1. Du résumé automatique…
      2. … à la fouille de texte
  8. Image et droit. Institut de recherche en droit des affaires ; sous la direction de Pascale Bloch. Paris : L’Harmattan, 2002. – 672 p., bibliogr. – (Champs visuels). – ISBN 2-7475-2085-4 : 53,35 €
    1. Pour approfondir la réflexion sur tous les aspects juridiques de l’image
      1. Le droit à l’image
      2. Le droit de l’image
  9. Le document audiovisuel : procédures de description et exploitation. Peter Stockinger. Paris : Hermès Science Publications, 2003. – 272 p. – ISBN 2-7462-0619-6 : 50 €
    1. Une forte synthèse sur le document audiovisuel
      1. Description textuelle d’un document audiovisuel
      2. Description thématique de documents audiovisuels
  10. Arts du spectacle : patrimoine et documentation = Performings arts : national heritage and information. Société internationale des bibliothèques et musées des arts du spectacle, XXIIIe congrès international, Paris, 25-30 septembre 2000. Paris : SIBMAS (58 rue de Richelieu, F-75002) : Bibliothèque nationale de France, 2002. – 206 p. – ISBN 2-7177-2198-3 : 29 €. Arts en bibliothèques. Sous la direction de Nicole Picot ; préface d’Alain Schnapp. Paris : Électre-Éditions du Cercle de la librairie, 2003. – 270 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0850-5 : 39 €
    1. Deux nouveaux ouvrages sur le traitement de documents spécifiques en bibliothèque
      1. Les bibliothèques et les arts plastiques
      2. Les bibliothèques et les arts du spectacle
  11. Accès public et liberté d’expression dans les réseaux d’information : lignes directrices pour une politique culturelle européenne. Conseil de l’Europe, Comité de la culture. Strasbourg : Éditions du Conseil de l’Europe, 2001. – 49 p. – ISBN 92-871-4650-0 : 9,15 €
    1. Trouver un équilibre entre dérives et restrictions

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information, 6/2003 (Vol. 40), p. 401-415.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2003-6-page-401.htm
DOI : 10.3917/docsi.406.0401


Article précédent Pages 401 - 415
© 2010-2014 Cairn.info
back to top
Feedback