Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2007/1 (Vol. 44)

  • Pages : 120
  • DOI : 10.3917/docsi.441.0096
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 96 - 114

Terminologie et accès à l’information. Sous la direction de Widad Mustafa El Hadi, Paris : Hermès Science Publications : Lavoisier, 2006. – 262 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-1295-1 : 75 €

Une étude indispensable aux terminologues comme aux documentalistes

1

« LES DISCUSSIONS SUR LE LANGAGE documentaire se situent, en principe, au confluent de la science de l’information et de la linguistique [...] Pratiquement cependant, ces deux disciplines sont séparées par un mur que, de temps à autre, un documentaliste curieux ou un linguiste entreprenant cherche à franchir pour une escapade chez le voisin [...] Pourquoi ce mur ? Parce que les préoccupations sont différentes [retrouver des documents / expliquer la langue] Ensuite, parce que chacun donne la priorité à l’avancement de son propre domaine et que ce domaine est actuellement très évolutif pour les uns comme pour les autres. »

2

Voilà ce que de la relation entre terminologie et documentation écrivait en 1979 Georges Van Slype dans le chapitre sur les langages documentaires d’un ouvrage qui a fait date [1][1] Conception et gestion des systèmes documentaires, Les.... Depuis lors la profession s’est régulièrement fait l’écho de ce cousinage entre documentation et terminologie ou, plus largement, entre documentation et linguistique [voir l’encadré page 99]. Les usages et les utilisateurs aussi bien de la terminologie que de la documentation se sont fortement étendus et diversifiés, l’informatique jouant un rôle de catalyseur et de support à ces transformations. Alors, près de trente ans après les propos de Van Slype, que sont ces relations devenues ?

3

Dans l’ouvrage que nous présentons ici, Widad Mustafa El-hadi, chercheuse à l’Université Lille-3, a souhaité envisager la terminologie dans le cadre précis de l’accès à l’information et, pour ce faire, a regroupé dix contributions de dix-neuf chercheurs issus de plusieurs disciplines : sciences de l’information (quatre contributions), sciences du langage (deux), ingénierie des connaissances (une), informatique appliquée aux interfaces hommes machines, à la terminologie et à la recherche (une chacune). Ce pointage des origines des contributeurs montre que l’une des évolutions majeures de ces trente dernières années consiste en l’élargissement des disciplines qui s’intéressent à ces questions. Rédigé par un ou plusieurs chercheurs, chaque chapitre de cet ouvrage qui fait partie du « Traité des sciences et techniques de l’information » publié par Hermès-Lavoisier fait le point sur la question traitée, propose un état de l’art, et présente une expérimentation ou des travaux de recherche récents. Chaque contribution est complétée par une bibliographie sélective.

Terminologie et organisation des savoirs

4

• Le premier chapitre, signé par Brigitte Guyot[2][2] Cette contribution peut être considérée comme un complément..., constitue une sorte d’introduction générale. Il ouvre le lecteur au monde de la terminologie dans les organisations (institutions, entreprises), celles-ci lui apparaissant comme le terrain de jeu à la fois de la terminologie, au sens large d’une « mise en mot », et de l’accès à l’information. La très riche approche sociologique adoptée ici par l’auteure révèle que tout travail, toute activité ou tâche (coordination, collaboration et échanges, production, etc.) dans l’entreprise est générateur d’une production terminologique. Et ce quels que soient la finalité des activités (institutionnelles, de production, etc.), les objets concernés (objets concrets matériels, écrits ou encore compétences, activités et actions) ou les personnes et instances impliquées dans ce travail de mise en mots (les auteurs eux-mêmes, les experts, qualiticiens, spécialistes de l’information ou de gestion de la connaissance, ou encore d’autres secteurs de l’entreprise comme la direction des ressources humaines).

5

En conclusion, l’auteure note l’orientation actuelle vers une certaine normalisation terminologique ou une « collectivisation des mots » qui permet « de s’extraire des arrangements locaux pour les rapporter à un système universel » (p. 48). Brigitte Guyot pose alors la question de la finalité de cette normalisation à laquelle on assiste dans les organisations (est-ce vraiment pour partager savoirs et informations ?) et du paradoxe d’une terminologie qui pourrait ainsi se retrouver « fermée au point d’être invalidante » (p. 49).

6

• La deuxième contribution, de Maryvonne Holzem et Nathalie Baudoin, est centrée sur la terminologie et sur son rôle dans l’appropriation des savoirs, plus particulièrement dans le cas de l’appropriation de connaissances nouvelles. Les auteures reposent la question, épineuse en terminologie comme en documentation, de l’atemporalité et de la décontextualisation des « termes », du rôle du « mot clé » ou du « mot vedette », et plaident pour une approche socioterminologique permettant d’améliorer les fonctions de transfert et de recherche d’information.

7

• Avec Michèle Hudon, de l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, nous retrouvons la question, fréquemment abordée dans la profession, des relations de cousinage entre terminologie et thésaurus. L’auteure montre ici que, s’il existe entre eux de fortes similitudes, celles-ci ont tendance à cacher des différences fondamentales qu’elle expose tour à tour : sur la notion même de descripteur, sur la différence de traitement des néologismes et des nouveaux concepts, sur les caractéristiques des relations, sur l’idée même d’une définition, sur le dossier de gestion des descripteurs et des termes, ainsi que sur les usages concrets.

Thésaurus et terminologie?

En marge des propos de Michèle Hudon, nous souhaiterions ajouter deux éléments qui renforcent, l’un les différences, l’autre les similitudes entre thésaurus et terminologie.

Sur le terrain des praticiens, il est régulièrement demandé soit de donner une définition aux descripteurs du thésaurus soit d’établir un « glossaire de spécialité » avec les descripteurs du thésaurus. Les documentalistes sont alors tiraillés entre la production d’une note d’usage à l’intention de l’indexeur sur la façon d’utiliser le descripteur ou d’une définition centrée sur la signification de ce terme de spécialité sans tenir compte de sa place dans le thésaurus. Quant à la constitution d’un thésaurus qui serait à la fois un glossaire, elle soulève les questions de savoir s’il faut fournir une définition pour tous les descripteurs et, dans la négative, sur quelle base sélectionner ces termes ?

En effet, la terminologie repère les termes de spécialité d’un domaine alors qu’un thésaurus contient tous les termes utiles à l’énoncé d’un sujet contenu dans des collections de documents. Notre propre expérience montre que la terminologie spécialisée d’un domaine ou d’un secteur, pour laquelle une définition serait requise, n’atteint pas 20 % de l’ensemble des descripteurs d’un thésaurus spécialisé (sur 40 thésaurus spécialisés, ces descripteurs à définir constituent une moyenne de 600 termes sur un ensemble de 3 000 descripteurs et 1 500 non-descripteurs).

Pour atténuer cette différence que nous faisons entre terminologie et thésaurus, nous pouvons, à l’instar de certains auteurs dans ce numéro, insister sur la distinction qu’il convient d’opérer entre thésaurus de recherche (ou encore thésaurus de navigation) et thésaurus d’indexation. Dans ce contexte qui reste à étudier plus avant, le thésaurus d’indexation pourrait être plus fortement rapproché d’une terminologie dont le thésaurus de recherche, proche des utilisateurs, se distinguerait plus nettement.

Sylvie Dalbin

8

Considérons l’exemple de la notion de descripteur. Michèle Hudon montre que l’extension apportée aux descripteurs d’un thésaurus à travers l’intégration des synonymes ou antonymes (les « équivalents documentaires ») ou plus encore à travers celle des descripteurs spécifiques est très éloignée, aussi bien dans la démarche et dans les résultats obtenus que dans les conséquences en terme d’usage, de la notion très normalisée et stricte du « terme » en terminologie. Si, en conclusion, Michèle Hudon soutient que la filiation qui unit thésaurus et terminologie est une filiation de cousinage ou une relation d’analogie plus que d’identité, elle suggère que la technologie pourra rendre possible la création de bases terminologiques communes tout en respectant les besoins spécifiques de chacun des terrains d’application. [Voir aussi l’encadré ci-dessus.]

Indexation et recherche d’information

9

• Dans un quatrième chapitre, après une présentation des propriétés et des usages des documents techniques, Geneviève Lallich-Boidin et Agnieszka Smolczewska se consacrent à la recherche d’information au sein de documents techniques et, plus précisément, à la structuration de ce type de document à des fins de création d’un index.

10

Brigitte Grau et Olivier Ferret abordent dans le chapitre suivant les difficultés posées par deux types particuliers de recherche : les systèmes de questions/réponses et la recherche thématique. Les auteurs pointent dans ce chapitre ce qui différencie la terminologie de l’accès à l’information (p. 135). Tout d’abord, et contrairement à la terminologie qui fait référence à des termes représentatifs d’un domaine, les deux types de recherche considérés ici requièrent des approches en domaine ouvert. En second lieu, les auteurs montrent que le choix des termes ne s’effectue pas a priori comme en terminologie, mais qu’il résulte soit de la demande de l’utilisateur qui exprime sa question, soit de l’usage qui en est fait dans les textes, lors des segmentations thématiques.

11

Aurélie Névéol et Stéfan Darmoni abordent dans le sixième chapitre la place et l’usage d’un thésaurus comme le MeSH (nommé ici « ressource terminologique ») dans la recherche des documents les plus pertinents et dans l’orientation de l’utilisateur vers des informations connexes à sa question. Une partie importante de ce chapitre traite des méthodes d’évaluation d’un système de recherche d’information (p. 148-154).

12

• Le chapitre 7 porte sur la conception de bases de données terminologiques en vue de faciliter l’interopérabilité entre corpus et d’assurer de plus grandes cohérence et compatibilité entre terminologies multilingues. Après un bref rappel du fondement et du courant actuel de la terminologie textuelle, Susanne Samon-Alt, Isabelle Kramer, Laurent Romary et Joseph Roumier présentent la norme Terminological Markup Framework. À noter que ce modèle TMF reprend la modélisation traditionnelle en terminologie qui distingue le concept du terme choisi pour le représenter, tout comme le propose le modèle SKOS [3][3] Voir page 75., élaboré par le W3C, de représentation de langages pour le Web, comme les thésaurus. Les professionnels de l’information-documentation, en particulier ceux qui travaillent dans des dispositifs de veille, connaissent depuis plusieurs années déjà la fouille de textes (text mining) comme moyen de faire émerger automatiquement des thèmes à partir de grands ensembles de textes.

Organisation des connaissances, représentation du contenu, systèmes d’informations avancés

13

• Après un survol des méthodes fondées sur la statistique, Fidélia Ibekwe-SanJuan fait le point, dans le huitième chapitre, sur l’apport de la terminologie computationnelle à la conception de ce type de système.

14

Nathalie Aussenac-Gilles, Nathalie Hernandez et Mustapha Baziz abordent dans le chapitre suivant l’apport des ontologies dans la recherche d’information. Dans une première partie, les auteurs présentent les ontologies et leur composante linguistique selon une approche historique très intéressante. Dans la seconde partie, ils dressent de l’utilisation des ontologies en recherche d’information un état de l’art étayé par plusieurs retours d’expériences auxquelles les auteurs ont participé au sein de leur laboratoire.

15

• Le dixième et dernier chapitre permet à Christian Fluhr de traiter la question de la terminologie dans les systèmes multilingues. Le problème à résoudre est ici celui de la recherche « interlingue » (ou crosslingual, en anglais), c’est-à-dire de l’accès par une requête formulée en une langue unique à des documents rédigés dans des langues différentes.

Réévaluation de la problématique de l’accès à l’information

16

Si cet ouvrage s’adresse explicitement (p. 24) à des chercheurs, des formateurs et des enseignants, nous pouvons affirmer que les praticiens et les consultants, en particulier tous ceux qui sont intéressés ou concernés par les langages documentaires, l’accès à l’information et la conception de systèmes d’information documentaire, pourront utilement tirer parti de cet ensemble de contributions – chacune exprimant une situation et un point de vue autonomes. De plus, sans en faire des manuels, l’approche « état de l’art », voire pédagogique, adoptée dans les ouvrages de cette collection les rend lisibles par des praticiens. La table des matières pourra opportunément guider le lecteur.

17

On ne peut en dire autant de l’index proposé en fin d’ouvrage ! Comme dans la plupart de ces index (que nous supposons) élaborés automatiquement à partir d’un tableau de concordance et sans traitements linguistique ni humain complémentaires, de nombreuses entrées sont inutiles alors que d’autres font défaut. Si, dans un contexte électronique, ce type d’index peut à la rigueur être acceptable (le système informatique positionnant le lecteur à l’emplacement du mot), cela devient difficilement supportable dans le monde du papier. Et, dans un ouvrage traitant de terminologie et même d’index d’ouvrages, cela devient cocasse. Nous savons que les auteurs ne sont pas directement responsables de cette partie de l’ouvrage qui offre tout de même un accès à leur production et, surtout, que les éditeurs français portent peu d’intérêt aux index, pour ne pas dire aucun.

18

Cet ouvrage permet également aux praticiens d’étudier, à partir d’un point d’ancrage particulier, la terminologie et les différentes formes de l’accès à l’information. Précisons d’abord que, en dehors de deux contributions (la première et celle sur les thésaurus), il y est essentiellement question, mais de façon implicite, de technologies de l’information, d’accès informatisé, de documents numériques et de traitements automatisés. Et, dans ce contexte, la référence simultanée à des sources abordant les questions de terminologie, d’indexation ou d’index sous l’angle « humain » et « papier » (norme NF Z 47-102) et sous l’angle automatisé et numérique (avec des auteurs comme Gerard Salton), sans les distinguer ni les contextualiser, a pu nous laisser parfois perplexe.

19

Ces précisions apportées, il faut insister sur le fait que cet ouvrage nous permet de réévaluer les problématiques liées à différents types d’accès informatisé à l’information (ceux qui, comme la recherche thématique de documents, sont au cœur des pratiques des documentalistes), mais également à d’autres types d’accès, peu abordés par les praticiens bien qu’ils soient au cœur de systèmes d’information élaborée, comme les dispositifs de question/réponse, la structuration et la consultation d’un document numérique par un index, ou encore la fouille de texte. Et si, dans la profession, il est d’usage de parler de recherche documentaire ou de recherche d’information quel que soit le contexte dans lequel elle est effectuée, les travaux présentés ici montrent qu’une segmentation entre ces différentes formes d’accès à l’information est devenue aujourd’hui nécessaire pour mettre en place des protocoles d’évaluation, proposer ou améliorer les dispositifs d’accès à l’information en prenant en compte des méthodes, des règles ou des outils spécifiques à chacun d’entre eux.

Quelle relation entre terminologie et accès à l’information ?

20

Le projet sous-jacent à cet ouvrage n’était pas de déterminer la nature ou la force de la relation qui existe entre terminologie et accès à l’information, mais de faire prendre conscience aux « représentants des métiers de l’information » de l’importance de la terminologie et de ses usages (p. 17). Si ce contrat est rempli, le phénomène « terme » apparaissant effectivement dans tous les environnements étudiés, plusieurs contributions montrent toutefois que les « termes » dont il est fait mention ne suivent pas les règles ni les normes de la terminologie mais d’autres, mieux adaptées à la finalité documentaire d’accès à l’information.

21

Le postulat de Van Slype, rappelé en ouverture de cette analyse et portant sur les différences de préoccupations entre documentation et terminologie, nous semble toujours pertinent. En revanche, un travail plus coopératif entre les différentes disciplines intervenant sur ces sujets s’impose certainement pour les travaux futurs des chercheurs. En même temps qu’une connaissance plus affinée des règles propres à la terminologie et des avancées de l’informatique appliquée est indispensable aux praticiens.

22

Sylvie Dalbin

Terminologie et documentation dans les travaux de l’ADBS ?

L’ADBS se fait régulièrement l’écho, dans les colonnes de ses publications comme dans ses initiatives et activités, des rapports entre terminologie ou plus largement linguistique et documentation. Voici ce que nous avons sélectionné entre 1976 et 2006 :

  • « Problèmes de lexicographie dans un système plurilingue de stockage et de recherche d’informations » (communication au Colloque international de terminologie, Paris, juin 1976), par Albert Yanez. Documentaliste - Sciences de l’information, mars 1977, vol. 14, n° 2, p. 25-28.

  • « La nécessité d’une coopération hispano-française en terminologie chimique », par Emilia Curras. Documentaliste - Sciences de l’information, janvier 1981, vol. 18, n° 1, p. 7-9.

  • « Outils linguistiques et nouvelles technologies », journée d’étude, 19 décembre 1996, wwww. adbs. fr/ uploads/ journees/ 619fr.pdf..Voir en particulier : « Synergie entre terminologie et thésaurus », par John Humbles, du Centre de terminologie et de néologie (CNRS - Université Paris-13).

  • « Les outils d’aide à la traduction », journée d’étude, 5 octobre 1998, www. adbs. fr/ site/ evenements/ journees/ journee. php? limit= 0&annee= 1998&id= 30&version= 1

  • Terminologie et documentation : pour une meilleure circulation des savoirs, par Maryvonne Holzem. Collection Sciences de l’information, série Recherches et documents, 1999.

  • Thésauroglossaire des langages documentaires : un outil de contrôle sémantique, par Danièle Dégez et Dominique Ménillet. Collection Sciences de l’information, série Recherches et documents, 2001

  • « Lancement du projet du thésaurus de terminologie dans le domaine de la torture ». Documentaliste - Sciences de l’information, février 2005, vol. 42, n° 1, p. 9.

Nous pourrions aussi mentionner tous les ouvrages et journées d’étude consacrés à la recherche en langage naturel ou aux traitements linguistiques dédiés à la recherche ; ils intègrent des éléments sur la terminologie ou, plus souvent, sur la linguistique.

Sylvie Dalbin

Compréhension des langues et interaction. Sous la direction de Gérard Sabah, Hermès Science Publications : Lavoisier, 2006. – 400 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1256-0 : 120 €. Sémantique et traitement automatique du langage naturel. Sous la direction de Patrice Enjalbert Paris : Hermès Science Publications : Lavoisier, 2005. – 410 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1126-2 : 120 €

Traitement automatique du langage naturel et accès à l’information

24

LES TRAVAUX DE RECHERCHE SCIENTIFIQUE sur la comprÉhension des langues et les applications de traitement automatique du langage naturel (TALN) se multiplient et se diversifient au fur et à mesure du déploiement de l’informatisation des activités humaines. Parmi ces activités, celles qui sont liées à l’accès à l’information sont particulièrement concernées.

25

Sur le terrain professionnel de l’information-documentation, deux situations extrêmes ont été un temps mises dos à dos. D’un côté la recherche dite en texte intégral, proposée encore aujourd’hui par la plupart des moteurs de recherche ; elle suppose des traitements automatiques dits de surface qui s’appuient sur les « formes » plutôt que sur le sens réel du contenu. De l’autre la recherche documentaire fondée sur une représentation élaborée manuellement et fortement contrôlée, que ce soit sous forme de notice bibliographique ou de jeu de métadonnées (on compte, par exemple, plus de cinquante métadonnées pour la norme de représentation des ressources pédagogiques Learning Object Medatada ou LOM).

26

Les limites inhérentes à chacune de ces deux solutions sont à l’origine d’autres solutions, complémentaires ou mixtes : catégorisation des résultats, ajout de listes de synonymes pour la première ; recherche full text sur les notices, recherche complémentaire sur tout ou partie des documents eux-mêmes, développement d’interfaces de recherche dédiées s’appuyant sur des vocabulaires contrôlés pour la seconde.

27

Une troisième voie repose sur la prise en compte des langues : de la langue originale du document mais aussi de celle de l’utilisateur dans le cas de la recherche documentaire. Cette approche dite du TAL(N) – traitement automatique du langage (naturel) –, présente en France depuis le début des années soixante-dix, a été en définitive assez peu mise en œuvre dans les systèmes d’information documentaire, au moins dans la période précédant l’usage du Web. Plus exactement, la nécessité de développer des systèmes adaptés aux utilisateurs non-professionnels de la recherche fut une formidable occasion de déployer cette approche dite end-user. Parmi les applications documentaires, on peut citer, entre autres, l’accès au fonds éditorial de Ouest France (avec Cora en 1980, puis Verity et Intuition aujourd’hui), aux brevets (avec Lingway), aux ressources documentaires des AGF (1998, avec Spirit) ou, plus récemment (2005) et de façon trop discrète, l’accès au catalogue de la bibliothèque municipale de Lyon avec le logiciel Autonomy.

28

Ces solutions peuvent encore aujourd’hui paraître satisfaisantes pour des recherches documentaires entendues comme la « fourniture, à la requête d’un utilisateur, d’un lot de documents d’un (même) fonds ». Mais elles restent inadaptées dans l’environnement documentaire actuel confronté à la multiplication des ressources numériques, de leurs lieux de production et de diffusion. Ces approches sont également imparfaites pour d’autres usages ou besoins comme ceux liés à l’interrogation multisources, aux systèmes de questions/réponses (c’est-à-dire à la fourniture de données factuelles et non du document contenant ces données), aux outils proposés à l’utilisateur pour une meilleure appréhension des résultats fournis (extrait ou résumé mono ou multidocuments), etc.

29

Tous ces éléments nous conduisent aujourd’hui à prendre résolument en compte des approches faisant une part plus importante à la sémantique. C’est dans ce contexte que nous souhaitons présenter, dans cette rubrique de Documentaliste - Sciences de l’information, deux ouvrages qui cumulent deux difficultés : ils relèvent tout d’abord de domaines qui, assurément, intéressent notre secteur mais n’en constituent pourtant pas le cœur, et ils proposent une orientation scientifique qui, pour être exploitable dans l’environnement des professionnels de l’I-D, impose un travail supplémentaire de mise en perspective.

30

Ces deux ouvrages s’inscrivent dans le « Traité Information-Commande-Communication » (IC2), série « Cognition et traitement de l’information » publié par Hermès-Lavoisier [voir l’encadré ci-contre].

Compréhension des langues et interaction

31

Le premier ouvrage – le plus récent des deux – fait le point sur « les phénomènes généraux qui caractérisent les mécanismes de compréhension des langues parlées ou écrites » et leur traitement automatique.

32

• Gérard Sabah (LIMSI, Orsay), coordinateur de ce volume et chercheur depuis près de trente ans dans ce domaine, expose en introduction les questions fondamentales abordées dans le contexte des traitements automatiques des langues : la distinction entre sens et signification ou encore les niveaux ou paliers utilisés pour analyser la langue (mot élémentaire porteur de sens, phrase, texte) et les traitements associés (morphologie, syntaxe, sémantique et pragmatique), à présent bien connus des professionnels de l’I-D.

33

La première partie est consacrée aux « Fondements de la compréhension des langues ».

34

• Adeline Nazarenko (ENS de Fontenay-aux-Roses), dans un premier chapitre, fait le point sur l’état actuel des connaissances en TAL. Cette contribution présente tour à tour les fondements sur lesquels repose l’évolution du domaine – les fameux paliers –, le changement d’orientation majeur pour le TAL survenu dans les années quatre-vingt-dix grâce aux possibilités d’exploitation de corpus annotés (dont des précisions sont données au chapitre 9 par Benoît Habert), le rôle accru des applications – recherche et extraction d’information, question-réponse ou synthèse de documents –, et enfin les outils utilisés en TAL.

35

• Les chapitres suivants reprennent de façon détaillée ces différents aspects. Nous retiendrons particulièrement ici le troisième, consacré à la modélisation en sémantique. Dans un langage tout à fait abordable, Patrice Enjalbert (laboratoire GREYC, Caen) et Bernard Victorri (LATTICE-ENS) présentent différents modèles appliqués à chacun des paliers. Parmi les modèles en œuvre pour traiter la sémantique suivant les différents paliers, nous avons relevé la notion de « structuration thématique » : il s’agit ici de trouver non seulement le thème général mais l’ensemble des sous-thèmes abordés dans divers segments de texte, ce qui conduit à une « indexation intradocumentaire ». Ces travaux pourraient avoir des répercussions considérables sur la performance et l’efficacité des moteurs de recherche en permettant un accès direct aux passages pertinents d’un document ou la construction automatique de résumés.

36

Passons directement à la deuxième partie de cet ouvrage, intitulée « Domaines d’application de la compréhension des langues »

37

• Au chapitre 8, Émilie Guimier de Neef (France Télécom) et Jean Véronis (Université d’Aix-Marseille) abordent les phénomènes linguistiques soulevés par ce qu’ils appellent les nouvelles formes de communication écrites (NFCE) que sont les sites web, courriels, forums ou messageries instantanées, SMS et blogs… Les auteurs font le tour des « déviances rencontrées par rapport à l’écrit classique » : respect approximatif des règles orthographiques et typographiques, présence de néologismes ou encore de didascalies (conventions spécifiques destinées à réguler échanges et dialogues) comme les smileys. Les conséquences pour le TAL de ces phénomènes nouveaux sont très importantes et restent une terre inconnue, que les auteurs appellent à prendre en compte activement.

38

• Comme nous le précisions en préambule, obtenir une réponse à un besoin d’information ne se résume pas à récupérer un lot de documents pour y chercher ladite information. Les systèmes questions-réponses, présentés au chapitre 10 par Marc El-Bèze (Université d’Avignon), tentent de répondre aux besoins de plus en plus précis et exigeants des utilisateurs, notamment en terme de délai de réponse : ce délai comprend le temps de la recherche mais surtout le temps nécessaire à l’utilisateur pour rechercher l’information dans les documents [4][4] On peut toutefois citer : Cédrick Fairon, Jean-René....

39

• Le résumé ou les synthèses d’un ou de plusieurs documents constituent également des outils puissants pour aider un utilisateur à décider de s’engager ou non dans la lecture d’un ou de plusieurs documents. La fouille de textes (text mining) constitue également un terrain de prédilection pour le résumé automatique. Dans le chapitre 11, Delphine Battistelli (Université Paris-4) et Jean-Luc Minel (Paris-10) brossent un panorama des traitements mis en œuvre dans les résumés automatiques. Il s’agit d’abord d’identifier la structure ou seulement les points saillants d’un document selon le point de vue de l’auteur ou du lecteur, puis d’obtenir un texte court qui, dans certains modèles proposés, peut être constitué uniquement de phrases ou parties de phrases extraites d’un document.

Les « traités » d’Hermès

Hermès (www. editions-hermes. fr/ ) propose une collection de six traités rassemblant un nombre variable d’ouvrages, dont le « Traité des sciences et techniques de l’information » (STI), mieux connu des professionnels de l’information-documentation car il touche plus précisément la production et la gestion de l’information, et le « Traité Information-Commande-Communication » (IC2) où sont parus les deux ouvrages analysés ici.

Ces six traités répondent au « besoin de disposer d’un ensemble complet des connaissances et méthodes nécessaires à la maîtrise des systèmes technologiques ». Chaque volume d’un traité (STI prévoit vingt volumes et IC2 pas moins de 240 !) aborde un domaine scientifique précis et rend compte aussi bien des aspects fondamentaux qu’expérimentaux du domaine. Chaque chapitre, rédigé par un ou plusieurs auteurs, est doté d’une autonomie permettant une lecture indépendante. Chacun comporte une bibliographie spécialisée, et un index général clôt l’ouvrage.

Sylvie Dalbin

40

• Dans le dernier chapitre, Gérard Sabah discute de l’avenir des TAL, à partir de l’exposé de deux grands courants qui se sont succédé : l’un, axé sur la technique informatique et visant la construction d’applications, qui a conduit aux industries de la langue ; l’autre, portant sur les aspects théoriques et la formalisation du traitement des langues, qui a contribué à conférer au TAL un statut scientifique. Les tenants de ce courant parlent alors, au lieu de traitement, de compréhension automatique des langues – d’où le titre donné à cet ouvrage. Enfin, dans une période plus récente, la mise en œuvre de techniques statistiques rendues pertinentes en raison de l’existence de grands corpus remet au goût du jour le développement des applications. D’autres disciplines participent de l’évolution de ce domaine : l’intelligence artificielle mais aussi la neurobiologie, la physique ou la psychologie, ici utilisées comme sources d’inspiration pour un modèle de la compréhension, nommé Caramel, que l’auteur propose en conclusion.

41

Gérard Sabah souhaite que le développement de ces applications ne se fasse pas au détriment de travaux théoriques qui restent indispensables. Ce débat entre théorie (qui doit s’éloigner de l’informatique pour n’être pas assimilée au seul outillage), application (qui, elle, ne peut être qu’informatisée) et multidisciplinarité n’est pas sans rappeler le débat pertinemment ouvert par Hubert Fondin pour notre discipline [5][5] La science de l’information ou le poids de l’histoire,....

Sémantique et traitement automatique du langage naturel

42

Si le premier ouvrage visait à caractériser de façon globale « les mécanismes de compréhension des langues parlées ou écrites », le second, un peu antérieur, porte spécifiquement sur la sémantique. Objet d’un seul chapitre (signé par Patrice Enjalbert) dans l’ouvrage dirigé par Gérard Sabah, cette problématique se déploie dans celui-ci, coordonné par le même Patrice Enjalbert du laboratoire GREYC (Groupe de recherche en informatique, image, automatique et instrumentation de Caen). Avec un autorat plus resserré, la présentation de ce domaine de recherche prend appui sur les résultats obtenus au cours de quinze ans de recherches multidisciplinaires et de réalisations d’applications en ingénierie documentaire. Cet ouvrage ne vise donc pas à couvrir toutes les problématiques posées par le croisement de la sémantique et du TALN. De plus les auteurs ont souhaité proposer une « illustration de l’actualité des recherches sémantiques en TALN » : c’est cette illustration dans des applications essentiellement documentaires qui nous a amenée à nous intéresser à cet ouvrage.

43

• Sous la forme de deux chapitres distincts, la première partie de l’ouvrage (qui en compte trois) constitue une introduction générale à la sémantique et à ses différentes facettes dans la perspective de traitements informatisés : qu’est-ce que comprendre un texte ? comment le représenter ? Aucune formule mathématique dans ces pages, mais de nombreux exemples tirés d’expérimentations nous permettent de suivre les auteurs jusqu’aux paliers les plus hauts de la sémantique.

44

• La seconde partie est consacrée au problème de la modélisation sémantique. Cette partie tourne autour de quatre phénomènes linguistiques considérés comme importants par les chercheurs, correspondant à quatre expérimentations faites dans le laboratoire : la polysémie lexicale, la référence et plus précisément la co-référence, la temporalité et la spatialité. En particulier, les analyses faites autour de la polysémie lexicale font écho aux réflexions portant, dans notre discipline, sur les limites inhérentes aux vocabulaires contrôlés.

45

• La troisième et dernière partie concerne des applications issues de l’ingénierie documentaire. Nous en citerons deux.

46

L’extraction d’information (chapitre 8, Patrice Enjalbert). Il s’agit d’extraire d’un corpus de textes (dépêches ou articles spécialisés) des données factuelles qui alimenteront une base de données. Les derniers modèles utilisés s’appuient sur une analyse préalable des textes par des techniques linguistiques pour améliorer la qualité des résultats. Certains modèles exploitent des patrons, par exemple pour repérer des événements, patrons qui restent cependant délicats à élaborer et à adapter.

47

L’accès à l’information (chapitre 9, Patrice Enjalbert et Frédérik Bilhaut). Les auteurs présentent les méthodes dites classiques, qui sont soit manuelles avec indexation effectuée par un documentaliste à l’aide d’un thésaurus, soit automatiques par différents moteurs de première génération ou de « première génération et demi ». À cette dernière catégorie appartiennent les systèmes proposant des extensions capables de résoudre le problème de la synonymie grâce à des dictionnaires de synonymes, ou celui des hyponymes (générique/spécifique) en s’appuyant sur des systèmes d’expansion de requêtes. Sans nier l’importance des approches actuelles fondées sur les mots clés (descripteurs), certains problèmes rencontrés aujourd’hui semblent imposer des approches résolument sémantiques de plus haut niveau.

48

L’une des solutions proposées par les auteurs consiste à passer d’une recherche par mots clés à des requêtes constituées de syntagmes complexes, non convertis en mots clés. Bien que le contexte soit différent (ces travaux de recherche font référence exclusivement à des textes sous forme numérique), cette proposition rappelle les travaux de thèse de Muriel Amar [6][6] Muriel Amar, Les fondements théoriques de l’indexation :... sur la représentation du sens, les limites des descripteurs, la différenciation entre descripteurs pour l’indexation et descripteurs pour la recherche, ou encore « l’espace discursif » des textes. L’autre solution proposée par les auteurs vise à franchir « les portes du document » en aidant le lecteur dans la recherche de l’information dans le ou les documents.

49

L’ensemble de ces propositions (recherche documentaire structurée, système de questions-réponses, résumé automatique ou navigation à partir de la segmentation et de la structuration thématique d’un document) relèvent toutes de ce que Patrice Enjalbert appelle « le troisième palier de la sémantique » : le texte. Dans leur conclusion, les auteurs notent que les problématiques d’accès à l’information évoquées ici pour le texte se posent aussi de façon « étonnamment proche » pour les autres médias (image, vidéo ou son).

Pour nourrir une réflexion sur l’architecture des systèmes documentaires

50

Ces deux livres ne sont pas des manuels, mais leur publication au sein d’un « traité » garantit aux professionnels du terrain une approche globale, voire pédagogique, que l’on ne trouve pas dans les comptes rendus de congrès ni dans les articles spécialisés. Si la cohérence d’ensemble de ces deux titres peut avoir un sens pour un chercheur dans le domaine des TAL, ainsi que pour les chercheurs en sciences de l’information dont un grand nombre sont ici directement concernés, il semble difficile d’inciter les professionnels de l’information à lire la totalité de ces imposants ouvrages de 400 pages chacun.

51

Mais, abordés individuellement, certains des chapitres évoqués dans cette note4 pourront utilement être mis à profit, en particulier par les indexeurs et spécialistes des langages documentaires et par tous ceux qui participent à des projets de portails ou de bibliothèques numériques, pour réviser la place de leurs propres outils et celle des moteurs de recherche actuels – et pour réfléchir différemment à l’architecture même des systèmes documentaires [7][7] Certains de ces textes, en particulier ceux de P. Enjalbert....

52

Sylvie Dalbin

Net recherche : le guide pratique pour mieux trouver l’information utile. Véronique Mesguich et Armelle Thomas, 2e éd. augm. et mise à jour. – Paris : ADBS Éditions, 2007. – 159 p. – (Sciences et techniques de l’information, ISSN 1762-8288). – ISBN 978-2-84365-093-2 : 23 €

Un guide précis, détaillé et à jour

54

UN DES THEMES ACTUELLEMENT DOMINANTS de la littérature en sciences de l’information est la recherche d’information sur Internet, avec l’analyse du comportement des internautes, le développement de l’intelligence artificielle et celui, consécutif, des moteurs de recherche. Cela correspond également à une des grandes préoccupations de nos professions : car, si tout internaute est capable de trouver lui-même – et sans aide – l’information dont il a besoin, quel est le rôle du documentaliste, du bibliothécaire de référence, du recherchiste ? Les auteures de cet ouvrage, Véronique Mesguich, responsable des activités Entreprises de l’Infothèque du Pôle universitaire Léonard de Vinci, et Armelle Thomas, consultante en veille documentaire et stratégique, répondent à cette question, à leur manière précise et détaillée. Conçu sous forme d’un guide pratique visant à mieux trouver l’information utile, cet ouvrage, dont une deuxième édition augmentée et mise à jour paraît exactement un an après la première, sera précieux pour tous ceux qui souhaitent apprendre, découvrir ou approfondir leurs connaissances de l’internet et de ses méandres.

55

Après une première partie intitulée « Diversité des besoins, diversité des outils » qui présente la complexité de l’Internet (avec maintenant les portails, bases de données, blogs, et autres fils RSS) ainsi que les dix règles d’or de la recherche d’information (que le lecteur méditera avec soin), la deuxième partie propose d’« en finir avec les idées reçues » sur les moteurs de recherche : s’il n’existe pas des centaines de moteurs de recherche, si un moteur n’est pas un réservoir d’archives, si une interrogation n’est pas le reflet du Web en temps réel – qu’est-ce donc qu’un moteur de recherche ? Ces négations permettent aux auteures d’expliquer clairement comment il est constitué, comment il fonctionne, avec des exemples, des comparatifs bienvenus, des précisions sur les tendances (simplification des interfaces, personnalisation, cartographie, etc.).

56

La troisième partie est consacrée aux métamoteurs considérés comme « des outils pratiques, simples et à l’interface innovante ». Malgré certains inconvénients, leurs avantages apparaissent nombreux : ils sont puissants, ils se spécialisent, ils tendent même à devenir des métamoteurs-clients. Les annuaires généralistes tendent à disparaître au profit des portails spécialisés (quatrième partie) mais, avec le partage des liens et des blogs et le développement des pratiques collaboratives, un Web « social » semble émerger et s’affirmer sous le nom de « Web 2.0 » : c’est l’objet de la cinquième partie, sensiblement remaniée dans cette deuxième édition où elle est intitulée « Des méthodes de recherche 2.0 ? »

57

La conclusion prend la forme d’une question : quel moteur idéal pour l’utilisateur ? La réponse semble reposer sur le développement des moteurs eux-mêmes (la « guerre des moteurs » est engagée) ainsi que sur le web sémantique pour renforcer l’« intelligence » des machines. « Le Web 3.0 est-il pour demain ? », s’interrogent enfin les auteures.

58

Cet ouvrage ne serait pas complet sans une « Boîte à outils » constituée de (vingt) précieuses fiches questions-réponses, d’un panorama des outils de recherche généralistes et spécialisés et d’un « Tout sur Google » bienvenu.

59

Si les comportements des internautes en matière de recherche d’information révèlent une grande disparité, cet ouvrage de Véronique Mesguich et Armelle Thomas tend à démontrer que suivre d’une méthode de recherche est le meilleur moyen pour arriver à trouver une information pertinente. Ce qu’aucun professionnel de l’information-documentation ne contestera !

60

Jean-Philippe Accart

Dictionnaire de l’image. Sous la direction de Françoise Juhel ; Anne Goliot-Lété, Martine Joly, Thierry Lancien, Isabelle-Cécile Le Mée, Francis Vanoye, Paris : Vuibert, 2006. – 398 p. – ISBN 978-2-7117-8441-7 : 43 €

De Lascaux au numérique via Hollywood

62

SOUS LA COMPETENTE AUTORITE DE Françoise Juhel, les éditions Vuibert proposent une publication des plus utiles pour les iconographes (nous employons ce terme pour signifier l’ensemble des divers praticiens de la documentation image) ainsi que pour tous les autres professionnels de l’information-documentation s’intéressant de près ou de loin à l’image. Mais, disons-le d’emblée, cet ouvrage ne parle pas de documentation – ou si peu ! – et c’est justement en cela qu’il est utile à tous.

63

Du côté des documentalistes, juste quelques entrées, une petite vingtaine à peine, abordent mollement les rivages familiers. Ces articles peuvent être sommairement classés en trois grandes catégories : ceux qui explicitent le processus de la mémorisation (« numérisation », « analogique », « CD-ROM », « DVD », « bases de données », « banque d’images », etc.) ; ceux qui définissent les modalités de la conservation (« restauration », « collection », « archivage », etc.) ; enfin un dernier petit ensemble qui traite de l’utilisation des images numérisées (« ergonomie », « interactivité », « interface », « réseau », etc.).

64

Peu de choses à glaner, donc, pour les iconographes sur les pratiques, outils et méthodes de la documentation image. Certains ressentiront même parfois un léger agacement à la lecture de quelques-uns de ces articles « documentaires » : superficialité, imprécisions… et puis, rien sur ce qui constitue le cœur des pratiques documentaires, le traitement logique des images. Aucun article concernant l’analyse, l’indexation, rien sur la recherche d’images… foin des métadonnées et de la gestion des fonds. Un rapide petit calcul nous révèle que la part « documentaire » ne représente qu’à peine 3 % de ce dictionnaire. Mais – et nous insistons - non seulement l’objectif de l’ouvrage ne réside pas là, mais sa valeur et son intérêt pour les iconographes et autres professionnels de l’information-documentation sourdent précisément de ce qui n’est pas à proprement parler documentaire mais lui est connexe et marginal.

Une ouverture sur un ensemble de savoirs, de réflexions, de pratiques différentes

65

Car ce livre traite des plus récentes modalités d’élaboration et de diffusion des images et propose des apports fondamentaux concernant les arts et les techniques. Ces techniques et ces pratiques, ce sont les arts plastiques, la photographie, le cinéma, la télévision, la vidéo, le numérique, « des gravures rupestres au numérique en passant par le cinéma hollywoodien ». C’est en cela qu’il nous est nécessaire, utile, indispensable – comme l’est la culture de l’information à tout praticien du secteur. Son intérêt consiste dans la mise à disposition d’éléments issus de cet ailleurs de la documentation, dans sa contextualisation au milieu de l’ensemble des multiples pratiques et discours sur l’image. Car pratiquer ou étudier l’image impose d’être en mesure de se confronter à sa complexité. Seule une véritable culture de l’image peut y préparer. Bien plus que les autres vecteurs d’information, la pratique de l’image nécessite un savoir qui se situe bien au-delà du simple savoir-faire.

66

La convergence des outils et des méthodes, celle des supports et des médias nous imposent de savoir, même sommairement, par exemple ce que propose l’analyse sémiologique, comment les psychanalystes interprètent les images, vers quoi évoluent les arts plastiques, le cinéma, la télévision… Voilà la matière que ce dictionnaire nous livre : tout un ensemble de savoirs, de réflexions, de pratiques différentes, parfois très proches, mais autres. Métissons nos savoirs ! N’hésitons pas à emprunter les chemins de traverse, à faire les bordures ! La réflexion, l’innovation, la compréhension naissent de ces confrontations car, s’il est un secteur interdisciplinaire, c’est bien celui de l’image, média définitivement irréductible à un unique schéma interprétatif.

67

Au plan formel, chacune des quelque 750 entrées du dictionnaire fournit au lecteur des éléments d’information linguistiques, historiques, techniques, théoriques ou pratiques. Chaque entrée propose la ou les définitions de chaque terme, son origine, sa traduction en anglais, ainsi que, le plus souvent, un historique, des analyses, des points de vue, une problématique, des exemples concrets, enfin des références bibliographiques. Les entrées comportent des corrélats, des indications bibliographiques.

68

Cet ouvrage se clôt sur un index de noms propres et de mots clés de près de 1 800 termes ainsi que sur une bibliographie générale riche de plus de 800 références. On ne s’étonnera pas de n’y trouver qu’un unique texte qui nous soit familier : l’incontournable, le canonique Gestion d’un fonds d’images de Cécile Kattnig (Nathan et Adbs Éditions, 2002). Et lorsque Michel Melot est appelé à comparaître, c’est pour L’estampe (Skira, 1981)… Allons ! Nous saurons bien retrouver nos auteurs familiers, sans cesse revisités. Profitons de cet ouvrage pour aborder avec d’autres interprètes de nouveaux horizons !

69

Serge Cacaly

Révolution numérique et industries culturelles. Alain Le Diberder et Philippe Chantepie, Paris : La Découverte, 2005. – 122 p. – (Repères ; 408). – ISBN 2-7071-4511-4 : 7,95 €

Pour mieux comprendre notre environnement culturel

71

COMPRENDRE LES FORCES ECONOMIQUES qui ont modelé le « paysage » actuel des industries culturelles en quelque cent dix pages, comme l’impose la collection « Repères » de la Découverte, tel est l’objectif, réussi, ajouterons-nous d’emblée, de cet ouvrage.

72

Le premier chapitre cerne la notion d’industrie culturelle, dont les trois domaines (la télévision et la presse écrite ; l’édition de livres et le cinéma ; la radio, le disque et les jeux vidéo) sont aujourd’hui en voie d’unification. On y montre son poids économique, en augmentation et en interconnexion croissante, mais aussi sa fragilité. On y explique aussi pourquoi la concentration est nécessaire et pourquoi les conditions de circulation de certaines œuvres ont changé. On y aborde les mutations des industries techniques que sont les télécommunications, les logiciels et les terminaux, elles aussi « en voie d’unification technique et géographique, pour un marché parfait ». Parfait ? Non, bien sûr ! car « la concurrence interdit ce que la technologie autorise », mais aussi parce qu’« au bouillonnement des techniques répond le temps long des usages et des lois de la création artistique ». On tendrait ainsi plutôt vers un « paradigme paradoxal », extraordinairement complexe.

73

Le deuxième chapitre analyse le comportement des filières de contenus face au numérique, ce qui amène à souligner l’approche différente de chacune d’entre elles (musique, télévision, cinéma, jeux vidéos) mais aussi la quasi-inertie des pratiques culturelles. Quatre filières et quatre manières différentes de « rencontrer » le numérique, soit – et nous ne résistons pas à reprendre la présentation qui en est faite - « une séduction précoce » pour le CD et « une dispute » pour le téléchargement pour le disque, « de lentes approches protocolaires aboutissant à un mariage » pour la télévision, « des aventures suivies d’un pacs plein d’arrière-pensées » pour le cinéma et « une fraternité orageuse » pour les jeux vidéos. C’est en « ordre dispersé » que ces diverses industries abordent cette mutation tant en amont (création) qu’en aval (commercialisation).

74

Le troisième chapitre examine le secteur de la création et de la production, en amont des activités précédentes, pour qui l’environnement numérique ne serait qu’une « transition tranquille » puisqu’elle a été amorcée il y a vingt-cinq ans. Ce secteur présente aussi des paradoxes - des gains de productivité mais des coûts de commercialisation plus importants, des débouchés commerciaux mondiaux mais une concurrence de plus en plus vive. Mais, si « les effets du numérique sur la production sont profonds sur un plan technique », ils sont « limités sur un plan économique ».

75

« Tout change », en revanche, pour les filières de distribution, de diffusion et de consommation qui se sont durablement transformées. Le quatrième chapitre met l’accent sur la modification des chaînes de valeurs, le renforcement du contrôle de la reproduction et la recomposition des modèles économiques consécutifs à la dématérialisation des supports physiques. Il s’agit bien ici d’un bouleversement des modes d’exploitation et de diffusion mais aussi d’un déplacement des positions des ayants droit qui fait apparaître de nouveaux modes de contrôle par la technique. Ce phénomène qui va au-delà des systèmes numériques de gestion des droits (ou DRM) et des droits de propriété intellectuelle est loin d’être stabilisé. La seule chose qui soit sûre, « c’est que les règles seront différentes de celles du passé ».

Une mutation sans précédent des industries culturelles

76

Examinée dans un cinquième chapitre, la régulation connaîtrait, elle aussi, une période de transition. S’il n’y a jamais d’« âge d’or » pour les industries culturelles, comme le soulignent les auteurs de l’ouvrage, on assiste aujourd’hui à une accélération des périodes de crise, due à la convergence des secteurs et à l’internationalisation. Après avoir présenté les approches anglo-saxonne et européenne, les enjeux importants que présente l’économie des standards, et l’extraordinaire complexité des droits de propriété intellectuelle qui obéissent à « deux forces contradictoires », les auteurs mettent l’accent sur « l’évolution technicienne de la gestion de ces droits », liée notamment à l’intervention de la propriété industrielle qui contribue à déséquilibrer le système. À ce déséquilibre s’oppose tout naturellement une volonté d’accès rendue possible par les techniques. Il s’agit alors d’organiser une « coexistence entre univers de plus en plus poreux entre création, information marchande et non marchande par le droit de la concurrence », soit par une régulation forte, Mais celle-ci aussi a des limites, puisqu’elle se heurte à « la volonté de préserver des équilibres anciens », notamment par des mécanismes d’aides publiques.

77

Le dernier chapitre fait le point sur les stratégies et les tendances, dans un monde où l’on peine à prendre en compte l’évolution de la demande et où l’on doit faire face à de profonds paradoxes économiques et sociaux. Comment, en effet, organiser une rencontre entre une demande de plus en plus mobile face à une offre qui reste rigide ? Il semble qu’il y ait une superposition de trois économies – les productions locales non marchandes, les productions locales marchandes et les productions internationales – que les auteurs abordent tour à tour en mettant l’accent sur l’attrait présenté désormais par les services et les contenus. Foisonnement, voilà le terme que l’on pourrait utiliser à propos des producteurs en raison de la baisse du ticket d’entrée pour ceux qui sont dits marginaux, de l’extraordinaire potentiel présenté par les fonctions d’interface (éditeur, distributeur, fournisseurs d’outils de recherche), et du nombre de ceux qui font le lien entre les secteurs marchand et non marchand, car portés par une croissance à long terme de la demande.

78

Mais c’est au consommateur qu’il appartient d’arbitrer, y compris face à « l’attrait potentiel des formes de consommation dites gratuites (piraterie, publicité) ». Il fallait bien sûr rappeler aussi qu’il y a une nouvelle connexion entre l’offre et la demande et un brouillage des frontières entre producteur, consommateur, amateur et professionnel. L’accent mis sur le piratage ne masquerait finalement que « les enjeux du basculement des industries du contenu du numérique sous le paradigme du numérique et la formation d’un nouveau monde du numérique ».

79

Cette mutation « sans précédent » touche à la fois les domaines technique, économique et culturels, mais à un rythme différent. La conclusion insiste aussi sur la nécessité de repenser l’équilibre entre l’économie de l’accès et celle de l’audience, entre l’économie marchande et l’économie non marchande, et sur le rôle du consommateur, de moins en moins disposé à être un simple public.

80

Voilà un ouvrage qui passionnera tous ceux qui veulent comprendre leur environnement culturel. S’il date d’avril 2005 et si les développements dans ce secteur sont rapides, il n’en reste pas moins que l’on lira avec intérêt cette analyse complète et détaillée, dense aussi mais très claire, émaillée, comme tous les ouvrages de cette collection, d’explications de plusieurs concepts dans des parties mises en relief.

81

Michèle Battisti

Bibliothèques et documents numériques : concepts, composantes, techniques et enjeux. Alain Jacquesson et Alexis Rivier, Nouv. éd. – Paris : Électre-Éditions du Cercle de la librairie, 2005. – 573 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0915-3 : 42 €

Toutes les dimensions de l’univers numérique pour la bibliothèque du futur

83

CE TRAVAIL REALISE PAR ALAIN JACQUESSON et Alexis Rivier, tous deux conservateurs à la Bibliothèque publique et universitaire de Genève, est considérable et ne peut être que salué. Prendre en compte toutes les dimensions de l’univers du numérique, alors que l’actualité est sans cesse en mouvement, relève en effet de la gageure. Entre 1999 (date de la première édition) et fin 2005-début 2006 (date de cette mise à jour), il ne fut pas un jour sans annonce fracassante d’éditeurs ou de fournisseurs d’information sur la mise en ligne de telle ou telle ressource. Si, en 1999, le numérique commençait à investir le monde de la documentation et des bibliothèques, sa place en 2007 est devenue prépondérante : on ne compte plus les projets de numérisation de collections en cours, à l’échelle nationale ou internationale.

84

Considérablement augmentée de plus de deux cent pages, cette nouvelle édition de Bibliothèques et documents numériques arrive donc à point nommé pour tous ceux qui se lancent dans un projet de numérisation : ils y trouveront, exposées de manière détaillée et avec de nombreux exemples, toutes les informations détaillées sur l’art et la manière de récolter, traiter et diffuser des documents numériques dans le contexte de la société de l’information. Le plan en trois parties de la première édition a été conservé, ce qui permet aux lecteurs d’appréhender plus aisément les évolutions.

85

Intitulée « Les paradigmes », la première partie décline les notions de base relatives à la création d’un document numérique : les formats, les normes, la structure d’un document, la numérisation des textes et des images, le stockage, etc. Le chapitre 6 sur les techniques de numérisation actuelles, hormis les scanners, remet à l’ordre du jour les livres électroniques et les livres à la carte.

86

Dans la seconde partie, « La création des documents numériques », les auteurs font la part belle aux périodiques électroniques : ils en dressent une typologie précise (des revues scientifiques aux web’zines en passant par les revues de sommaires et les listes de discussion) et détaillent leur commercialisation avec les différents éditeurs (commerciaux, universitaires). Les quotidiens et les consortiums ne sont pas oubliés. Trois chapitres complètent ce panorama avec les réservoirs de textes numériques (les lecteurs seront intéressés par la présentation des projets de numérisation en cours, francophones ou anglo-saxons), les thèses électroniques (avec les principaux serveurs mondiaux). Enfin, la numérisation des collections anciennes clôt cet éventail avec les réalisations en cours, européennes et extra-européennes.

87

La troisième partie, « Les bibliothèques face aux documents numériques », est la partie applicative de l’ouvrage : qu’est-ce que numériser veut dire pour une bibliothèque ? comment mettre à disposition une bibliothèque numérique (serveurs web statique ou dynamique) ? avec quel traitement bibliographique (la question des formats s’avère essentielle) ? Hormis les nouvelles méthodes de lecture qu’induit un document numérique, une des questions qui reste primordiale est celle de la préservation des collections : que faut-il préserver ? Le dépôt légal des documents numériques est en marche.

88

Après un chapitre sur les logiciels libres et les données ouvertes, les auteurs élargissent leur réflexion en abordant divers points : la communication scientifique, le droit d’auteur, et enfin l’économie des bibliothèques numériques. Qu’elle soit virtuelle, centre de connaissances ou hybride, la bibliothèque est de plus en plus considérée « en tant que lieu ».

89

Une des grandes qualités de cet ouvrage est de conjuguer avec bonheur les aspects techniques liés à la numérisation (mais d’une manière tout à fait abordable et didactique) avec le concept même de bibliothèque telle que la tradition la présente généralement. Plutôt que d’envisager la bibliothèque comme lieu de savoir fermé sur lui-même, les auteurs l’ouvrent sur le monde, en expliquant avec clarté les possibilités offertes par la technologie numérique. La bibliothèque du futur qui se dessine sous nos yeux leur donne raison, alliant collections sur supports traditionnels et collections virtuelles pour le plus grand bénéfice des usagers.

90

Jean-Philippe Accart

La « Société de l’Information » : entre mythes et réalités. Sous la direction de Michel Mathien ; préface de Michèle Gendreau-Massaloux, Bruxelles : Bruylant, 2005. – 435 p. – (Médias, Sociétés et Relations Internationales ; 2). – ISBN 2-8027-2039-2 : 35 €. Sociétés de l’information : enjeux économiques et juridiques. Sous la direction de Philippe Barbet et Isabelle Liotard ; préface de Nicolas Curien, Paris : L’Harmattan, 2006. – 248 p. – ISBN 2-296-00928-X : 22,50 €

De multiples questions sur la société de l’information

92

LE PREMIER DE CES DEUX OUVRAGES FORT différents mais en certains points complémentaires s’interroge sur la portée socioculturelle et politique de cette expression « société de l’information ». S’agit-il d’une « société de la connaissance partagée » ou voit-on se dessiner une « société de défiance, … de surveillance » (Michel Mathien, p. 22) ? Plus spécialisé, le second ouvrage permet d’approfondir cette problématique et en décrit toute la complexité.

Mythes et réalités

93

L’Organisation des Nations Unies (ONU) a décidé d’organiser en deux phases un sommet mondial sur « la société de l’information » (SMSI, décembre 2003 à Genève, novembre 2005 à Tunis). Leur préparation a fait appel à des chercheurs et des universitaires, ce qui était nouveau à cette échelle. Dans sa longue introduction, Michel Mathien pose effectivement la question de la place et du rôle qu’ils peuvent jouer auprès de ces institutions internationales, sans cacher les difficultés méthodologiques et communicationnelles rencontrées ; et esquisse ce que pourrait être « un espace public de discussion pour les chercheurs » au sein de ces organismes (p. 35).

94

Le présent ouvrage, publication du Centre d’études et de recherches interdisciplinaires sur les médias en Europe (CERIME), rend compte du colloque tenu par ces chercheurs, entre autres, à l’Université Robert Schuman de Strasbourg (septembre 2003). La première partie est plus expressément consacrée au SMSI et à ses suites, dont ne sont cachées ni les ambiguïtés ni les lacunes mais dont sont soulignés les enjeux ; deux interventions traitent de la place de la communauté scientifique « face à de tels enjeux » (p. 81). La seconde partie traite des acteurs : institutions et société civile. Principes établis par le Conseil de l’Europe sur la liberté d’expression sur Internet, différences d’approche sur ce sujet entre l’Europe et les États-Unis, actions des décideurs publics et application des politiques sur le terrain – autant de données qui balisent le thème.

95

Avec l’ensemble « L’Économie dans le débat » sont abordées en particulier les contradictions entre logiques des États et logiques du marché ainsi que les problèmes de régulation et de mondialisation – qui font l’objet du second ouvrage analysé ici. On relèvera l’intérêt de la communication d’Annie Chéneau-Loquay, « TIC et développement africain informel », qui s’interroge sur l’adéquation de la démarche de l’ONU en ce qui concerne l’implantation des TIC sur ce continent : « Les TIC sont apparues dans les années 90 comme la véritable planche de salut pour promouvoir le développement » (p. 241). Mais où en est la réalité sur le terrain ?

96

Cet ouvrage aborde enfin, sous le sobre intitulé « Les Libertés », des questions essentielles : qu’en est-il de la démocratisation de l’internet, de la liberté d’expression dans un contexte sécuritaire international marqué par l’espionnage électronique (réseau Échelon), du processus croissant de télésurveillance ? En contrepoint est présentée l’expérience de la régulation de l’information de la CNIL.

97

On trouvera en annexe les textes du Sommet de Genève, la liste commentée des auteurs, une « bibliographie indicative » de langue française et un index par mots clés.

Enjeux économiques et juridiques

98

Le second ouvrage, également collectif, dessine « le paysage » de la nouvelle économie, l’économie de la connaissance, selon deux de ses principales dimensions : économique, avec la production de nouveaux produits et de nouveaux marchés, et juridique, avec l’apparition de nouvelles méthodes de régulation et de nouveaux problèmes liés à la propriété intellectuelle.

99

Après avoir défini ce que sont les « biens informationnels » et précisé en quoi ils se différencient des biens traditionnels, le premier chapitre fait le point sur les outils et les méthodes utilisés pour les mesurer, soit par des organismes internationaux, OCDE et Eurostat, soit par deux pays « avancés », le Japon et les États-Unis. La révision des nomenclatures et des définitions, l’évolution des divers outils statistiques et les essais de comparabilité internationale sont détaillés. On constatera que, en dépit de quelques améliorations obtenues en une quinzaine d’années, déficience de comparabilité, lacunes et hétérogénéité des définitions sectorielles empêchent de « mesurer les répercussions complètes des TIC sur l’économie et la société » (p. 64).

100

Le deuxième chapitre, « Internet et commerce électronique : les enjeux réglementaires », est consacré au développement du réseau des réseaux. Lancé à l’origine par les pouvoirs publics américains, il est passé, du moins aux États-Unis, aux mains des entreprises privées. À partir de 1995, date de l’arret de sa prise en charge par la National Science Foundation, on le voit s’orienter de plus en plus vers la commercialisation, « vers toutes les activités, notamment marchandes » (p. 83) et vers la privatisation. Qu’il s’agisse de l’accès au réseau, de son fonctionnement et du commerce électronique, d’importants problèmes de régulation ne cessent de survenir. Constat est fait du « décalage préoccupant entre des marchés et des acteurs dont les frontières se chevauchent de plus en plus et des autorités de régulation dont les compétences sont toujours sectoriellement définies » (p. 78). Des solutions sont esquissées, qui peuvent passer par les organisations internationales : gestion des « noms de domaine », règles de fiscalité directe et indirecte, libéralisation des échanges électroniques.

101

Qu’en est-il, enfin, des règles traditionnelles de la propriété intellectuelle devant la dématérialisation et la circulation électronique des œuvres ? Que devient le droit de la concurrence devant ces nouveaux usages ? Comment pallier l’insuffisance à y répondre des instruments classiques tels que brevet, marque, etc. – toutes ces questions sont examinées dans les deux dernières contributions de cette excellente analyse de l’économie de l’information et des obstacles, blocages ou distorsions qu’elle suscite.

102

En seconde partie sont présentés, en autant d’études de cas, certains biens informationnels : le brevet logiciel, les méthodes commerciales ou business methods, la protection des bases de données et les réseaux peer-to-peer. Là encore, « discorde », tensions et pratiques illégales (comme le télédéchargement sauvage) incitent à rechercher de nouveaux modes de protection.

103

Très clair, illustré de nombreux tableaux et complété par une importante bibliographie internationale, cet ensemble, loin d’être réservé aux spécialistes, fournit une documentation de base sur certains aspects moins connus de l’économie de la connaissance.

104

Claire Guinchat

Dimensions sociales du document. Coordonné par Caroline Courbières et Gérard Régimbeau, Toulouse : Presses universitaires du Mirail, 2006. – P. 1-202. Numéro de : Sciences de la société, ISSN 1168-1446, mai 2006, n° 68. – ISBN 2-85816-847-4 : 20 €

« La pâte sociale où est incrusté le document »

105

AVEC CE NUMERO DE SCIENCES DE LA société, on circule dans le champ des nouvelles recherches sur le document et son contexte. Issues d’un « foisonnement de disciplines » (p. 7) allant de l’anthropologie à la sociologie de la communication, les contributions réunies ici brossent « la pâte sociale où il est incrusté », pour reprendre l’expression imagée de Caroline Courbières et Gérard Régimbeau dans leur introduction (p. 6). Elles s’organisent en trois « entrées » : la théorie, analysant le concept du document ; les pratiques sur la place et le rôle du document dans les relations entre acteurs ; l’histoire, enfin, recherchant la dimension patrimoniale du document et ses éventuelles interprétations idéologiques.

Théories

106

Jean Meyriat ouvre la première partie en disséquant, à l’aide d’un exemple concret, celui de l’article scientifique, les divers systèmes techno-sociaux de communication, parfois contradictoires, auquel il appartient : institutionnel, éditorial, informatif, etc. Élargissant la démarche à six autres types de documents, il démontre la méthode d’analyse plurisystémique qu’il propose pour « situer et interpréter correctement l’information apportée par un document quel qu’il soit » (p. 26). Bonne recommandation à tout utilisateur !

107

Les deux articles suivants s’interrogent sur la nature du document, et comme notion et comme objet, sur sa construction en tant que porteur d’information, sur sa formation en tant qu’objet de communication. S’interrogeant sur ce que sont les documents et sur ce à quoi ils servent, Regina Maria Marteleto et Nanci Gonçalves da Nobrega, universitaires brésiliens, se réfèrent à l’anthropologie de l’information – où le sujet est « source et axe de la problématique informationnelle » (p. 33). Sujet informant-informé, donc en mouvement dans son espace : espace socioculturel, selon sa position dans les réseaux de communication, espace symbolique selon son usage de l’information. Dégageant des concepts clés comme « information-document » et « information-mouvement », « excédent informationnel » et « réserve symbolique », « transformation » et « connaissance partagée », ils s’appuient sur des auteurs comme Lucien Sfez, Roger Chartier, Michel Foucault et surtout Walter Benjamin pour observer un nouveau champ épistémologique fondé sur « le discontinu, la différence et la rupture » (p. 43) et où apparaissent des documents « d’un autre ordre ».

108

Après avoir pris soin de redéfinir le sens du terme « information » comme « une relation unissant des sujets par l’intermédiaire de médiations matérielles et intellectuelles » (Yves Jeanneret, cité p. 47), Brigitte Guyot et Marie-France Peyrelong étudient comment cette relation dépend du contexte socioculturel, de la situation des acteurs dans ce contexte, des supports et des formes qui matérialisent l’information.

109

Des exemples ponctuent le processus de passage de l’action envisagée à l’utilisation du document, considéré comme un « objet en action », élément d’une dynamique organisationnelle dont il est en quelque sorte le révélateur.

110

Conçu comme un « espace de connaissance(s) » (p. 61) qu’on désire rendre commun à des milieux différents d’acteurs et d’utilisateurs, ici des scientifiques et des industriels, le document est étudié par Catriona Raboutet et Hubert Cahuzac sous deux aspects : support d’information et/ou de connaissances échangeables et support de construction d’une pensée commune (p. 61). La conceptualisation, les situations de coproduction et d’utilisation d’un document, la construction d’une dynamique de la connaissance, le rôle des acteurs, etc., sont autant de balises du processus de production de cet espace de connaissance dont le potentiel est « à prolonger, actualiser » (p. 78).

111

Enfin, Dominique Cotte et Marie Després-Lonnet étudient ce que devient le document lorsqu’il est numérique. Ils en analysent les spécifications et recherchent les causes de l’« engouement » actuel pour cet objet, dont ils soulignent la complexité.

Pratiques sociales et organisationnelles

112

Dans la seconde partie, trois cas concrets sont présentés, débouchant chacun sur l’étude de situations d’échanges ou de transactions entre différents acteurs. Qu’il s’agisse de la circulation documentaire en entreprise comme analyseur de pratiques professionnelles, d’un entretien annuel d’évaluation ou encore de l’observation des pratiques de production, circulation et échanges de documents sur le lieu de création d’un site web sur l’environnement, le document apparaît comme support et moyen de structuration d’une collectivité, quelles qu’en soient l’étendue et la nature.

Histoires

113

Enfin, le document est considéré sous l’angle historique, comme élément de mémoire constitué et utilisé à des fins idéologiques. C’est ainsi que les portraits photographiques de détenus d’une prison brésilienne au XIXe siècle renforcent l’information sur les prisonniers et contribuent à stigmatiser ceux-ci aux yeux de l’institution. La « mémoire institutionnelle » construite sur les prisonniers (p. 152) se renforce de ces images figées. Dans le second exemple, c’est le cas du dossier personnel de la Securitate roumaine entre 1945 et 1989 et ses conditions d’interprétation comme « œuvre » qui y est analysé. Un modèle d’approche du document et de sa signification comme « enjeu social » (p. 173) est proposé par Stefan Bratosin. Identifier comment « élaborer le concept de mémoire en science de l’information-documentation » (p. 177) conduit Maria de Fátima Gonçalves, Moreira Talamo et Johanna W. Smit d’une part à proposer une définition et une typologie de la mémoire, d’autre part à revisiter les propositions d’organisation de la connaissance de Vannevar Bush et de Paul Otlet – classification et langage documentaire – pour retrouver le concept de mémoire qui y est implicite.

114

Cette série « Histoires » se clôt avec l’hypothèse formulée par Marilda Lopes Ginez de Lara et Cristina Dotta Ortega, selon laquelle la construction du document et ses aspects formels deviennent « plus évidents et transparents avec la production du document électronique » (p. 193). Après un rapide historique de la production de documents à partir de l’activité des copistes médiévaux jusqu’à l’apparition de la technologie électronique, ils étudient les changements apportés par celle-ci, en particulier la création de liens hypertextuels entre les objets d’un système, l’utilisation du langage de balisage (p. 194) et, surtout, le changement des conditions de réception – ouvrant ainsi le champ de nouvelles recherches.

115

De copieuses bibliographies accompagnent les diverses contributions dont on ne doute pas qu’elles inspireront maintes réflexions.

116

Claire Guinchat

Au nom de l’antiterrorisme : les bibliothèques américaines face à l’USA Patriot Act /. Philippe Cantié ; préface de Michel Melot, Villeurbanne : Presses de l’Enssib, 2006. – 264 p. – ISBN 2-910227-64-2 : 40 €

Une histoire à suivre

117

A L’HEURE OU LA LOI ANTITERRORISTE française pourrait obliger certaines bibliothèques ou espaces numériques à conserver leurs logs de connexion, on ne peut manquer de souligner, à l’instar du Michel Melot, auteur de la préface de ce livre, que « les bibliothécaires français ne doivent pas regarder avec indifférence les mesures sécuritaires prises par le gouvernement américain après le 11 septembre 2001 ».

118

On lira de ce fait avec grand intérêt les cinq chapitres de cet ouvrage issu d’un mémoire de fin d’études rédigé par un conservateur stagiaire de l’Enssib. Ils décrivent successivement le climat politique aux États-Unis après la destruction des Twin Towers, le contenu du Patriot Act, son impact sur la société américaine et les usagers des bibliothèques, la gestion des données personnelles en bibliothèque ainsi que la « riposte » des associations américaines de bibliothécaires.

119

Philippe Cantié fait ressortir les points essentiels de cette loi qui, ratifiée dans l’urgence dès le 26 octobre 2001, compte tout de même 350 pages et dix chapitres. D’une « exceptionnelle étendue » tant dans les champs concernés que par les pouvoirs qu’elle confère à l’administration, elle affaiblit considérablement le pouvoir judiciaire. Si elle ne vise pas expressément les bibliothèques, la clause 215 dite Library Clause en est « une des dispositions les plus emblématiques ».

120

On découvre aussi dans ce livre la société américaine et ses paradoxes, la manière dont elle aborde les questions de l’information et des libertés individuelles, et la perception qu’elle a des bibliothèques.

121

L’auteur analyse finement toutes les attitudes des bibliothécaires et les lignes de conduite adoptées pour éviter tout excès dans l’application de la loi ou se trouver « piégé dans des cas de conscience insolubles » ; il note les « débordements » sur le Canada, pays voisin, souligne notamment qu’il faut se méfier des « discours tonitruants qui restent lettre morte » ou que « militer pour l’abrogation n’est pas forcément la bonne attitude à avoir ».

122

Quelques citations qui confirment, si besoin était, que la situation est particulièrement complexe et qu’elle ne saurait se résoudre par quelques prises de position très tranchées. Pour « aider le lecteur à se forger sa propre conviction », ce travail universitaire minutieux et très documenté, fruit d’un séjour prolongé dans une bibliothèque universitaire américaine, reprend une série de travaux personnels (enquêtes, entretiens, consultations de sites, analyses de la littérature et nombreuses traductions).

123

Une histoire à suivre car « l’abrogation n’est [toujours] pas à l’ordre du jour » et parce que la question reste ouverte en Europe…

124

Michèle Battisti

Droit des propriétés intellectuelles. Jean-Michel Bruguière, Paris : Ellipses, 2006. – 144 p. – (Mise au point). – ISBN 2-7298-2587-8 : 11 €

Des explications claires, concises et argumentées

126

UN PEU PLUS DE CENT QUARANTE PAGES pour faire le point sur les règles si différentes de la propriété littéraire et artistique et de la propriété industrielle – voilà le défi relevé avec brio dans cet ouvrage par Jean-Michel Bruguière.

127

Quelques pages d’introduction permettent de présenter les principaux textes sur lesquels se fonde la propriété intellectuelle, le poids croissant de ce droit mais aussi ses limites, liées à d’autres modes de protections juridiques ou à des questions économiques et sociétales.

128

Une première partie s’attache à définir ensuite les contours des œuvres et des inventions, objets de la protection, à donner des justifications sur l’absence de protection des idées ou à rappeler la distinction à établir entre invention et découverte. Le chapitre suivant aborde les conditions de la protection, ce qui amène l’auteur à évoquer plusieurs notions, notamment celles d’ordre public et de destination, ou les multiples difficultés liées à l’appréhension de l’originalité qui glisse irrémédiablement vers l’appréhension d’un simple apport intellectuel. Quant au troisième chapitre, il détaille la grande variété des régimes qui définissent les titulaires de ces créations, simples ou plurales.

129

Dans une deuxième partie, consacrée à l’exploitation des droits, sont décrits tous les droits patrimoniaux et moraux dont peuvent se prévaloir les ayants droit ainsi que les limites, dans le temps et dans l’étendue, apportées à ces prérogatives. Le chapitre suivant présente différents acteurs, qu’il s’agisse d’autorités administratives ou judiciaires pour la propriété industrielle ou des sociétés de gestion collective pour la propriété littéraire et artistique, ainsi que la notion, ô combien importante ! de territorialité.

130

On accordera sans doute une attention toute particulière à la partie qui aborde ensuite la gestion collective et le contrat, deux outils indispensables à la gestion des droits patrimoniaux. Mais que seraient des droits sans sanction ? Le dernier chapitre, présente tout naturellement la variété des actes de contrefaçons et les différentes étapes de l’action qui vise à les combattre.

131

Cet ouvrage a le considérable mérite de présenter des règles nombreuses et souvent complexes de manière concise et claire, notamment en s’appuyant sur plusieurs exemples qui ont donné lieu à des procès. On appréciera sans nul doute aussi les nombreuses analyses dont il est émaillé, destinées à mieux comprendre la finalité de ces règles ou la variété des interprétations. L’auteur, qui n’a pas éludé plusieurs débats en cours, comme la question de la brevetabilité du logiciel ou du vivant, ou le poids des impératifs économiques, a par ailleurs veillé à prendre systématiquement des positions solidement argumentées.

132

Michèle Battisti

Notes

[1]

Conception et gestion des systèmes documentaires, Les Éditions d’Organisation, 1979, page 87.

[2]

Cette contribution peut être considérée comme un complément à l’ouvrage de Brigitte Guyot récemment paru chez le même éditeur : Dynamiques informationnelles dans les organisations, Hermès-Lavoisier, 2006. [Voir l’analyse parue dans notre numéro d’octobre 2006, vol. 43, n° 3-4, p. 252.]

[3]

Voir page 75.

[4]

On peut toutefois citer : Cédrick Fairon, Jean-René Klein et Sébastien Paumier, Le langage SMS, Presses universitaires de Louvain, 2006.

[5]

La science de l’information ou le poids de l’histoire, 24 mars 2006, http:// w3. u-grenoble3. fr/ les_enjeux/ 2005/ Fondin/ home. html

[6]

Muriel Amar, Les fondements théoriques de l’indexation : une approche linguistique. Muriel Amar, ADBS Éditions, 2000 (Sciences de l’information, Série Recherches et documents).

[7]

Certains de ces textes, en particulier ceux de P. Enjalbert et de B. Victorri, se trouvent dans l’archive HAL-SHS (http:// halshs. archives-ouvertes. fr/ ).

Titres recensés

  1. Terminologie et accès à l’information. Sous la direction de Widad Mustafa El Hadi, Paris : Hermès Science Publications : Lavoisier, 2006. – 262 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-1295-1 : 75 €
    1. Une étude indispensable aux terminologues comme aux documentalistes
      1. Terminologie et organisation des savoirs
      2. Indexation et recherche d’information
      3. Organisation des connaissances, représentation du contenu, systèmes d’informations avancés
      4. Réévaluation de la problématique de l’accès à l’information
      5. Quelle relation entre terminologie et accès à l’information ?
  2. Compréhension des langues et interaction. Sous la direction de Gérard Sabah, Hermès Science Publications : Lavoisier, 2006. – 400 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1256-0 : 120 €. Sémantique et traitement automatique du langage naturel. Sous la direction de Patrice Enjalbert Paris : Hermès Science Publications : Lavoisier, 2005. – 410 p. – (Traité IC2, série Cognition et traitement de l’information). – ISBN 2-7462-1126-2 : 120 €
    1. Traitement automatique du langage naturel et accès à l’information
      1. Compréhension des langues et interaction
      2. Sémantique et traitement automatique du langage naturel
      3. Pour nourrir une réflexion sur l’architecture des systèmes documentaires
  3. Net recherche : le guide pratique pour mieux trouver l’information utile. Véronique Mesguich et Armelle Thomas, 2e éd. augm. et mise à jour. – Paris : ADBS Éditions, 2007. – 159 p. – (Sciences et techniques de l’information, ISSN 1762-8288). – ISBN 978-2-84365-093-2 : 23 €
    1. Un guide précis, détaillé et à jour
  4. Dictionnaire de l’image. Sous la direction de Françoise Juhel ; Anne Goliot-Lété, Martine Joly, Thierry Lancien, Isabelle-Cécile Le Mée, Francis Vanoye, Paris : Vuibert, 2006. – 398 p. – ISBN 978-2-7117-8441-7 : 43 €
    1. De Lascaux au numérique via Hollywood
      1. Une ouverture sur un ensemble de savoirs, de réflexions, de pratiques différentes
  5. Révolution numérique et industries culturelles. Alain Le Diberder et Philippe Chantepie, Paris : La Découverte, 2005. – 122 p. – (Repères ; 408). – ISBN 2-7071-4511-4 : 7,95 €
    1. Pour mieux comprendre notre environnement culturel
      1. Une mutation sans précédent des industries culturelles
  6. Bibliothèques et documents numériques : concepts, composantes, techniques et enjeux. Alain Jacquesson et Alexis Rivier, Nouv. éd. – Paris : Électre-Éditions du Cercle de la librairie, 2005. – 573 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0915-3 : 42 €
    1. Toutes les dimensions de l’univers numérique pour la bibliothèque du futur
  7. La « Société de l’Information » : entre mythes et réalités. Sous la direction de Michel Mathien ; préface de Michèle Gendreau-Massaloux, Bruxelles : Bruylant, 2005. – 435 p. – (Médias, Sociétés et Relations Internationales ; 2). – ISBN 2-8027-2039-2 : 35 €. Sociétés de l’information : enjeux économiques et juridiques. Sous la direction de Philippe Barbet et Isabelle Liotard ; préface de Nicolas Curien, Paris : L’Harmattan, 2006. – 248 p. – ISBN 2-296-00928-X : 22,50 €
    1. De multiples questions sur la société de l’information
      1. Mythes et réalités
      2. Enjeux économiques et juridiques
  8. Dimensions sociales du document. Coordonné par Caroline Courbières et Gérard Régimbeau, Toulouse : Presses universitaires du Mirail, 2006. – P. 1-202. Numéro de : Sciences de la société, ISSN 1168-1446, mai 2006, n° 68. – ISBN 2-85816-847-4 : 20 €
    1. « La pâte sociale où est incrusté le document »
      1. Théories
      2. Pratiques sociales et organisationnelles
      3. Histoires
  9. Au nom de l’antiterrorisme : les bibliothèques américaines face à l’USA Patriot Act /. Philippe Cantié ; préface de Michel Melot, Villeurbanne : Presses de l’Enssib, 2006. – 264 p. – ISBN 2-910227-64-2 : 40 €
    1. Une histoire à suivre
  10. Droit des propriétés intellectuelles. Jean-Michel Bruguière, Paris : Ellipses, 2006. – 144 p. – (Mise au point). – ISBN 2-7298-2587-8 : 11 €
    1. Des explications claires, concises et argumentées

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information, 1/2007 (Vol. 44), p. 96-114.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2007-1-page-96.htm
DOI : 10.3917/docsi.441.0096


Article précédent Pages 96 - 114
© 2010-2014 Cairn.info
back to top
Feedback