Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2006/2 (Vol. 43)

  • Pages : 86
  • DOI : 10.3917/docsi.432.0158
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 158 - 173

Les attracteurs informationnels : information et savoir dans l’entreprise, Alain Tihon, Paris : Descartes et Cie, 2005. – 169 p. – (Interface-économie). – ISBN 2-84446-091-7 : 18 €

Une vision originale des processus informationnels dans l’entreprise

1

AVEC CET OUVRAGE AU TITRE ÉVOCATEUR, Alain Tihon nous livre un contenu riche, argumenté, fourmillant d’exemples concrets sur les processus informationnels dans l’entreprise, et qui devrait bénéficier aux professionnels de l’information. Diplômé en sciences économiques appliquées, l’auteur a exercé diverses fonctions de management (notamment dans le secteur bancaire) touchant à la gestion des informations. Il est consultant en stratégies de l’information et gestion des connaissances ainsi qu’en réingénierie des processus informationnels.

Critiques et remises en causes

2

Le livre est organisé en six grandes parties. La première, intitulée « Les balises », expose les raisons de l’intérêt de l’auteur pour l’information (« D’aussi loin que je me souvienne, j’ai été attiré par l’information »...) qu’il compare fort justement à l’eau qui irrigue, submerge ou disparaît pour laisser place au désert. De nos jours, l’information semble perdre singulièrement de sa saveur et disparaît sous un emballage chatoyant : bref, le fond est délaissé pour laisser place à la forme. Plus grave encore, elle est manipulée, uniformisée, conditionnée pour constituer un discours plus ou moins insipide : la critique est sévère, mais finalement assez juste. L’auteur donne des conseils qui devraient être prodigués le plus tôt possible par les enseignants à leurs lycéens et étudiants, afin que ceux-ci puissent se forger leur propre opinion par rapport à tel ou tel événement : ne pas se contenter d’une information tronquée, lire plusieurs quotidiens de presse d’opinions diverses, comparer les informations, les analyser, se forcer à l’objectivité. N’est-ce pas là, aussi, le rôle de tout documentaliste ?

3

Alain Tihon remet en cause les enseignements dispensés dans les écoles de management (en tant qu’ancien banquier, il est tout à fait à même de donner son avis). « L’entreprise n’est pas le modèle rationnel, ordonné et efficace » que l’on croit : les enjeux de pouvoir, les luttes personnelles, collectives ou idéologiques contredisent ces enseignements. À l’appui de ces affirmations, les principes de Parkinson et de Peter sont cités en exemple, notamment par rapport au degré d’incompétence de certains employés qui a tendance à augmenter plutôt qu’à diminuer. L’auteur aborde ensuite ce qu’il appelle « les grappes informationnelles » : elles sont constituées de tout ce qu’un individu véhicule en termes de préjugés, d’opinions diverses, de clichés… Des slogans, sans cesse lancés ou repris par la presse, tels « mondialisation » ou « nouvelle économie », cachent une réalité souvent mal comprise et qu’il faut aborder avec un esprit critique. De même en entreprise. Cependant l’auteur ne souhaite pas analyser ces phénomènes (d’autres le font très bien, selon lui), il souhaite plutôt se pencher sur le « phénomène information » proprement dit : « phénomène non linéaire » dont « l’approche est plutôt globale et non causale » et où la logique n’est pas toujours évidente.

4

La deuxième partie, « Orientations et définitions », précise quelques notions, donne les éclaircissements – les « blocs de construction » – auxquelles le livre se réfère, notamment par rapport à la connaissance et au savoir avec les théories de Nonaka et Takeuchi. L’entreprise est dans un « bain informationnel » et le système d’information permet l’interconnexion des données, de l’information et des connaissances : le facteur humain apparaît comme essentiel, avec une dose importante de subjectivité. L’interaction entre la culture de l’organisation, son environnement, le savoir-faire humain, les structures et les technologies fait émerger information et connaissance. La troisième partie envisage « L’entreprise comme système d’information » : celle-ci produit, reçoit et crée de l’information en permanence. Le passage de l’implicite à l’explicite est constant. Même si la technologie accentue la fluidité, la tendance à se reposer sur elle est une limite en soi.

La notion d’attracteurs informationnels

5

Donnant son titre à l’ouvrage, la quatrième partie se réfère à la réflexion menée dans les années soixante par Edward Lorenz, mathématicien et météorologue américain. Même dans un monde en proie au chaos, une sorte d’ordonnancement se met en place sous forme d’une spirale qui se répète à l’infini, avec des points de croisements. Alain Tihon applique cette notion d’attracteurs informationnels aux processus d’information et de création de connaissance en distinguant plusieurs types d’attracteurs : le partage, la tension, la rupture, et en proposant des exemples précis pour chacun d’entre eux. La cinquième partie, « La recherche d’un attracteur informationnel », évoque ce qui est implicite dans l’information, la part d’incertitude et de complexité inhérente à celle-ci. Afin de découvrir l’attracteur informationnel de l’entreprise, l’auteur propose de réunir un groupe de projet constitué de personnes-clés, sensibilisées au partage de l’information. L’objectif est de dresser une carte du système informationnel qui signale les points d’entrée et de sortie, les chemins pris et les points de croisement. Une analyse de la situation existante pourra ensuite être réalisée et distinguera les processus génériques de l’entreprise (qui concernent sa gestion) et les usages informationnels. Partage, rupture et tension seront alors mis en évidence.

6

La sixième et dernière partie, « La gestion de l’information », annonce, à l’évidence, que l’information dans l’entreprise doit être gérée, tâche qualifiée de « complexe » – ce qu’aucun professionnel de l’information ne contestera. Les données produites ou reçues doivent être rendues utilisables pour être distribuées ; l’information partagée permet alors de créer des connaissances qui, elles-mêmes, se transforment. L’importance des attracteurs informationnels est rendue plus évidente car ils permettent de mieux se rendre compte des points de partage d’information sur la carte du système informationnel.

Une réflexion fondée sur l’expérience

7

Voici donc résumées les idées principales développées ici par Alain Tihon. Même si sa vision de l’information dans l’entreprise n’est pas novatrice ou innovante (de nombreux auteurs avant lui ont fait cette analyse), c’est surtout sa manière d’aborder les concepts qui est nouvelle et attractive. Avec un vocabulaire simple et concret, il relie entre elles des notions parfois complexes et les rend soudain beaucoup plus évidentes. Il introduit également la réflexion de nombreux auteurs qui apparaissent généralement peu dans ce type d’ouvrage, des philosophes ou des scientifiques. Il s’appuie enfin sur des exemples concrets et sur sa propre expérience de gestionnaire. Même si le dernier chapitre consacré à la gestion de l’information risque de paraître un peu rapide et superficiel à ceux qui font métier de la gérer quotidiennement, cet ouvrage dans son ensemble présente trop d’intérêt pour être négligé ou considéré comme un nième document sur un sujet éculé. On ne saurait trop recommander cette lecture : les professionnels de l’information peuvent en extraire des idées, mieux comprendre leur place dans le système d’information de l’entreprise et proposer des améliorations.

8

Jean-Philippe Accart

Critique de la raison numérique, Coordonné par Virginie Paul et Jacques Perriault, avec la collaboration de Anne-Nelly Perret-Clermont, Paris : CNRS Éditions, 2004. – 272 p. Numéro de : Hermès : cognition, communication, politique, ISSN 0767-9513, 2004, n° 39. – ISBN 2-271-06245-4 : 25 €

Des méthodes, des réflexions,des auteurs stimulants

10

L’INTRODUCTION INTITULÉE « PRATIQUES d’information et de communication : l’empreinte du numérique » (p. 9-16) permet aux coordonnateurs de ce numéro d’en expliquer la genèse. Orienté dans un premier temps sur la seule notion de « pratiques d’information et de communication », la « polysémie perfide » de cet intitulé s’est traduite dans les réponses reçues à la suite de l’appel à contribution. Elle a conduit les responsables de ce document à ajouter à son titre cette « empreinte » créée par l’univers numérique (informatique et internet) qui réquisitionne aujourd’hui les chercheurs.

11

Pour comprendre cette « réquisition », Virginie Paul et Jacques Perriault ordonnent les textes courts (huit pages environ, et résumés en fin d’ouvrage) autour de quatre thématiques : « Pratiques numériques et lien social » (p. 19-49), « Pratiques d’information sous influence » (p. 51-83), « L’utilisateur formaté » (p. 85-123), « Résister. Domestiquer » (p. 125-183). Le point de rencontre de ces thématiques concerne l’interrogation sur l’homme, comme le prouvent les nombreuses enquêtes menées par les auteurs.

Pratiques numériques et lien social

12

Mikaël Gléonnec ouvre la première partie avec une affirmation très explicite : « Travailler ensemble à distance : une question de confiance ». Il le démontre à partir d’une enquête qualitative menée auprès de manageurs et de chercheurs de la Silicon Valley. « Trouver sur Internet une réponse à une question » intéresse Thierry Meyer et Carole Rodon qui exposent les principales étapes de la construction d’une méthode d’auto-efficacité pour rechercher une information sur ce réseau qui a réponse à tout !

13

Claude Henry enchaîne avec « Tic et pratiques collectives : nouveaux liens, nouveaux outils ». Une nouvelle génération d’outils pourrait faciliter une nouvelle forme de liens sociaux économiques ou politiques. C’est pourquoi l’auteur conclut en interpellant décideurs politiques et techniciens de réseaux pour attirer leur attention sur le renouvellement des liens sociaux observés. L’étude de cas sur « Les TIC dans une université : offre homogène, résultats contrastés » permet à Paul Light et Virginie Light de comprendre l’impact très différencié des technologies de l’information sur des étudiants et d’en comprendre les raisons.

Pratiques d’information sous influence

14

L’utilisateur est submergé par la masse d’informations et les dispositifs de recherche. La deuxième partie de cette publication se préoccupe de lui. Claude Chabrol et Aurélie Neau regardent avec lui les « Archives audiovisuelles : stratégies de recherche ». Ces dernières (consultation, visualisation, prise de notes, etc.) sont observées à travers les utilisateurs des outils et logiciels proposés par l’INA. « La vulgarisation scientifique : les revues en ligne » constitue, par la suite, le domaine de préoccupations de Mônica et Jean-François Macedo-Irouet avec la participation de Isaac Epstein et Pierre Fayard. Il ressort de cette étude que le lecteur préfère encore la version papier pour la compréhension et la charge cognitive. Il n’y a pas pour autant de refus a priori de la technologie, mais la lecture sur écran reste problématique et difficile.

15

Dans le même sens, Charles Crook, avec David Barrowcliff, affirme : « La formation en ligne mieux que l’enseignement classique… un pari hasardeux ». Qu’arriverait-il si les universités en béton étaient remplacées par « quelque chose d’électronique » ? Au terme de leurs observations, les auteurs concluent : « Il reste de la marge pour perfectionner des protocoles d’apprentissage virtuel, mais cela devra reposer sur une recherche plus approfondie. » Enfin, Alain Milon conclut cette deuxième partie en examinant « Hyperdocuments et hypercartes, vers une modélisation de l’écriture » pour dénoncer quelques stéréotypes et les innovations réduites liées aux hyperdocuments.

L’utilisateur formaté

16

L’utilisateur est encore au centre de la troisième partie de ce numéro. Mais ce n’est plus l’utilisateur surinformé. C’est l’utilisateur formaté qui entre ici en scène. Brigitte Juanals décrit un modèle du lecteur électronique examiné dans sa consultation d’encyclopédies en ligne. Les évolutions éditoriales favorisent une individualisation du lecteur et une personnalisation de ses pratiques, affirme-t-elle au terme de cet examen. La lecture et le rôle des signes-vecteurs (cadres, bords, marges, etc.) sont analysés par Annette Béguin-Verbrugge dans le cadre de la communication graphique. Cela l’entraîne à percevoir, « face à l’ordre culturel, le contre-pouvoir du lecteur ». « L’information dans un cédérom et dans une brochure : la signalisation périphérique » est étudiée par Daniel Martins, avec la participation d’Alexandra Ciaccia. La signalisation, dans les deux types de supports retenus, joue un rôle décisif, comme le prouvent les collégiens observés.

17

« Écrits de réseaux, écrits en strates : sens, technique, logique » sont à l’origine de plusieurs postulats, posés par Dominique Cotte, qui débouchent à contre-courant des images marines qu’inspire la navigation sur Internet, avec la nécessité pour les chercheurs d’effectuer « des carottages dans les strates de pratiques… ». L’étude suivante, signée par Asa Mäkitalo et Roger Säljö s’intéresse aux « Mécanismes socio-cognitifs et communication : les catégories techniques dans le discours ». Celles-ci sont utilisées comme outils pour fabriquer du sens, contextualiser et coordonner des perspectives et des activités ; elles représentent « une caractéristique essentielle de notre savoir culturel ».

Résister. Domestiquer

18

Pour ce faire, Jérôme Dinet et Jean-Michel Passereault décrivent « La recherche documentaire informatisée à l’école », du point de vue de la psychologie cognitive. Le schéma corporel et la motricité y font leur apparition. Les « Experts dans le domaine, experts en Internet : les effets sur la recherche d’information » permettent à Madjid Ihadjadene et Daniel Martins de prouver, comme on pourrait s’y attendre, que l’expert, qu’il le soit dans le domaine de sa discipline ou dans la maîtrise d’Internet, obtient de meilleurs résultats que le profane. Manipuler les techniques numériques s’inscrit dans un espace-temps qui nécessite gestion et coordination de la part de l’utilisateur. C’est ce que démontre Luc Jaëcklé dans « La temporalité des médias dans l’apprentissage ». Est-il possible de « Faciliter la consultation de textes scientifiques par de nouvelles pratiques éditoriales ? » Valentine Roux, avec la participation de Philippe Blasco, s’efforce de le prouver. Pascale Marro éclaire, quant à elle, à travers une analyse socio-cognitive, la façon dont le procédural s’inscrit dans les pratiques et permet de « Résoudre un problème de fabrication assistée par ordinateur ».

19

Stéphane Chaudiron et Madjid Ihadjadene présentent l’apport des sciences cognitives à l’évaluation des systèmes de recherche d’information. Quatre modèles illustrent le fait que l’enjeu n’est pas seulement de comprendre le comportement des usagers mais aussi d’offrir un modèle plus général expliquant l’interaction entre l’usager et l’information. L’abduction désigne une sorte de raisonnement qui permet d’expliquer un phénomène ou une observation à partir de certains faits. Nous la pratiquons chaque fois que nous cherchons les causes d’un phénomène ou d’un fait surprenant. C’est « L’abduction : une pratique de la découverte scientifique et littéraire » qu’analyse Sylvie Catellin en s’appuyant sur des exemples empruntés à la science, à la littérature, à l’épistémologie et à l’esthétique. Ces exemples soulignent la pertinence d’une approche transdisciplinaire de ce mode de découverte.

Pluridisciplinarité : je t’aime, moi non plus

20

C’est sous ce titre que, clôturant cet ensemble de contributions, deux textes proposent des réflexions sur les cadres de référence pour étudier les pratiques et ouvrent un débat sur les rapports possibles entre sciences psychologiques et sciences de l’information et de la communication. Ainsi le regretté Jean Devèze, à qui est dédiée cette publication, raconte « Abraham Moles, un exceptionnel passeur transdisciplinaire » et Alex Mucchielli s’interroge sur les « Pratiques de communication dans le management : domaine de la psychologie ou domaine des SIC ? » Il y a là, conclut l’auteur, deux visions scientifiques qui n’ont rien en commun et qui se situent dans deux mondes « incommensurables ». Le dialogue doit pourtant s’engager pour aider à comprendre de façon plus approfondie les pratiques de communication managériales.

Beaucoup de champ aux humains…

21

Les analyses critiques d’ouvrages qui clôturent cette étude confirment son haut niveau scientifique mais aussi sa nature essentiellement pluridisciplinaire. Les horizons très différents des auteurs qui y apportent leur contribution le prouvent également. Ce travail est, en effet, destiné à un public très étendu présent dans les domaines des sciences sociales au sens large, des sciences de l’information et de la communication, des sciences de l’éducation. Il est également destiné à des publics de niveaux très différenciés : un étudiant inscrit en première année comme un enseignant ou un chercheur trouveront dans ces textes des informations, des réflexions, des exemples, des pistes pour ouvrir de nouvelles recherches.

22

Dans tous les cas, ces lecteurs apprécieront les textes courts et denses au vocabulaire simple et à la fois savant, au style concis et direct. Suivant leurs orientations, certaines communications leur seront plus ou moins faciles d’accès et/ou utiles dans leurs cursus professionnels. Ce travail est très intéressant : il éveille la curiosité par la multitude d’auteurs de tous les temps qui y sont cités, les méthodes d’enquête qui y sont décrites, les réflexions sur le futur. Le lecteur ne s’ennuie pas : il peut lire, dans un ordre qu’il est libre de déterminer, les textes qui se complètent mais qui se suffisent également à eux-mêmes. On aimerait que des productions de ce genre voient plus souvent le jour : à travers le dialogue engagé avec les auteurs, elles aident à comprendre que la critique de la raison numérique « laisse du champ aux humains, beaucoup, aux ordinateurs, pas du tout pour l’instant ».

23

Marie-France Blanquet

Manuel de bibliographie générale, Marie-Hélène Prévoteau et Jean-Claude Utard, Nelle éd. – Paris : Éditions du Cercle de la librairie, 2005. – 524 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0912-9 : 44 €

Un indispensable classique profondément rénové

25

IL EST PARFOIS UTILE DE REPRÉCISER LES fondamentaux d’une pratique professionnelle. Cette nouvelle édition d’un manuel qui fait autorité depuis longtemps s’ouvre ainsi par la définition de concepts aussi manipulés que ceux d’« information », de « document », et de « recherche documentaire » dont les auteurs estiment qu’il a peu à peu détrôné le terme de « recherche bibliographique ». Redéfinir ces termes permet aussi de passer en revue les différents supports d’information, de remettre en question la notion traditionnelle de « permanence » attachée au document et de proposer de celui-ci une définition élargie (cf. les travaux du STIC du CNRS, p. 17, note 2). De même, la notion de « recherche bibliographique » se voit étendue jusqu’à devenir « une technique de communication » entre utilisateurs et professionnels, leur maîtrise des techniques et de l’offre donnant à ces derniers la capacité de fournir aux premiers une méthode de recherche.

26

Le second chapitre est consacré à l’organisation de cette offre, imprimée ou informatisée, dans deux types d’outils bien différents : annuaires, catalogues et bibliographies d’une part, dictionnaires et encyclopédies d’autre part. Les modes de classement, d’accès et de mise à jour des informations qu’ils proposent sont rappelés. Un rappel bref mais précis est fait de la méthodologie de la recherche dans les services informatisés : bases de données, serveurs et réseaux de télécommunication (p. 48-55).

27

La transition est ainsi faite avec l’utilisation d’Internet pour la recherche documentaire (p. 57-88). Les principaux outils en sont passés en revue : annuaires de recherche, moteurs de recherche par mots clés, métamoteurs, sites experts. Un paragraphe bienvenu insiste sur la nécessité d’évaluer les sites disponibles et en donne les moyens (cf. en annexe p. 493 la grille d’analyse d’un site Internet).

28

Chacun des chapitres suivants est consacré à l’examen détaillé d’une catégorie d’ouvrages de référence, correspondant à un type de demande. En ce qui concerne « les ouvrages de référence synthétiques », dictionnaires et encyclopédies, dictionnaires spécialisés, soit de langue, soit biographiques, annuaires enfin, leur description technique est précédée d’une définition conceptuelle et d’un court historique replaçant le genre dans la période sociale et idéologique qui le sous-tend. On passe ensuite à une seconde catégorie de sources, correspondant à un type d’activité. Les acquisitions, de quelque document que ce soit, de l’ouvrage imprimé au cédérom, nécessitent bibliographies commerciales, répertoires et presse spécialisée – minutieusement présentés, au moins pour la production américaine et européenne.

29

L’identification se taille la part du lion (p. 301-422) et une large partie de ce chapitre est consacrée aux nouveaux sites d’accès aux articles de périodiques. La localisation exige la coopération entre organismes et la réalisation de catalogues collectifs. Ils sont examinés ici pour la France, puis pays par pays et au niveau international, avec le Worldcat, mis en place par l’OCLC pour tous les types de documents, et le RLG Union Catalog, spécialisé dans la recherche scientifique. On lira avec intérêt les quelques pages consacrées au mouvement en faveur des « archives ouvertes » en libre accès et aux « agrégateurs » déjà en fonction (p. 459-461).

30

Enfin, l’adaptation et la mise à jour des connaissances passent par deux types d’outils : les ouvrages de référence indispensables pour constituer ou enrichir un fonds et les revues professionnelles, « instruments de recherche et de formation permanente » (p. 469). Sont donc répertoriés divers bibliographies et annuaires de sites Internet ainsi que la presse spécialisée en sciences de l’information et bibliothéconomie.

31

La conclusion s’interroge sur la place future et l’utilité du bibliothécaire et du documentaliste. Sont-elles menacées par Internet et l’utilisation de plus en plus importante qu’en font les publics les plus variés et les moins avertis ? Sans doute pas. Comme l’indique Marc Maisonneuve (cité p. 488), « la multiplication des ressources électroniques renforce le besoin d’un médiateur professionnel ». Encore faudra-t-il, concluent les auteurs, que celui-ci continue de se former et coopère étroitement avec le public et avec ses pairs.

32

Une bibliographie thématique et deux index (concepts et auteurs/titres) complètent cet ouvrage indispensable. Outre les renseignements incontournables qu’il offre, il permet de dépasser la simple technique et de réfléchir sur les instruments de notre métier et sur leur usage.

33

Claire Guinchat

Les systèmes de recherche d ’informations: modèles conceptuels, Sous la direction de Madjid Ihadjadene, Paris : Hermès Science Publications : Lavoisier, 2004. – 216 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0821-0 : 65 €.Méthodes avancées pour les systèmes de recherche d’informations, Sous la direction de Madjid Ihadjadene, Paris : Hermès Science Publications : Lavoisier, 2004. – 247 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0846-6 : 80 €

Deux ouvrages complémentaires sur la recherche d’information

34

DANS LA COLLECTION « TRAITÉ DES SCIENCES et techniques de l’information » des éditions Hermès-Lavoisier, deux ouvrages (datant déjà de 2004), dirigés et rédigés par des chercheurs en sciences de l’information et de la communication, abordent les différents aspects de la recherche d’information sous l’angle des systèmes informatisés. Le premier volume est consacré aux modèles théoriques utilisés dans la recherche automatisée d’informations. Le deuxième traite des systèmes de recherche d’informations (utilisés ou objets de recherches) sur le web. Rédigé par un ou deux chercheurs, chaque chapitre définit, explique, fait le point sur les connaissances actuelles et est complété par une bibliographie. Un index matières et le rappel de la table des matières de l’autre volume assurent un lien entre les différentes contributions.

35

Modèles conceptuels

36

Le premier volume présente un « état de l’art des principaux systèmes de recherche d’informations en usage […] sur les serveurs classiques (où l’information est analysée et structurée) » et une étude des « modèles théoriques et [de] leur adéquation aux problèmes posés par la recherche interactive d’information. »

37

En premier lieu est abordé le modèle booléen, avec ses possibilités de formulation de requêtes et d’élaboration de stratégies de recherche, ainsi que ses extensions (booléen étendu, logique floue). Le chapitre suivant est consacré aux modèles vectoriels et à ses technologies statistiques. Viennent ensuite les modèles probabilistes et leurs extensions, les modèles utilisant le connexionisme et la génétique dans une approche fondée sur les réseaux de neurones et les algorithmes génétiques pour résoudre certains problèmes du processus de recherche d’informations (RI). Dans le cinquième chapitre on peut découvrir la modélisation logique pour la RI (arbres sémantiques, formalisme des logiques terminologiques et modèle des graphes conceptuels). Les difficultés liées au traitement du langage naturel puis les modèles de langue en linguistique informatique et en RI sont traités dans les chapitres suivants. Le dernier fait un état de l’évaluation des système de RI, de leur performance de recherche avec les mesures d’évaluation les plus utilisées (des tests de Cranfield aux campagnes TREC).

Méthodes avancées de recherche sur le web

38

Le deuxième volume propose un « état de l’art des méthodes et des fonctionnalités avancées indispensables à tout accès intelligent et personnalisé à l’information » sur le web.

39

Y sont abordés les différents modes de navigation hypertextuelle, puis la RI dans des documents en XML : présentation des langages XPath (langage d’interrogation booléen) et XQuery (langage pour construire une réponse structurée). Le chapitre 3 est consacré aux langages de métadonnées pour le (ou les) web(s) sémantique(s), avec une réflexion sur la division du travail entre homme et machine dans l’accès aux contenus, puis à un modèle de description de métadonnées et à un aperçu des différentes alternatives des modèles de visualisation interactive d’information. Les chapitres suivants traitent de la « classification de documents et de l’enrichissement de requêtes » pour pallier les difficultés dues aux différences entre les vocabulaires employés par les auteurs des textes et par la personne qui formule une requête ; puis de « visualisation d’information et interaction » pour faciliter la manipulation et l’interprétation de données informatiques grâce à une représentation de l’information utilisant les caractéristiques du système visuel humain.

40

Le sixième chapitre fait le point sur les technologies des systèmes de recherche d’information multilingues et interlingues : systèmes d’indexation et de recherche multilingues capables, à partir d’une requête dans une seule langue, de trouver des documents exprimés dans plusieurs langues. Après le « filtrage d’information », personnalisation des systèmes d’accès à l’information (conception d’algorithmes), sont présentés les principes et le fonctionnement des moteurs de recherche qui permettent la recherche d’information sur le web. Les deux dernières contributions traitent des systèmes de question-réponse puis des outils de veille et d’intelligence économique : leurs fonctionnalités et leur utilisation effective en France et aux États-Unis (enquête). Des tableaux clairs mais non datés (agents de veille, solutions de veille, text mining) font le point sur les outils de veille ; ils sont suivis d’une présentation rapide de la norme française sur les prestations du cycle de veille, avec évaluation des logiciels.

41

Ces deux ensembles de contributions sur les systèmes de recherche d’informations sont des travaux de chercheurs, souvent abstraits, très techniques, et d’un abord sans doute peu aisé pour les professionnels de l’information. Ils peuvent cependant être utiles aux praticiens qui veulent faire le point sur l’état de la recherche sur la question, comparer les différents systèmes possibles pour faire leur choix, s’éclairer avant de travailler avec des spécialistes informaticiens.

42

Arlette Boulogne

Évaluation des systèmes de traitement de l’information, Sous la direction de Stéphane Chaudiron, Paris : Hermès Science Publications : Lavoisier, 2004. - 375 p. - (Traité des sciences et techniques de l’information). - ISBN 2-7462-0862-8 : 90 €

D’intéressantes perspectives pour les professionnels de l’I&D

44

LA PROBLÉMATIQUE DE L’ÉVALUATION A INSPIRÉ de nombreux travaux, ce qui, selon Stéphane Chaudiron qui signe l’introduction de cet ou- vrage (p. 17-24), confirme « l’importance de cette question ». L’objectif du présent ouvrage est de soulever les interrogations théoriques essentielles et les questions méthodologiques sous-jacentes aux pratiques évaluatives dans les domaines du traitement du texte et de la parole. Mais, pour cela, il importe dans un premier temps de préciser la significations des termes clés et de proposer plusieurs typologies des évaluations : évaluation de progression, de mise en adéquation et de diagnostic. Ce peut être aussi l’approche « boîte noire » ou « boîte transparente » ou encore la distinction entre évaluation statique et évaluation dynamique – différentes approches reprises par les auteurs de l’ouvrage. Les quatre parties aux titres nets qui structurent ce dernier – « Les systèmes de recherche d’information » (p. 25-98), « Le traitement de l’information textuelle » (p. 99-186), « Les systèmes de traitement de la parole » (p. 187-283) et « L’approche usage dans l’évaluation » (p. 285-372) – permettent au lecteur de mesurer l’ampleur des problématiques sur lesquelles portent les textes qui le composent.

Les systèmes de recherche d’information

45

Christian Fluhr ouvre la première partie en s’intéressant à « L’évaluation des systèmes de recherche d’informations textuelles ». Après un bref historique, il rappelle les mesures de performance des systèmes booléens et hiérarchiques, puis présente les campagnes TREC (Text Retrieval Conference) en décrivant les différentes tâches qui sont évaluées, avant d’analyser les limites de ces évaluations.

46

À sa suite, Nozha Boujemaa analyse « L’évaluation des systèmes de recherche par le contenu visuel : pertinences et critères ». Cette question s’impose avec force face au foisonnement actuel des images. Il faut donc rappeler le principe de ce type de recherche, décrire les facteurs qui ont un impact sur la pertinence des résultats de l’évaluation d’un système de recherche. L’auteure présente ensuite un ensemble de critères pour une évaluation quantitative, connus ou relativement récents dans le monde de la recherche, relate plusieurs initiatives internationales d’évaluation et insiste sur les difficultés de cette recherche spécifique.

47

Brigitte Grau conclut cette première partie avec « L’évaluation des systèmes question-réponse ». Après avoir précisé la particularité de ces systèmes par rapport aux systèmes de recherche documentaire traditionnels, elle présente les campagnes actuelles, les différents points qui caractérisent une évaluation, et commente les résultats en insistant sur les facteurs affectant les performances d’un système de question-réponse.

Le traitement de l’information textuelle

48

Patrick Paroubek inaugure la deuxième partie en présentant « L’évaluation des systèmes d’analyse morphosyntaxique et syntaxique ». Après avoir souligné l’influence des méthodes de segmentation, il précise les objectifs, les méthodologies et mesures de l’évaluation de l’annotation morphosyntaxique, d’une part, et de l’analyse syntaxique, d’autre part. Pour chacune d’elles, il présente un état actuel de la technologie.

49

« L’évaluation des systèmes d’analyse et de compréhension de textes » est abordée par Adeline Nazarenko et Thierry Poibeau. « Évaluer ce qui est compris : un défi », remarquent-ils en s’interrogeant sur le sens à donner au concept de compréhension et sur ses modes d’évaluation. Ils y répondent en examinant l’évaluation technologique et l’évaluation des performances, occasion pour présenter le principe des conférences d’évaluation MUC (Message Understanding System) organisées par l’ARPA (Advanced Research Projects Agency) pour évaluer les systèmes d’extraction d’information. Ils en soulignent les limites et les points forts.

50

Widad Mustafa El Hadi s’intéresse, quant à elle, à « L’évaluation d’outils d’acquisition de ressources terminologiques ». Après avoir dressé un état de l’art de l’acquisition de ces ressources, elle présente le protocole d’évaluation. elle s’interroge sur les procédures mises en œuvre pour les évaluer et conclut sur la nécessité de définir un protocole d’évaluation en fonction d’un type d’usage donné.

51

Enfin, Jean-Luc Minel fait le point sur « L’évaluation des systèmes de résumé automatique ». Il rappelle les types d’approche des systèmes de résumé automatique et les différents modes d’évaluation. La présentation de l’évaluation par jury l’entraîne à commenter différentes campagnes d’évaluation avant d’établir une synthèse critique des résultats.

Les systèmes de traitement de la parole

52

Les technologies vocales prennent une importance de plus en plus grande dans nos environnements. Quatre chapitres leur sont consacrés, structurés de manière identique. Ils se composent d’un rappel des applications utilisant les technologies considérées, d’une présentation des tâches qui sont évaluées et des protocoles d’évaluation, et d’une discussion sur ces protocoles. Frédéric Bimbot et Guillaume Gravier étudient « L’évaluation des systèmes de reconnaissance de la parole » quand Christophe D’Allessandro s’intéresse à « L’évaluation des systèmes de synthèse de la parole ». Ivan Magrin-Chagnollaud traite des « Systèmes de vérification du locuteur » et Laurence Devillers conclut cette troisième partie en posant la problématique de « L’évaluation des systèmes de dialogue oral ».

L’approche usage dans l’évaluation

53

La dernière partie de ce document rompt en peu avec le ton des précédentes. L’évaluation y est abordée non plus d’un point de vue technique mais à travers la prise en compte des usages dans le processus d’évaluation. C’est ainsi que « La place de l’usager dans les systèmes de recherche d’informations » intéresse Stéphane Chaudiron qui analyse, dans un premier temps, l’évaluation de ces systèmes dans le paradigme système pour en déterminer les limites, avant d’introduire l’évaluation dans le paradigme usager à travers diverses approches : pertinence, approche cognitive, processus ou holistique.

54

Pour leur part, Anthony Hartley et Andreï Popescu-Belis cherchent à expliquer « L’évaluation des systèmes de traduction automatique ». Ils en fixent le cadre théorique, précisent les métriques visant la qualité du texte produit et présentent les principales campagnes d’évaluation en traduction automatique de 1966 à nos jours. Ils concluent en proposant des critères théoriques de métaévaluation des métriques.

55

Ce sont les « Usages des moteurs de recherche » qu’analyse Madjid Ihadjadene. En s’appuyant sur de nombreuses enquêtes, l’auteur présente les différents protocoles utilisés pour rendre compte de l’efficacité des recherches menées par les internautes et l’acceptabilité des contraintes techniques.

56

Joëlle Le Marec signe le dernier texte de cette étude en observant « Les études d’usage et leur prise en compte dans le champ culturel ». Elle examine la relation entre conception et études d’usages et, en s’appuyant sur le cas du milieu muséal, décrit l’articulation entre études d’usages et enjeux de développement. Découvrant l’évolution profonde de la notion d’usage, elle suggère une redéfinition du cadre d’analyse concernant le pôle des concepteurs et celui du public.

L’enjeu de l’acceptabilité sociale de la technique

57

Cet ouvrage savant, écrit à plusieurs mains, vise incontestablement et en priorité le chercheur, l’enseignant ou l’étudiant en sciences de l’information et de la communication. Le professionnel de l’information y trouvera une importante documentation, une foule de renseignements sur les recherches, les expérimentations qui, un jour ou l’autre, trouveront leur concrétisation sur le terrain. Les textes sont d’égal niveau, rédigés par des chercheurs qui maîtrisent bien leur domaine d’étude. Les bibliographies sont riches, qui ouvrent sur des études parfois extrêmement pointues (le chapitre portant sur les systèmes de recherche par le contenu visuel, par exemple), parfois plus accessibles ou mieux connues par le professionnel de l’information européen (la partie sur les usages, par exemple).

58

Malgré une structuration claire et nette, le document souffre d’un certain manque de coordination des chercheurs entre eux. Cela entraîne des répétitions parfois un peu lassantes pour le lecteur appelé à lire le document en mode linéaire. Le TREC, par exemple, est très souvent expliqué et réexpliqué. Mais, dans le même temps, cette organisation permet de lire directement le ou les chapitres susceptibles de l’intéresser davantage. Et pour les documentalistes, tous les textes relatifs à leurs pratiques professionnelles : la recherche d’information, l’analyse, les usages des moteurs de recherches… se révèlent extrêmement intéressants. Les chapitres portant sur le traitement de l’information textuelle exigent un certain acquis dans le domaine de l’intelligence artificielle et du traitement automatique des langues. Seule, la troisième partie sur les systèmes de traitement de la parole ne concerne pas encore directement la plupart des professionnels de l’information.

59

La lecture des différents chapitres qui les concernent ouvre, cependant, des portes sur leur futur. Car, ainsi que le rappelle Stéphane Chaudiron : « Depuis quelques années, en raison de l’automatisation croissante des processus de traitement de l’information et de la diffusion des dispositifs techniques vers un plus large public, l’évaluation des technologies et des applications suscite un intérêt nouveau correspondant à l’enjeu de l’acceptabilité sociale de la technique. » (p. 17) Ce document permet d’en prendre pleinement conscience.

60

Marie-France Blanquet

Recherche d’information et traitement de la langue : fonde ments linguistiques et applications, Geneviève Lallich-Boidin et Dominique Maret ; préface de Serge Chambaud, Villeurbanne : Presses de l’ENSSIB, 2005. – 288 p. - (Les Cahiers de l’Enssib, ISSN 1634-9962 ; 3). – ISBN 2-910227-60-X : 38 €

Un manuel indispensable à nombre de professionnels de l’I&D

62

LES TRAITEMENTS AUTOMATIQUES DE LA langue (TAL) appliqués à la recherche documentaire font partie du paysage professionnel des documentalistes depuis de nombreuses années. On peut citer l’ouvrage de Jacques Chaumier [1][1] Jacques Chaumier, Le traitement linguistique de l’information,... paru en 1988 sur le Traitement linguistique de l’information et, presque au même moment, la première application « grand public » d’interrogation sur Minitel des Pages Jaunes « en langage naturel ». Depuis lors, journées d’étude, cours Inria et autres articles dans Documentaliste – Sciences de l’information se sont multipliés [2][2] Voir, à l’adresse www. adbs. fr/ site/ 43_2_annexeRITL...., ainsi que de (moins) nombreuses applications accessibles aujourd’hui sur le web ou sur les intranets. « Vieux serpents de mer de la recherche documentaire[3][3] Jean-Pierre Lardy, Recherche d’information sur Internet :... », les applications se déploient et les logiciels se diversifient, sans que les techniques employées soient toujours faciles à distinguer pour les professionnels de l’information-documentation. Le foisonnement actuel incluant des technologies autres que linguistiques n’aide pas à la lisibilité de l’ensemble.

63

C’est dans ce contexte que nous saluons la parution d’un manuel exposant les concepts et techniques fondamentaux du TAL en matière de recherche d’information dans des fonds textuels. Les deux auteurs sont des spécialistes de ces thématiques depuis plusieurs années : Dominique Maret œuvre au sein de la société Lingway, tandis que Geneviève Lallich-Boidin intervient dans le monde de la formation universitaire et au sein de l’équipe de recherche URSIDOC de l’Université Lyon 1.

64

Cet ouvrage est scindé en deux parties. La première (chapitres 1 à 7) aborde les fondements de l’analyse linguistique à des fins de traitement automatique ; la deuxième partie (chapitre 8 à 12) est consacrée à l’application de ces méthodes dans le cadre de la recherche d’information.

Les fondements théoriques de l’analyse linguistique

65

Les premiers chapitres traitent des opérations fondamentales de traitement linguistique d’un texte. Une première étape indispensable est la segmentation. Ce traitement répond à la question « Qu’est-ce qu’un texte pour un programme informatique ? » La réponse est sèche : une séquence de caractères. C’est un premier traitement sans linguistique. La lemmatisation (ch. 2) permet de réduire et de classer la liste de formes graphiques ainsi obtenues par le premier traitement de segmentation. Ce chapitre fait une part importante à l’étiquetage où chaque forme du texte est accompagnée de la ou des catégories de la langue auxquelles elle est rattachée, et des informations lexicales et flexionnelles associées. Puis intervient l’analyse syntaxique. Elle s’appuie sur le codage produit par la lemmatisation. Cette étape autorise des traitements spécifiques adaptés à la recherche d’information, comme l’extraction de candidats descripteurs, c’est-à-dire de syntagmes nominaux. Si les méthodes exposées dans les précédents chapitres sont aujourd’hui mises en œuvre dans les principaux produits du marché dits en langage naturel, le quatrième chapitre expose, lui, les enjeux de traitements plus évolués – sémantiques et pragmatiques – dans le cadre de la recherche d’information.

66

Une caractéristique de la langue, l’affixation (suffixe, préfixe), qui exprime des notions voisines dans des formes différentes, est source de silence. D’où l’importance de traitements spécifiques comme la morphologie dérivationnelle abordée dans le chapitre 5. Le suivant traite, quant à lui, de la place des terminologies dans ce processus. Il expose trois méthodes utilisées pour identifier les termes complexes : la méthode des cooccurrences, celle des n-grammes et celle des segments répétés. Le chapitre 7, dont la lecture n’est pas indispensable au dire des auteurs, aborde la question théorique des grammaires de réécriture. Ce chapitre est à considérer non pas en lien avec la recherche d’information, mais pour ses apports sur les méthodes de traitements linguistiques.

Des applications à la recherche d’information

67

La deuxième partie de l’ouvrage s’ouvre, avec le chapitre 8, sur la présentation d’un des problèmes majeurs en recherche d’information, problème qui dépasse largement la recherche dite thématique : la recherche de noms propres et de dénominations. Ou, comme le formulent les auteurs, « l’accès approximatif à des dénominations ».

68

L’ensemble des opérations précédemment traitées sont reprises (ch. 9) dans le contexte d’une recherche d’information textuelle. La dernière partie de ce chapitre est consacrée à une solution pragmatique qui consiste à traiter les questions en langage naturel, en laissant le traitement des documents à des outils en texte intégral sans traitement linguistique. C’est une solution pertinente dans le cas où des fonds importants pré-existent et où un traitement de ces corpus par ces techniques linguistiques est impossible. Cette approche vise à distinguer le traitement de la question et le traitement des fonds ; elle a toujours eu ses adeptes, qui voient aujourd’hui s’appliquer ces principes au fur et à mesure que l’utilisateur final se charge de l’étape d’interrogation.

69

Le chapitre suivant présente l’architecture d’un dictionnaire représentant les données lexicales nécessaires à l’analyse d’une question. Il prend appui sur l’outil de la société Lingway dont l’architecture permet la recherche crosslingue, c’est-à-dire la recherche de documents dans une langue différente de celle de la question.

70

Le chapitre 11 aborde l’indexation automatique de documents. L’indexation automatique contrôlée selon un langage documentaire est distinguée de l’indexation libre ou dérivée. Les exemples présentés sont issus essentiellement de l’offre Lingway : les Pages Jaunes ou les résumés terminologiques pour l’indexation libre, des applications d’interrogation de langages ou de nomenclatures comme le MeSH ou MedDRA pour l’indexation contrôlée. Le principe des résumés terminologiques (extraction de phrases ou parties de phrases sans reformulation) s’applique à un ensemble de documents ou à un seul document. Dans le premier cas, cela permet, suivant les techniques employées et l’architecture de l’application, de présenter les résultats selon les principaux thèmes abordés ; ou, en veille technologique, de croiser les données extraites avec d’autres informations documentaires comme la date, et de présenter dans le temps un descripteur produit par indexation. Des applications qui sortent du schéma traditionnel de l’expression d’une requête.

71

Le dernier chapitre montre l’apport des techniques lexicales et syntaxiques à des applications d’extraction de noms propres à partir de texte.

Une approche pédagogique et une étroite articulation entre théorie et pratique

72

Centré sur les techniques linguistiques appliquées aux documents textuels, sans aborder les techniques statistiques ni considérer les documents images, cet ouvrage est un excellent complément à l’ouvrage de Philippe Lefèvre, La recherche d’informations : du texte intégral au thésaurus[4][4] Philippe Lefèvre, La recherche d’informations : du..., paru il y a quelques années. L’originalité de celui de Geneviève Lallich-Boidin et Dominique Maret est double : d’une part son angle résolument pédagogique avec une écriture claire, des exemples et surtout des exercices avec corrigés ; d’autre part l’articulation permanente de la présentation des méthodes linguistiques présentées avec les problématiques de la recherche d’information dans des fonds textuels.

73

Nous avons toutefois quelques regrets à formuler. Une bibliographie minimaliste (quinze références scientifiques dont sept en anglais) et un index reflétant strictement la terminologie utilisée par les auteurs confinent les lecteurs à un contenu sans échappatoire et à une lecture dans un ordre tout aussi contraignant. Un professionnel de terrain déchiffrant la documentation de logiciels qui proposent ces techniques aura du mal à entrer dans cet ouvrage pour y chercher des éclaircissements : l’index, très ramassé, n’autorise pas d’entrées divergentes ou simplement par centres d’intérêt. Ainsi les termes arbre syntaxique, homonymie ou hyperonymie, expansion sémantique, traitement des dates, crosslingue ou multilingue sont-ils absents de cet index. De plus, l’exclusivité de la présentation d’applications issues des technologies de la société Lingway pourrait donner aux lecteurs l’impression qu’il n’en existe pas d’autres. Enfin, un glossaire bilingue des termes les plus spécifiques aux traitements présentés dans cet ouvrage – dont certains sont cités dans le texte – aurait également pu donner aux lecteurs des clés pour aller consulter d’autres sources.

74

Nous avons bien noté le caractère pédagogique de ce livre et la volonté des auteurs de se concentrer sur les techniques fondamentales, déjà difficiles à appréhender sans s’égarer sur d’autres sentiers. Il nous semble toutefois que, pour participer à la nécessaire ouverture d’esprit des professionnels de terrain sur ces technologies, ce travail se serait accommodé d’une mise en perspective historique et d’une approche plus diversifiée sur le plan des applications existantes. D’autant plus que pas un instant l’on ne soupçonne les auteurs de méconnaître cet environnement professionnel dans lequel ils sont des plus actifs.

75

Ces regrets n’entament en rien notre enthousiasme pour cet ouvrage, manuel indispensable à tous les professionnels de l’information et documentation : aux spécialistes de la recherche d’information pour les conduire à une nécessaire réévaluation de leurs méthodes et démarches de recherche ; aux spécialistes de la gestion documentaire ou aux professionnels en charge du développement de dispositifs (portails) pour valoriser l’accès aux ressources auprès de leurs publics ; et, bien sûr, à tous les formateurs dans le secteur de la documentation.

76

Sylvie Dalbin

Résumé automatique de textes, Sous la direction de Jean-Luc Minel, Paris : Hermès Science Publications : Lavoisier, 2004. – 211 p. Numéro de : Traitement automatique des langues, ISSN 1248-9433, 2004, vol. 45, n° 1. – ISBN 2-7462-1022-3 : 65 €

Pour spécialistes du traitement automatique des langues

78

LE TITRE DU TEXTE AINSI QUE CELUI DU document hôte indiquent d’emblée au lecteur la nature savante et technique des communications qui le constituent. Les six chapitres sont, en effet, d’un haut niveau et s’adressent aux spécialistes du traitement automatique des langues naturelles (TALN). Les bibliographies qui les accompagnent confirment ce constat, qui font appel à un grand nombre d’études extraites de la littérature grise et souvent rédigées en anglais.

79

Jean-Luc Minel donne le ton en présentant l’ouvrage dans le « Résumé automatique de textes : solutions et perspectives » (p. 7-13). Après avoir brièvement rappelé l’historique de l’analyse automatique et l’intérêt des résumés ainsi produits, il décrit les approches actuelles fondées sur la représentation des connaissances et les méthodes par extraction. Il ouvre la porte aux contributions qui suivent.

80

I. Mani présente, en anglais, un modèle d’analyse pour produire des résumés de textes narratifs dont il décrit les problématiques spécifiques (« Narrative Summarization », p. 15-38). Fondé sur la représentation des connaissances, ce type de résumé consiste en l’exploitation de données temporelles et distingue trois niveaux : scène, histoire et intrigue, ici illustrés de nombreux exemples. L’auteur conclut sur les difficultés à relever dans ce domaine.

81

« Le résumé de textes juridiques par identification de leur structure thématique » intéresse A. Farzindar, G. Lapalme et J.-P. Desclés (p. 39-64). Cette méthode de production automatique permet aux juristes de consulter rapidement les idées-clés d’une décision juridique pour trouver les jurisprudences répondant à leurs besoins. En s’appuyant sur de nombreuses illustrations, les auteurs explicitent les étapes de la constitution de la fiche du résumé et décrivent le système LetSum en commentant les résultats d’évaluation.

82

À la suite, S. Leïla Châar, O. Ferret et Christian Fluhr proposent une méthode de « Filtrage pour la construction de résumés multidocuments » guidée par un profil (p. 65-93). À partir d’un ensemble de documents hétérogènes sont extraits les passages les plus significatifs en regard du profil défini par un utilisateur. Cette approche est illustrée à travers la présentation du système REDUIT qui a fait l’objet d’une évaluation concernant le filtrage des documents et l’extraction des passages.

83

Comment construire automatiquement des résumés ? G. Crispino et J. Couto répondent à cette interrogation (« Construction automatique de résumés : une approche dynamique », p. 95-120). Ils cherchent à exploiter les outils visuels afin de construire dynamiquement un nouvel objet textuel adapté à un utilisateur spécifique.

84

Enfin, T. Aït El Mekki et A. Nazerenko questionnent : « L’index de fin de livre, une forme de résumé indicatif ? » (p. 121-150). L’index, comme le résumé indicatif, est un document secondaire qui facilite l’accès au contenu des documents primaires. Tous deux ont donc des fonctions très voisines. Or il est possible aujourd’hui de construire automatiquement des ébauches d’index de fin de livre. C’est ce que démontrent les auteurs en présentant l’outil IndDoc, prototype de recherche expérimenté et évalué, avec des résultats satisfaisants, à partir d’ouvrages portant sur des domaines différenciés et par ailleurs dotés d’index construits par les auteurs.

85

En clôture de ce document, V. Claveau et P. Sébillot signent un texte sur l’« Apprentissage semi-supervisé de patrons d’extraction de couples nom-verbe » (Varia, p. 153-182) présentant deux techniques entièrement automatiques répondant au double besoin d’extraction de couples et de patrons contextuels. Ce texte très technique, qui s’adresse très clairement aux spécialistes du traitement automatique des langues, est suivi de notes de lecture et de résumés de thèses soutenues en linguistique ou en informatique, qui confirment que ce numéro est destiné en priorité à ces spécialistes.

86

Le professionnel de l’information n’est pas directement concerné. Les textes sont très techniques, les modèles ou systèmes présentés sont souvent encore à l’état de prototypes ou d’expérimentations limitées. À quelques exceptions près, le résumé automatique de textes n’est pas encore une réalité dans l’environnement du documentaliste. Toutefois, ce texte alerte le veilleur sur la réalité du monde de demain où l’analyse documentaire pourrait connaître des évolutions essentielles. Cette étude lui permet de le comprendre.

87

Marie-France Blanquet

Le web sémantique, Coordonné par Jean Charlet, Philippe Laublet et Chantal Reynaud, Toulouse : Cépaduès-Éditions, 2005. – 187 p. Numéro de : Information - Interaction - Intelligence, une revue en science du traitement de l’information, ISSN 1630-649X, 2004, n° hors série. – ISBN 2-85428-666-9 : 20 €

De multiples entrées,des perspectives pour les professionnels de l’I&D

89

CE NUMÉRO SPÉCIAL, CONSTITUÉ DE HUIT chapitres, reprend le rapport produit par des chercheurs du CNRS avec la volonté d’offrir au lecteur des entrées multiples à la problématique du web sémantique, correspondant à des centres d’intérêts différents suivant les communautés de chercheurs concernés.

90

Dans leur « Introduction au web sémantique » (p. 21-43), Philippe Laublet, Jean Charlet et Chantal Reynaud décrivent ce dernier à partir des couches déterminées par le W3C. Ils présentent aussi l’organisation de ce numéro hors série et le rang des chapitres qui le constituent. Tous sont construits sur le même modèle qui propose dans un premier temps de présenter la problématique du point de vue des usages et son importance. Les méthodes, techniques et outils existants sur lesquels on peut s’appuyer constituent le deuxième temps de chaque chapitre. Le troisième récapitule les travaux et résultats existants du web sémantique et le quatrième ouvre sur les recherches futures. Tous se terminent par une bibliographie où les auteurs américains sont très largement cités.

91

Comprendre le web sémantique nécessite d’en connaître « Les langages ». Jean-François Baget, Étienne Canaud, Jérôme Euzenat et Mohand Saïd-Hacid entraînent le lecteur dans cette découverte (p. 21-43) en présentant les langages permettant d’exprimer données et métadonnées, de décrire les services et leur fonctionnement, et de disposer d’un modèle abstrait de ce qui est décrit grâce à l’expression d’ontologies. Avant de conclure sur la nécessité de recherches plus pointues permettant d’étendre et de raffermir ces outils.

92

Les trois chapitres suivants reprennent et analysent de façon plus avancée ces différents types de langage. Les « Méta-données et annotations » sont explicitées par Yannick Prié et Serge Garlatti (p. 45-68) qui annoncent l’importance de la problématique du point de vue des usages, en s’appuyant sur des exemples éclairants. Par la suite, ces auteurs présentent les standards existants qui forment l’ossature du web (HTTP, HTML, XML et RDF) et proposent un tableau synthétique décrivant quelques grands types d’outils d’annotation ou de systèmes à base d’annotations.

93

Concepts de base du web sémantique, les « Ontologies pour le web sémantique » (p. 69-99) sont décrites par Jean Charlet, Bruno Bachimont et Raphaël Troncy. Le philosophe y comprend les raisons de cette appellation, empruntée à la métaphysique, faisant référence à Aristote. Le documentaliste, quant à lui, comprend les liens à établir avec un outil qu’il connaît bien : le thésaurus. Les auteurs présentent ensuite quelques éditeurs d’ontologies et font le point sur les problèmes que rencontre le web sémantique par rapport aux ontologies avant de poser des pistes de réflexion à mener dans ce domaine.

94

La diversité des sources d’information, leur hétérogénéité posent le problème de « L’intégration des sources de données », posé par Mohand-Saïd Hacid et Chantal Reynaud (p. 101-122). Les auteurs expliquent également les approches médiateurs et les approches entrepôts de données. Les travaux futurs s’orientent vers des systèmes de médiation décentralisés, ouvrent sur l’intégration de données multimédias, l’analyse de données en temps réel et l’intégration des connaissances.

95

Tous les utilisateurs ne sont pas intéressés par la même information ni par le même service accessibles par Internet. C’est pourquoi Serge Garlatti et Yves Prié se préoccupent d’« Adaptation et personnalisation dans le web sémantique » (p. 123-141). Celles-ci s’appuient sur les hypermédias adaptatifs, la modélisation utilisateur et les documents virtuels personnalisables. Patrick Kellert et Farouk Toumani s’efforcent, quant à eux, d’expliquer le concept de « Web services sémantiques » (p. 143-167) et de dire leur apport potentiel aux technologies existantes.

96

Seul chapitre à ne pas être construit sur le modèle exposé ci-dessus, le huitième de cette savante et technique étude, signé par Alain Léger et Jean Charlet, s’applique à décrire les « Applications du web sémantique » (p. 169-187). Toutes n’intéressent pas directement le professionnel de l’information, comme le e-commerce, par exemple. D’autres, au contraire, le situent dans son environnement de demain, qui concernent le partage des ressources, l’indexation et le catalogage, les portails et mémoires d’entreprise, etc.

Comprendre les évolutions à venir

97

Même si tous les auteurs s’efforcent d’expliquer au mieux leur domaine en s’appuyant sur des schémas ou des exemples, ce numéro spécial reste difficile à lire par son haut niveau de technicité, par la brièveté, aussi, de certaines explications, insuffisantes pour le lecteur non ou trop peu initié. Ce numéro s’adresse à une communauté de chercheurs ou d’enseignants du supérieur, il ne s’adresse pas réellement aux praticiens. Toutefois, certains chapitres peuvent aider tous les professionnels de l’information à comprendre les évolutions à venir d’un réseau qui a pris une si grande importance dans leurs activités. Par ailleurs, le chapitre sur les ontologies peut faire l’objet d’une lecture plus attentive et plus facile, le documentaliste étant familiarisé depuis longtemps avec les langages documentaires appelés à devenir des ontologies.

98

Marie-France Blanquet

Les dossiers documentaires: dossier outil, dossier produit, dossier électronique, Françoise Quaire et Clotilde Vaissaire, en collaboration avec Bruno Salléras, Paris : ADBS Éditions, 2005. – 61 p. – (L’essentiel sur…, ISSN 1773-729X). – ISBN 2-84365-081-X : 15 €

Un petit guide synthétique et efficace

100

CE BREF OUVRAGE se veut être une synthèse, sorte d’état de l’art sur la spécificité de cette importante prestation documentaire que de nombreux professionnels de l’information sont appelés à réaliser : le dossier documentaire. Or ce produit est essentiellement multiforme. Il est donc important d’en percevoir la typologie qui différencie un dossier de l’autre mais également le ou les points communs qui permet de les reconnaître et de les qualifier de dossiers documentaires. C’est ce qu’entendent faire les auteures qui, dès l’introduction, disent leur volonté de décrire les objectifs et les fonctions de ce produit documentaire.

101

Pour cela, Françoise Quaire et Clotilde Vaissaire découpent leur travail en six parties. La première, « Typologie et finalités des dossiers » (p. 7-12) présente les différents types de dossiers et analyse les publics auxquels ils s’adressent et les besoins auxquels ils répondent. Les dossiers documentaires étant des outils de valorisation du centre de documentation, la deuxième partie entend expliquer comment « Créer un fonds de dossiers documentaires outils » (p. 13-18) à partir de la connaissance de ses utilisateurs. Il s’agira par la suite de savoir « Organiser et gérer un fonds de dossiers outils » (p. 19-27). La partie 4 est consacrée à un autre type de dossier, « Le dossier produit » (p. 29-36) dont les auteures disent la spécificité, l’utilité et décrivent le mode de réalisation et la promotion.

102

« Du dossier papier au dossier électronique » constitue la cinquième partie (p. 37-46). Y sont développés des arguments pour justifier le maintien d’un fonds papier mais aussi pour créer des dossiers électroniques. Les auteures expliquent ce qu’ils sont, quelle est leur typologie, et explicitent les contraintes spécifiques mais aussi les ouvertures qu’ils génèrent pour le centre de documentation concerné.

103

Comme tout outil informationnel, le dossier documentaire soulève des problématiques d’ordre juridique. « Dossiers documentaires et droit de l’information » constitue le dernier point de ce travail accompagné d’une courte conclusion et d’une étude de cas sur l’évolution de la politique des dossiers documentaires aux AGF, qui souligne l’impact de l’intranet dans la politique documentaire de cet organisme.

104

La biblio-sitographie donnée en fin d’ouvrage montre le petit nombre de textes dédiés au dossier documentaire. Raison de plus pour se réjouir d’avoir en main ce guide synthétique qui va à l’essentiel dans un langage sobre et précis. Bien que cela tienne aux limites imposées par cette collection d’ouvrages de soixante pages, le lecteur regrettera toutefois que les témoignages comme les études de cas ne soient pas davantage développés, qui concrétiseraient l’importance et la place du dossier documentaire dans des services de documentation différenciés.

105

Marie-France Blanquet

La guerre des copyrights, Emmanuel Pierrat, Paris : Librairie Arthème Fayard, 2006. – ISBN 2-213-62798-3 : 19 €

À lire absolument !

107

VOICI UN PAYSAGE COMPLET des multiples « lignes de front » ouvertes par les droits de la propriété intellectuelle. Un paysage complexe et, à bien des égards, très étonnant, brossé par Emmanuel Pierrat avec une liberté de ton qui ne manquera pas de séduire. Qui a dit que la propriété intellectuelle était un sujet aride ?

108

C’est l’odeur, l’un des derniers avatars de la propriété intellectuelle, qui illustre l’extension inexorable du champ des protections par le droit d’auteur. Le droit d’auteur, un « fourre-tout » ? Sans doute, puisque que son cadre va désormais bien au-delà des beaux-arts et de la littérature et que la jurisprudence se charge de compléter cet inventaire digne de Prévert où le thème de la prochaine bataille sera sans nul doute les recettes de cuisine… Tout se négocie désormais, même les œuvres du domaine public et, à côté des artistes, ce sont les producteurs de vidéogrammes et de phonogrammes, puis les producteurs de bases de données qui ont rejoint les titulaires de droits.

« Surveiller et faire cesser »

109

Telle est l’obsession de tous les industriels. La contrefaçon est « l’activité criminelle du XXe siècle » et, dans la « paranoïa ambiante », les services chargés de la gestion des droits de la propriété intellectuelle sont créés à tour de bras pour des batailles autour des marques, des noms de domaines et prochainement des métatags… De la pédagogie à la menace, comme on l’a vu pour la musique, c’est un véritable arsenal de lois et de sanctions qui est mis au point par les ministères successifs.

110

On voit ainsi apparaître des « coalitions nouvelles », puisque les « lignes de front de la guerre des droits de la propriété intellectuelle se sont déplacées » et que le poids donné aux investissements a fait sauter le clivage traditionnel droit d’auteur/copyright. Après avoir longtemps rechigné, les États-Unis recourent désormais à cette protection « pour mettre les bâtons dans les roues ». Quant à l’Europe, elle donne la part belle aux investisseurs et on y note aussi la multiplication des services juridiques, des magistrats spécialisés et des formations universitaires. Rien d’étonnant d’ailleurs, le droit s’harmonise en s’internationalisant mais il pose des problèmes pour les créateurs dans le domaine de la culture ou de la santé, voire dans des domaines moins attendus comme celui du vin. Tous les pays du monde, y compris les plus pauvres, soucieux eux aussi de protéger leur patrimoine, ont pris le « virage » et ont « dépoussiéré » leurs législations, voire en ont créé ex-nihilo.

111

Mais les droits de propriété intellectuelle peuvent faire obstacle au développement des pays du Sud. Il suffit d’évoquer le cas des trithérapies et des accords désastreux de l’OMC, qualifiés de « marché de dupes » par Emmanuel Pierrat qui en détaille les modalités et les répercussions. Le « savoir privatisé » par le verrouillage de l’accès aux publications scientifiques, autre thème de polémique, ou le marché des livres scolaires en Afrique francophone, voire les noms de domaine des îles Tuvalu sont des exemples qui démontrent le caractère « ubuesque » de la « spirale économico-juridique ». Mais la « contre-offensive sudiste » est virulente et le droit sur le folklore et les savoirs traditionnels ébranle la planète Walt Disney tout comme les règles traditionnelles du droit d’auteur.

112

Quant au droit à l’image, il s’est patrimonialisé et fait, lui aussi, l’objet de contrats de cession. C’est même « une arme juridique redoutable qui ouvre un nouveau front dans la guerre des copyrights » et de nombreux exemples de procès illustrent la diversité de ses aspects. Ses implications sont très lourdes, notamment parce que ses frontières ne sont pas vraiment définies et qu’il est possible de « plaider tout et son contraire ». Non seulement il alourdit la palette des précautions à prendre mais il contribue à créer « un univers artificiel ».

L’« l’horizon du domaine public » s’éloigne lui aussi, inexorablement

113

Tous les pays ont progressivement adopté cette idée d’allongement de la durée des droits d’auteur qu’un lobby actif vise à étendre aux droits voisins. Pour faire renaître les droits, on « relifte » les classiques, on recourt au droit des marques « pour éviter la chute », la bataille entre les propriétaires d’inédits est sanglante et le droit moral « fait le bonheur des familles bien organisées ». Par ailleurs les exceptions vivent leur dernière heure, le droit de prêt donne lieu à une rémunération et la « censure privée » s’organise par le biais d’un droit à l’image. Il n’est pas loin non plus le temps où ceux qui numérisent pourraient se voir accorder une protection, où les noms de domaines représenteront une nouvelle catégorie de la propriété intellectuelle. Le marché des liens et des métatags « se contractualise, se monnaie et se défend devant les tribunaux », les images libres de droit sont des « attrape-nigauds », le « folklore rapporte gros » et toutes les compilations, même de données non protégées, permettent des revendiquer des droits… « Quand il n’y en a plus, il y en a encore », ajoute Emmanuel Pierrat, en évoquant les actions en concurrence déloyale pour des formats de livre ou des concepts de guide… Dans ce paysage surréaliste, les professionnels, saisis de « schizophrénie juridique », sont prompts à s’indigner « pour tenir à distance une concurrence toujours plus rapprochée » mais prompts aussi à emprunter pour alimenter leurs propres créations.

114

Si « Internet a bon dos », car la contrefaçon a toujours existé, il alimente « des peurs obscurantistes » et fait l’objet de discours caricaturaux, fondés la plupart du temps sur une ignorance technologique. « Schizophrénie » avait-on déjà souligné… Ce sont les mêmes qui vendent des produits culturels et les matériels pour les copier, et ces combats se mènent entre des « mastodontes économiques ». Quant à l’industrie, elle fait déjà payer – taxes, redevances, matériels, abonnements, etc. – le consommateur qui croit les voler et le combat pour la copie privée numérique a pris des « allures de marché de dupes ». Après avoir fustigé les actions contre « des pirates en culottes courtes », l’auteur présente le projet de loi sur le droit d’auteur, « le front sur lequel s’activent », en ce mois de janvier 2006, « les consortiums de la communication et de la culture ».

Droit à la culture et droit de la culture

115

Les nouvelles technologies ont visiblement relancé le débat sur l’accès à la culture et au savoir scientifique. L’idée de bibliothèque universelle, accessible à tous, donne lieu à de nombreux projets dont ceux de Google, qualifiés d’« illusion sédui- sante », mais sur des fonds très mercantiles, qui en outre – et à tort – ignorent les auteurs. Or, s’il faut combattre « les sociétés commerciales qui musèlent la liberté d’expression en instrumentalisant le droit de marques », les propriétaires de brevets qui s’opposent à ceux qui veulent lutter contre le sida en Afrique, il faut éviter de sombrer dans la candeur des « nouveaux économistes » qui croient en une économie de la culture désincarnée. Et d’applaudir l’initiative prise par la BnF, pour préserver la diversité culturelle sur des bases différentes de Google, ainsi que Wikipédia, Linux, licences copyleft, etc., d’autres projets fondés, eux aussi, sur une utilisation fine de la propriété intellectuelle.

116

Se pose alors la question essentielle : le droit à la culture et le droit de culture seraient-ils inconciliables ? Serait-on entré dans un cercle vicieux où la concentration et la course à la rentabilité se traduisent par une paupérisation de l’immense majorité des auteurs due à des pratiques de masse (téléchargements, photocopies) en réaction aux augmentations de prix ? La transposition de la directive est perçue comme un « rendez-vous manqué » qui fait la part belle aux protections techniques et bafoue le droit à la copie privée, en partie en raison de la frilosité des pouvoirs publics. Après être remonté à d’autres batailles qui, au cours de l’histoire, opposaient déjà les tenants du domaine public et ceux du droit d’auteur, et souligné la confusion de débats toujours très vifs où chacun défend ses propres intérêts, l’auteur annonce les thèmes des prochains combats, celui du droit de suite et celui du droit d’exposition dans le domaine de l’art.

Privatisation à tout-va

117

Les données produites et commandées par le secteur public permettent de pointer du doigt la « cacophonie juridique et politique », due à la méconnaissance du droit d’auteur au sein de l’administration française, ainsi que le scandale des revues scientifiques dont les droits ne bénéficient qu’au secteur privé. L’auteur s’indigne aussi de la « politique mercantiliste outrancière » adoptée par les musées qui s’emparent du domaine public, concurrençant ainsi de manière déloyale des entrepreneurs privés. Après avoir fait le point sur les textes, notamment sur la transposition d’une directive jugée « très fade », il note que l’on « brandit » un peu trop facilement la propriété intellectuelle pour faire obstacle à l’accès aux archives sur des sujets sensibles.

118

Ce qui semble inéluctable aussi, c’est la privatisation de toute avancée scientifique. Il suffit d’évoquer le séquençage du génome humain, l’ADN, les nouveaux vaccins, la privatisation d’une plante ou d’un savoir traditionnel pour s’en persuader. Emmanuel Pierrat fustige également les tergiversations autour de la protection juridique des inventions biotechnologiques, « hâtives » et « fondées sur de mauvais arguments ». La question des plantes transgéniques a ouvert indiscutablement un « nouveau front pour la guerre des copyrights », d’autant plus inquiétant que toute erreur pourrait avoir des conséquences graves pour le monde entier.

119

Quant au droit des marques, il est quelquefois utilisé pour porter atteinte à la liberté d’expression ou pour privatiser un espace public, comme le démontrent les quelques exemples repris dans l’ouvrage. Que dire aussi des patronymes, tels que Bordas ou Inès de la Fressange, qui ont été l’objet d’enjeux tout aussi importants ? Un beau paradoxe que celui de ces marques qui « cherchent à occuper l’univers visuel et sonore » et « recourent facilement à la justice de peur de perdre leur logo ». Le cas de Bic est édifiant.

120

Un autre type de marchandise intellectuelle devait être abordé : l’image des sportifs. Assez curieusement, note l’auteur, le législateur, qui n’a pas réussi à encadrer la culture, a réussi à encadrer le sport, du moins lorsqu’il s’agit des droits de retransmission, créant dans ce cadre un « droit d’arène ». Et d’ajouter que « la reprise des sigles, les mentions des sponsors, donnent lieu à des chassés-croisés assez amusants, du moins pour le spectateur ».

121

Réaction à la multiplication des exploitations et du photocopillage, la gestion collective, qualifiée de « manne », est aussi appliquée désormais au prêt et à la copie sur support numérique. Ce chapitre présente le statut particulier de ces sociétés aux pouvoirs très spéciaux et au mode de fonctionnement souvent obscur. La gestion collective est, en effet, un « gâteau convoité » autour duquel gravitent de multiples intervenants. Après avoir pris pour exemple le cas du Centre français d’exploitation du droit de copie (CFC) et évoqué un autre modèle, celui de la licence légale, souvent décrié, l’auteur présente une autre guerre judiciaire actuelle, celle qui est faite autour du téléchargement de la musique.

Un effacement progressif des auteurs ?

122

Toutes ces remarques sont reprises dans un dernier chapitre dans lequel Emmanuel Pierrat s’interroge sur la notion même de créateur en ce début de XXIe siècle. Il semble bien que, dans le modèle actuel qui tend à devenir universel, le marché dicte l’effacement progressif des auteurs. En fait, conclut-il, si la guerre des copyrights n’est pas nouvelle, elle a pris une ampleur extraordinaire. Le panorama des droits dressé dans ce livre qui paraît pourtant bien complet n’est pas exhaustif et leur nature est difficile à appréhender puisqu’ils seraient « un peu moins qu’une propriété mais un peu plus que cela ». Aujourd’hui relégués au rang de simples marchandises, ils font toujours l’objet de discussions passionnées car ils peuvent représenter un frein au libre accès à la culture, à l’information et à la santé, et parce que la « ligne de crête » est difficile à établir entre ces deux légitimités. L’on se dirigerait vers un conflit de plus en plus violent et ubuesque.

123

Voilà quinze chapitres denses, émaillés de multiples exemples – à lire absolument !

124

Michèle Battisti

Notes

[1]

Jacques Chaumier, Le traitement linguistique de l’information, 3e éd. mise à jour et augm., Entreprise moderne d’édition, 1988.

[2]

Voir, à l’adresse www. adbs. fr/ site/ 43_2_annexeRITL. php, une liste de ressources sur ce sujet issues des publications de l’ADBS.

[3]

Jean-Pierre Lardy, Recherche d’information sur Internet : méthodes et outils, ADBS Éditions, 2001.

[4]

Philippe Lefèvre, La recherche d’informations : du texte intégral au thésaurus, Hermès, 2000. Voir l’analyse parue dans notre numéro de février 2001, vol. 38, n° 1, p. 56.

Titres recensés

  1. Les attracteurs informationnels : information et savoir dans l’entreprise, Alain Tihon, Paris : Descartes et Cie, 2005. – 169 p. – (Interface-économie). – ISBN 2-84446-091-7 : 18 €
    1. Une vision originale des processus informationnels dans l’entreprise
      1. Critiques et remises en causes
      2. La notion d’attracteurs informationnels
      3. Une réflexion fondée sur l’expérience
  2. Critique de la raison numérique, Coordonné par Virginie Paul et Jacques Perriault, avec la collaboration de Anne-Nelly Perret-Clermont, Paris : CNRS Éditions, 2004. – 272 p. Numéro de : Hermès : cognition, communication, politique, ISSN 0767-9513, 2004, n° 39. – ISBN 2-271-06245-4 : 25 €
    1. Des méthodes, des réflexions,des auteurs stimulants
      1. Pratiques numériques et lien social
      2. Pratiques d’information sous influence
      3. L’utilisateur formaté
      4. Résister. Domestiquer
      5. Pluridisciplinarité : je t’aime, moi non plus
      6. Beaucoup de champ aux humains…
  3. Manuel de bibliographie générale, Marie-Hélène Prévoteau et Jean-Claude Utard, Nelle éd. – Paris : Éditions du Cercle de la librairie, 2005. – 524 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 2-7654-0912-9 : 44 €
    1. Un indispensable classique profondément rénové
  4. Les systèmes de recherche d ’informations: modèles conceptuels, Sous la direction de Madjid Ihadjadene, Paris : Hermès Science Publications : Lavoisier, 2004. – 216 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0821-0 : 65 €.Méthodes avancées pour les systèmes de recherche d’informations, Sous la direction de Madjid Ihadjadene, Paris : Hermès Science Publications : Lavoisier, 2004. – 247 p. – (Traité des sciences et techniques de l’information). – ISBN 2-7462-0846-6 : 80 €
    1. Deux ouvrages complémentaires sur la recherche d’information
      1. Méthodes avancées de recherche sur le web
  5. Évaluation des systèmes de traitement de l’information, Sous la direction de Stéphane Chaudiron, Paris : Hermès Science Publications : Lavoisier, 2004. - 375 p. - (Traité des sciences et techniques de l’information). - ISBN 2-7462-0862-8 : 90 €
    1. D’intéressantes perspectives pour les professionnels de l’I&D
      1. Les systèmes de recherche d’information
      2. Le traitement de l’information textuelle
      3. Les systèmes de traitement de la parole
      4. L’approche usage dans l’évaluation
      5. L’enjeu de l’acceptabilité sociale de la technique
  6. Recherche d’information et traitement de la langue : fonde ments linguistiques et applications, Geneviève Lallich-Boidin et Dominique Maret ; préface de Serge Chambaud, Villeurbanne : Presses de l’ENSSIB, 2005. – 288 p. - (Les Cahiers de l’Enssib, ISSN 1634-9962 ; 3). – ISBN 2-910227-60-X : 38 €
    1. Un manuel indispensable à nombre de professionnels de l’I&D
      1. Les fondements théoriques de l’analyse linguistique
      2. Des applications à la recherche d’information
      3. Une approche pédagogique et une étroite articulation entre théorie et pratique
  7. Résumé automatique de textes, Sous la direction de Jean-Luc Minel, Paris : Hermès Science Publications : Lavoisier, 2004. – 211 p. Numéro de : Traitement automatique des langues, ISSN 1248-9433, 2004, vol. 45, n° 1. – ISBN 2-7462-1022-3 : 65 €
    1. Pour spécialistes du traitement automatique des langues
  8. Le web sémantique, Coordonné par Jean Charlet, Philippe Laublet et Chantal Reynaud, Toulouse : Cépaduès-Éditions, 2005. – 187 p. Numéro de : Information - Interaction - Intelligence, une revue en science du traitement de l’information, ISSN 1630-649X, 2004, n° hors série. – ISBN 2-85428-666-9 : 20 €
    1. De multiples entrées,des perspectives pour les professionnels de l’I&D
      1. Comprendre les évolutions à venir
  9. Les dossiers documentaires: dossier outil, dossier produit, dossier électronique, Françoise Quaire et Clotilde Vaissaire, en collaboration avec Bruno Salléras, Paris : ADBS Éditions, 2005. – 61 p. – (L’essentiel sur…, ISSN 1773-729X). – ISBN 2-84365-081-X : 15 €
    1. Un petit guide synthétique et efficace
  10. La guerre des copyrights, Emmanuel Pierrat, Paris : Librairie Arthème Fayard, 2006. – ISBN 2-213-62798-3 : 19 €
    1. À lire absolument !
      1. « Surveiller et faire cesser »
      2. L’« l’horizon du domaine public » s’éloigne lui aussi, inexorablement
      3. Droit à la culture et droit de la culture
      4. Privatisation à tout-va
      5. Un effacement progressif des auteurs ?

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information 2/2006 (Vol. 43) , p. 158-173
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2006-2-page-158.htm.
DOI : 10.3917/docsi.432.0158.


Article précédent Pages 158 - 173
© 2010-2014 Cairn.info
back to top
Feedback