Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2004/2 (Vol. 41)

  • Pages : 60
  • DOI : 10.3917/docsi.412.0126
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 126 - 140

La culture de l'information : du livre au numérique. Brigitte Juanals. Paris : Hermès Science Publications, 2003. ? 243 p. ? (Traité des sciences et techniques de l'information). - ISBN 2-7462-0691-9 : 50 €

Une étude approfondie de l'évolution des conditions d?accès à l'information

1

AU COURS DE L?EVOLUTION QUI CONDUIT de l'imprimé aux logiciels « cognitifs », les conditions de l'accès à l'information se sont constituées en un faisceau de facteurs techniques, symboliques et relationnels que l'auteur se propose ici de définir par une analyse comparative inscrite dans la durée.

2

Un premier chapitre, historique et linguistique, cerne le concept de culture de l'information, concept « hybride », au lexique appartenant à plusieurs champs disciplinaires et souvent encore en construction ou non stabilisé. On appréciera les pages (16 à 24) comparant la terminologie française, québécoise et anglo-saxonne des notions d?information literacy et de culture de l'information. Définissant trois niveaux de compétence au sein de celle-ci : maîtrise technique, culture de l'accès aux données (allant jusqu?à la production de savoirs) et culture de l'information ou culture informationnelle, qui « suppose un niveau [?] d?instruction, une connaissance des médias, une prise en compte des considérations éthiques et une intégration sociale dépassant largement une compétence documentaire et informatique » (p. 25), l'auteure précise que c?est à la signification et aux enjeux de ce troisième niveau qu?elle s?attache.

3

Elle choisit comme cadre et outil d?analyse le concept de « dispositif », constitué des outils de communication ? du livre à l'hypermédia ?, des objets, et des individus, envisagés en interaction de production et de réception d?informations. C?est l'évolution d?un modèle de transmission du savoir (par le livre) à un dispositif de « médiation des savoirs », ouvert, « à investir par le sujet » (p. 30), composé d?une pluralité d?éléments interdépendants, qui constitue le c?ur de cette étude.

L?objet retenu pour appliquer l'analyse est l'encyclopédie

4

Une encyclopédie est un « dispositif conçu pour rendre accessibles tous les savoirs au plus grand nombre ». Si la finalité du projet - reflet d?une société - a peu changé (encore que s?y soit mêlé un souci de rentabilité économique), comment les bouleversements des supports ont-ils fait évoluer les activités de collecte et d?organisation des données d?une part, les activités de repérage, d?accès aux contenus et de parcours de lecture d?autre part ? Analysant macrostructure (l'ensemble de l'?uvre) et microstructure (la page), organisation transversale (index, renvois, etc.) et classement par disciplines ou catégories, l'auteure recherche, sous l'apparente neutralité d?une encyclopédie, la « subjectivité de toute entreprise de classification et d?accès à un corpus » (p. 48) due à son éditeur. Qu?adviendra-t-il de cette ?uvre « sélective et singulière » avec l'ouverture sur les réseaux ?

5

Mais pour dégager les effets induits par les nouveaux dispositifs mis en ?uvre, encore faut-il bien les connaître. Une description très précise est donc faite des outils et des données. Le troisième chapitre, « Les technologies du multimédia » (p. 57-77), présente les deux types d?informatique disponibles : non connecté (disque compact) et connecté (Internet). Le fonctionnement des principaux outils de recherche en ligne est décrit selon trois critères : la collecte des données, l'indexation-recherche et la présentation des résultats. Cet examen dégage les difficultés que peut rencontrer, « en dépit de la puissance et de la sophistication technologique des outils de recherche » (p. 76), l'accès à une information pertinente sur Internet, espace global, « instable », ouvert. En ce qui concerne les données, un bref historique de la notion de classification et de son application dans les encyclopédies montre à quel point elle a évolué. Un tableau résume cette évolution à partir des trois dispositifs clés que sont le livre, le disque compact et le réseau (annexe 2, p. 208-209).

6

L?accès à l'information dépend aussi de la construction de l'espace offert à l'utilisateur. Avant d?en étudier les effets, l'auteure précise ce que recouvrent des termes comme réalité virtuelle, cyberespace ou ubiquité, et souligne les possibilités, certes, mais aussi les difficultés engendrées par l'espace virtuel. « De la page du livre à l'écran d?ordinateur » (chap. 6, p. 103-128), le changement de support a nécessité de redéfinir les relations entre la pensée et ce nouvel espace, dont les caractéristiques sont détaillées avec une grande précision. Les paragraphes concernant les espaces virtuels « sémantiquement structurants et fluides » (p. 123) synthétisent utilement les principales questions que peut se poser un utilisateur d?Internet quelque peu déconcerté.

7

Enfin, l'hypothèse selon laquelle la pratique éditoriale ne peut manquer d?influer sur les conditions d?accès à l'information est approfondie à partir de la riche documentation interne mise à disposition et d?entretiens avec deux responsables de l'Encyclopedia universalis. Éditée en volumes à partir de 1974, elle fut livrée sur disque compact en 1995, à nouveau sur papier - à la demande des lecteurs - en 2002, et en ligne depuis 1999-2000. Il semble bien que cette coexistence de supports doive continuer dans les années à venir. Il est hors de doute que la mise en réseau a engendré chez bien des utilisateurs, malgré d?indéniables avantages, un handicap lié à un équipement et surtout à un savoir-faire insuffisants dont l'éditeur ne peut que tenir compte.

La difficulté de construire une société de l'information

8

Constat ainsi fait, avec beaucoup de précision et quelques redites, des richesses et pesanteurs des nouveaux dispositifs d?accès à la connaissance, l'ensemble est replacé dans le contexte socioculturel dans lequel il s?exerce : économie de la connaissance, relations marchandes internationales, « externalité du savoir «, déstabilisation des acteurs traditionnellement légitimés, l'école en particulier. Vers où vont conduire l'autonomisation de l'internaute ? utilisateur et producteur ? ainsi que l'apparition de communautés, voire de tribus d?intérêt spécialisé évoluant en microsociétés ? Les observations émises en conclusion, à l'encontre des discours utopiques sur l'accessibilité démocratique au savoir, soulignent la complexité de la construction d?une culture de l'information et la nécessité d?une démarche éducative permanente. Brigitte Juanals rejoint ici, et on lui en sait gré, les interrogations de Bertrand Labasse (cf. Documentaliste - Sciences de l'information, 2004, n° 1, p. 63), d?Edgar Morin et de Louis Queré, entre autres.

9

On appréciera la méthode de l'auteur : l'étude de chaque élément conceptuel est précédée d?une analyse sémantique et d?une présentation historique. Enfin, des annexes pratiques : liste des sites web en rapport avec la maîtrise de l'information, tableau chronologique du rôle du support et de la technologie sur les modes de rassemblement, d?organisation et d?accès aux données, chronologie de l'hypertexte et de l'Internet (1945-2000), note princeps de l'Encyclopedia universalis par son éditeur Claude Gregory et une bibliographie internationale fournissent sous un volume restreint d?utiles renseignements.

10

Claire Guinchat

Knowledge management : libraries and librarians taking up the challenge. Edited by H.-C. Hobohm. München, K.G. Saur : 2004. ? 220 p. ? (IFLA Publications ; 108). ? ISBN 3-598-21838-9 : 74 ?

La gestion des connaissances dans les bibliothèques et services d?information

11

PROFESSEUR EN SCIENCES DE L?INFORMATION à l'Université des sciences appliquées de Potsdam (Berlin), Hans-Christoph Hobohm a réuni dans ce volume les actes des interventions consacrées au knowledge management lors de la Conférence générale de la Fédération internationale des associations de bibliothécaires et des bibliothèques (IFLA), qui s?est tenue en août 2001 à Boston. Il y a également rassemblé les textes présentés à des conférences antérieures à partir de 1997. Nous disposons donc en un volume d?un état des réflexions sur le knowledge management à l'IFLA, ce qui n?est pas un des moindres intérêts de cette publication. Lors de la conférence de Boston, un groupe de discussion sur ce sujet s?est constitué : de nombreux membres de ce groupe, dont les travaux ont été très suivis, sont issus de la Fédération internationale de documentation (FID) qui a cessé ses activités précisément en 2001. En 2003, l'IFLA a accepté que le groupe de discussion prenne la forme d?une section, officialisant ainsi ses activités.

12

L?ouvrage qui nous est présenté forme un tout cohérent, avec un ensemble de textes de réflexion et de cas pratiques. Le knowledge management est vu aussi bien du côté des bibliothèques que de celui des entreprises. La renommée de certains des intervenants est pour beaucoup dans le succès rencontré à Boston, qu?il s?agisse de James Matarazzo ou de Larry Prusak. Leur expérience du KM ? qui date du début des années quatre-vingt-dix dans les entreprises américaines ? peut être prise comme un exemple à suivre. Elle est retranscrite dans un article introductif, « Blow up the Corporate Library », que tout professionnel de l'information devrait lire : les auteurs pointent du doigt le fait que, bien que notre société soit dite « de l'information », les professionnels de l'information ne sont pas considérés à leur juste valeur dans les entreprises. Ceci serait dû en partie à notre conception d?un modèle de service d?information trop « daté », service conçu comme un entrepôt d?information (warehouse model). Deux alternatives sont proposées à ce modèle jugé dépassé : celle du centre d?expertise et celle du réseau documentaire.

Aspects philosophiques et politiques, aspects pratiques, études de cas

13

L?ouvrage est ensuite divisé en trois parties. La première partie, « Political and Ethical Implications », développe les aspects philosophiques et politiques du knowledge management. Rainer Kuhlen ? professeur à l'Université de Konstanz, il est considéré comme une autorité en matière de gestion de l'information en Allemagne ? met en perspective le KM, le Sommet mondial sur la société de l'information et la position déontologique de l'Unesco concernant l'information. Selon lui, la gestion des connaissances, souvent vue comme une autre manière de parler de la gestion de l'information, va bien au-delà de celle-ci. Rafael Capurro (Université de Stuttgart) insère le knowledge management dans une longue tradition philosophique et politique, Aristote et Démocrite ayant déjà développé des théories sur le concept de connaissance : il apparaît que la gestion des connaissances n?est pas qu?une nouvelle méthode de management à la mode d?aujourd?hui. Roland Wagner-Döbler (Université de Humbolt) montre le lien existant entre gestion des connaissances et gestion de l'information, notamment par rapport au management de la qualité et à la bibliométrie. Vigdor Schreibman (éditeur à Washington) constate que les bibliothèques ne peuvent régler à elles seules la question de l'organisation des connaissances, même à l'aide des technologies.

14

La deuxième partie, « Issues and Instruments », met en valeur les aspects pratiques contemporains du knowledge management. Elizabeth Davenport (Napier University, Edinburgh) explicite les concepts et leurs implications dans le travail quotidien d?un service d?information. Cette mise en relation est intéressante à plus d?un titre car elle permet de mieux comprendre quelles sont les compétences à utiliser suivant les tâches fixées. Susan Henczel (Caval Ltd, Australie) axe son intervention sur les aspects qualité et services aux usagers : selon elle, cette étape conduit droit à une démarche de knowledge management. Irène Wormell (École des sciences de l'information de Boras, Suède) prolonge le texte introductif de L. Prusak en montrant quelles compétences sont nécessaires aux professionnels de l'information pour devenir des knowledge managers : un service d?information dont la démarche est en lien direct avec la stratégie de l'entreprise est au plus près de la gestion des connaissances.

15

Anne Morris (Département des sciences de l'information, Loughborough University) développe les aptitudes nécessaires pour investir ce domaine sur le marché de l'emploi : les professionnels de l'information semblent bien positionnés, ce domaine leur permettant d?être valorisés tant du point de vue de leur image que du point de vue salarial. A. S. Chaudhry (École de communication et d?information, Singapour) et S.E. Higgins (Charles Strurt University, Australie) analysent les programmes en sciences de l'information et pointent le fait qu?ils devraient insister encore plus sur les technologies des connaissances actuelles. Enfin, Michael Koenig (Long Island University) centre sa réflexion sur la formation des utilisateurs qu?il conçoit comme étant en lien direct avec le knowledge management, ce qui confère aux bibliothécaires un rôle non négligeable.

16

La troisième partie, « Case Studies », met en valeur un certain nombre d?enquêtes ou d?expériences menées sur le terrain des entreprises. Pour exemples : une carte des connaissances du web développée au sein de l'Aarhus School of Business au Danemark (T. Bang) ; la démarche de knowledge management adoptée par le gouvernement finlandais (M. Jussilainen) ; les processus de capitalisation dans des entreprises en France (J.-P. Accart) ; un Observatoire sur la qualité au Portugal (P. Ochôa, L.G. Pinto) ; le rôle stratégique d?une bibliothèque d?entreprise à Boston (A.J. Jacobson, J.M. Matarazzo).

Le tournant du knowledge management

17

On ne saurait trop conseiller la lecture de cette publication : elle s?inscrit complètement dans le domaine d?intervention des professionnels de l'information, en considérant à la fois les aspects politiques, philosophiques, sociaux et également pratiques de la gestion des connaissances appliquée aux services d?information et de documentation. La mise en relation entre connaissances et information apparaît alors plus évidente, car de nombreux voiles sont levés au travers d?exemples concrets. Cela est d?autant plus remarquable que la majorité des publications actuelles sur le knowledge management sont le fait de spécialistes qui ne prennent pas toujours vraiment en compte l'aspect « information ». En publiant ces textes, l'IFLA confirme que notre profession a pris le tournant du knowledge management et s?inscrit dans l'actualité des entreprises.

18

Jean-Philippe Accart

La gestion des connaissances. Jean-Louis Ermine. Paris : Hermès Science Publication, 2003. ? 166 p. ? ISBN 2-7462-0660-9 : 40 ?

Une approche unifiée de la gestion des connaissances

20

FAUT-IL PRESENTER JEAN-LOUIS ERMINE, chercheur au Commissariat à l'énergie atomique, détaché à l'Université de technologie de Troyes et président du club Gestion des connaissances, créé en 1999 ? Ses ouvrages font généralement autorité en la matière, avec pour point commun une approche didactique et précise d?un sujet complexe à appréhender, la gestion des connaissances, et sa démystification par une présentation des concepts clés appliqués à la stratégie de l'entreprise.

21

Le présent ouvrage est tout cela à la fois et présente l'intérêt d?être court (166 pages) et précis. Un excellent ouvrage donc pour mieux appréhender ce que recouvre la notion de gestion des connaissances. L?approche de J.-L. Ermine est pragmatique : la connaissance est un « capital » au sens où elle constitue un patrimoine propre à chaque individu et qui, une fois « collectivisée » (ou mutualisée, selon une expression plus courante aujourd?hui), est facteur de productivité, de pérennité pour l'entreprise à qui elle donne un avantage concurrentiel déterminant. Pour cela, la mise en place d?une démarche de gestion des connaissances, élément de management stratégique, vise, par la capitalisation, à partager, à créer des connaissances. Leur cartographie est nécessaire, afin de mettre en valeur ce qui relève de l'explicite et du tacite. Un certain nombre de processus entrent en jeu (modèle de la marguerite), le premier étant celui de la capitalisation et du partage : le cycle de l'eau est pris comme métaphore et déclenche le processus d?interaction avec l'environnement. Il induit le processus de création de connaissances, processus vital permettant l'innovation. Avec le processus d?apprentissage, nous passons de l'individuel au collectif avec un lien fort avec la gestion des ressources humaines. Sélection (gestion de la relation client, sélection par l'usage) et évaluation (financière, stratégique) sont les deux derniers processus permettant de constater la réussite ou l'échec de la démarche entreprise. Le succès de la démarche repose sur plusieurs facteurs (stratégie du nénuphar) : le changement doit être approuvé, consensuel au sein d?une équipe ou d?une entreprise ; il doit trouver sa légitimation.

22

Quelle est la nature des connaissances ? Elles forment un système qui peut être pris sous l'angle de la sémiotique ou sous celui de la systémique. À ce point de l'exposé, l'auteur clarifie les notions d?information, de signification, de contexte. Il définit l'information par rapport à la connaissance.

23

L?ingénierie des connaissances repose sur des outils et des méthodes nombreux qui ont fait leurs preuves. La méthode MASK est prise en exemple, agrémentée d?études de cas sur le processus de capitalisation et le partage des connaissances, puis sur le processus d?interaction, et enfin sur celui d?innovation. L?auteur détaille le contexte de l'étude, les axes d?analyse, la façon dont sont représentées les connaissances (de manière diachronique ou synchronique) et clôt sa démonstration sur la méthode d?intégration de la capitalisation des connaissances dans les démarches d?innovation.

24

De la lecture de cet ouvrage, on peut déduire que la gestion des connaissances fait partie intégrante de la réalité actuelle de l'entreprise. Son intérêt essentiel est de nous donner une approche unifiée de la gestion des connaissances, en mettant l'accent sur les processus qui déterminent la réussite d?un tel projet.

25

Jean-Philippe Accart

La gestion documentaire selon l'ISO 9001. Laurent Lévêque. Saint-Denis La Plaine : AFNOR, 2003. ? 59 p. ? (À Savoir). ? ISBN 2-12-505052-8 : 9 ?

Un mémento pour décideurs sur la gestion des documents selon la norme ISO 9001

27

EN CINQUANTE-NEUF PAGES, LAURENT LEVEQUE (ingénieur conseil pour la qualité et auteur d?ouvrages sur le sujet) nous livre l'essentiel de la gestion documentaire. Considérant la taille et le nombre de pages de cet ouvrage, on peut se demander comment cela est possible. Mais regardons de plus près : à la question « Pourquoi gérer un système documentaire ? » (la question mérite donc encore d?être posée), l'auteur répond à juste titre qu?il est nécessaire de formaliser des pratiques, d?enregistrer et de contrôler les informations sur un produit ou un service, de mettre à disposition des éléments servant à la formation des nouveaux venus et, enfin, de faire circuler l'information dans l'entreprise. L?approche est donc nettement une approche qualité, et également gestion des connaissances.

28

Le système documentaire est à la fois procédure, instruction, enregistrement et donnée dans une approche processus telle qu?elle est exigée par la norme ISO 9001 (version 2000). Les processus de l'entreprise sont ensuite décrits au nombre de trois : pilotage, réalisation du produit ou du service, support. Le document a un cycle de vie, décrit de manière très précise (de sa conception à sa diffusion et à son archivage), il constitue un « enregistrement » qui doit être maîtrisé et avoir une traçabilité. La veille réglementaire et/ou normative est un complément indispensable au bon fonctionnement du système mis en place. L?informatisation est bien sûr nécessaire. Afin d?agrémenter sa démonstration de manière explicite, l'auteur propose des modèles standards de documents et illustre son propos de nombreux schémas.

29

On l'aura compris ? car malgré tout le titre est un peu trompeur sans l'être tout à fait? ?, cet ouvrage est plutôt un mémento sur la gestion des documents destiné aux décideurs, aux gestionnaires qualité, afin qu?ils appliquent la norme ISO 9001. Les documentalistes, à sa lecture, seront un peu désorientés car, bien qu?il soit à la fois concis et dense, il ne décrit pas les nombreuses étapes de la gestion documentaire. La consultation de ce livre peut cependant s?avérer utile pour clarifier certains points, mais il faut compléter cette information par la lecture d?ouvrages plus approfondis.

30

Jean-Philippe Accart

Le domaine public en droit d?auteur. Stéphanie Choisy ; avant-propos de Pierre-Yves Gautier. Paris : Litec, 2002. ? XI-289 p. ? (Le droit des affaires. Série Propriété intellectuelle, ISSN 0757-0341 ; 22). ? ISBN 2-7111-3410-5 : 49 ?

Une étude de questions brûlantes et délicates relatives au domaine public

32

COMME TOUTES LES THESES, celle-ci soutient plusieurs idées longuement argumentées, tout au long de près de trois cents pages paraissant dans la série des publications de l'Institut de recherche en propriété intellectuelle Henri-Desbois (IRPI). Mais si cette réflexion universitaire autour de la notion de domaine public en droit d?auteur s?interroge très classiquement sur la définition de ce concept, puis sur son usage, s?il est vrai aussi que la notion de domaine public semble bien connue et régulièrement utilisée, ce terme ne figure effectivement pas dans le Code de la propriété intellectuelle et cet aspect méritait que l'on s?y intéressât.

33

En fait, comme le rappelle l'auteure, le domaine public a une double signification puisque, s?il est appliqué aux ?uvres dont le délai de protection a expiré, il est aussi fréquemment utilisé pour qualifier des éléments qui n?ont jamais été protégés par la propriété intellectuelle, faute d?originalité ou de mise en forme. En outre, si l'on se réfère au droit administratif, il qualifie également des biens appartenant à des personnes publiques et qui sont affectés à un usage public. Il sera appliqué alors, pour ce qui concerne plus directement cette problématique, à certains actes officiels. De cette remarque découle une première idée qui sera défendue dans cette thèse : n?appartiennent au domaine public que les ?uvres dont la valeur, après une durée fixée généralement à soixante-dix ans après la mort de l'auteur, a été amortie ; les autres éléments, abusivement englobés dans cet ensemble, représentant plutôt ce qui est qualifié de « fonds commun ».

34

Cette différence pourrait sembler dérisoire si elle n?avait un impact important. En effet, si le fonds commun peut être protégé par le droit de la concurrence ou par le droit des bases de données, l'auteur affirme, en s?appuyant sur l'article 714 du Code civil qui stipule qu?il est « des choses qui n?appartiennent à personne et dont l'usage est commun à tous », que les ?uvres dites « tombées dans le domaine public », donc après l'expiration de leur durée de protection, ne peuvent plus faire l'objet d?une réappropriation. Ne subsisterait que le droit moral, en particulier le droit au respect de l'intégrité de l'?uvre, qui doit être protégé.

35

Ce sont effectivement les conclusions tirées de cette analyse qui méritent toute notre attention, puisque Stéphanie Choisy, comme l'affirme son préfacier, Pierre-Yves Gautier, « propose de résoudre un certain nombre de questions brûlantes et difficiles ». En effet, l'auteure donne aussi des arguments pour expliquer que la prorogation des années de guerre doit être introduite dans le délai des soixante-dix ans et ne pas faire renaître des droits qui avaient expiré. Elle rappelle que les ?uvres du domaine public sont hors commerce et qu?un contrat afférent à l'exploitation d?une ?uvre du domaine public serait nul. Elle affirme aussi que l'on ne peut accaparer qu?une parcelle de la chose commune mais pas sa totalité, ce qui a une incidence, notamment lors de l'adaptation ou de la restauration d?une ?uvre dont la durée des droits a expiré, voire par un recours à la propriété industrielle.

36

Pour clarifier ce dernier point, un peu délicat, nous reprenons l'un des exemples donnés dans la thèse, à savoir l'?uvre de Collodi, Pinocchio, reprise entre autres par les studios de Walt Disney. L?on nous y explique pourquoi « une distinction doit être faite entre réappropriation totale de l'?uvre, à prohiber, et réappropriation partielle », ne protégeant que certaines adaptations, créations nouvelles faites autour d?une ?uvre du domaine public. Autrement dit, comme le résume fort bien Pierre-Yves Gautier, « les droits patrimoniaux ne sauraient renaître de leurs cendres que pour des raisons très exceptionnelles » et, ajouterons-nous, très limitées.

Définir les frontières du domaine public

37

En revanche, on aurait aimé, alors que la notion de libre accès et d?autres modèles alternatifs sont régulièrement proposés aujourd?hui, qu?une attention plus grande ait été portée à la notion de « domaine public consenti », ce qui est très peu développé dans cette thèse soutenue, il est vrai, en novembre 2001. Cette « abdication », est-il spécifié, ne peut concerner naturellement que les droits patrimoniaux et non les droits moraux, ce qui a un impact sur les réutilisations autorisées puisque celles-ci portent forcément atteinte au respect de l'intégrité de l'?uvre. Est également abordée, dans ce cadre, la notion de stabilité de la renonciation des droits et sa remise en cause par une action de l'auteur, a priori impossible, mais également par celle de ses créanciers ou de ses héritiers.

38

La chose commune, « caractérisée par l'absence de propriété et l'usage commun à tous », qui s?applique classiquement aux éléments de la nature, doit s?appliquer également, affirme l'auteure, à des éléments culturels, qui doivent être librement utilisables par tous, et dont la permanence est tout aussi nécessaire. En revanche, elle s?oppose à la notion de « droit du public à l'information » lorsque celle-ci, appliquée à des ?uvres dont la durée des droits n?a pas expiré, porte atteinte au monopole de l'auteur. Le droit du public à l'information ne doit être assuré, affirme Stéphanie Choisy, que par l'existence d?un domaine public dont les frontières doivent être clairement définies. En cas de doute, signale-t-elle aussi, la constitution de la chose commune doit « profiter » à cette dernière, argument que nous tenons à reprendre. Nous ajouterons aussi qu?il importera alors de veiller soigneusement à ce que les éléments du domaine public ne puissent pas faire l'objet d?une appropriation, ce qui, dans certains cas, pourrait s?avérer très difficile à obtenir.

39

Michèle Battisti

XML et le développement des EDI. Norbert Paquel et Olivier Bezaut. Paris : Hermès Science Publication, 2002. ? 287 p., bibliogr., index. ? (Nouvelles technologies informatiques). ? ISBN 2-7462-0427-4 : 45 ?

Fonctionnement, technique et utilisation de l'échange de données informatisées

41

CET OUVRAGE ABORDE LE LANGAGE XML (eXtensible Markup Language) et l'EDI (Échange de Données Informatisées) dans le cadre du commerce électronique. De ce fait, les professionnels de l'information n?y trouveront d?intérêt que s?ils s?intéressent aux échanges de données informatisées et veulent s?inspirer de travaux réalisés dans un autre domaine.

42

Trois parties composent cet ouvrage. Dans la première, les auteurs expliquent le mode de fonctionnement de l'EDI, son environnement et les conditions de son développement. On apprend ainsi que l'EDI « n?est qu?une forme de l'échange d?informations utilisant les réseaux. Il peut être défini comme l'échange entre applications informatiques hétérogènes, avec automatisation du traitement des informations échangées ». Outre le commerce électronique, ce format peut concerner les échanges techniques liés à la production industrielle, les téléprocédures administratives et sociales ainsi que les échanges entreprises-personnes physiques. Les enjeux ne se limitent pas à l'économie de papier mais visent la simplification des procédures, la rapidité de réaction, la réduction des erreurs grâce à la suppression des ressaisies et surtout l'économie due à l'accélération du traitement.

Une nécessaire démarche de modélisation

43

La deuxième partie présente les bases du langage Edifact, la norme qui régit l'EDI, et le vocabulaire de XML. Les auteurs démontrent qu?entre ces deux techniques il n?y a pas concurrence mais convergence, d?où la naissance de « l'XML EDI ». Ceci est dû au fait que XML n?est pas un langage mais un métalangage. Il permet d?organiser l'information tout en posant la question des contenus et en étant transversal à l'ensemble des applications de l'informatique. De plus, comme il est essentiel de se placer dans une démarche de continuité par rapport aux travaux de normalisation déjà existants, XML ne fait pas table rase du passé. Cependant il ne faut pas se faire d?illusions, il ne s?agit pas de la solution magique qui va régler tous les problèmes. XML présente un risque : comme il autorise une grande liberté, il peut être vecteur de divergence et de développement non coordonnés. Il est donc nécessaire d?avoir une démarche de modélisation pour exploiter au mieux les nouveaux outils.

44

La troisième partie pose le problème des conditions d?utilisation, des choix de la mise en ?uvre dans les entreprises, les réseaux et leurs services et indique des perspectives.

45

Indépendamment des techniques qui sont présentées selon un schéma passé, présent et avenir, les auteurs n?ont pas négligé le facteur humain. Derrière toute technique se pose le problème des échanges entre hommes et femmes, et comme le souligne Francis Lorentz dans la préface, « l'enjeu essentiel c?est le changement de comportements, d?habitudes, de modes de fonctionnement, qui évoluent plutôt au rythme des générations qu?à celui des microprocesseurs «.

46

Joumana Boustany

Text-e : le texte à l'heure de l'Internet. Sous la direction de Gloria Origgi et Noga Arikha. Paris : Bibliothèque publique d?information - Centre Georges Pompidou, 2003. ? 252 p. ? (Études et recherche, ISSN 0993-8958). ? ISBN 2-84246-065-0 : 23 ?

Les TIC comme objet, support d?un colloque et condition de sa réalisation

48

LE COLLOQUE VIRTUEL ORGANISE SUR UNE PERIODE de cinq mois, d?octobre 2001 à mars 2002, par la Bibliothèque publique d?information (BPI), l'association Euro-Edu, l'institut Nicod (CNRS), avec le concours de GiantChair et sous le patronage de l'Unesco, a donné lieu à dix communications présentées ici sous une forme imprimée. La préface signée par le directeur de la BPI, Gérald Grunberg, en précise les raisons : « Très naturellement, il était prévu dès l'origine du projet de publier les actes du colloque sous forme électronique, sans pour autant renoncer à une édition imprimée. Nous sommes en effet convaincus que, loin de se poser en terme de concurrence, les usages du numérique et du papier sont complémentaires. »

49

Gloria Origgi, l'une des éditrices scientifiques de ce colloque virtuel, précise dans l'introduction les objectifs, l'historique et l'organisation de ce rendez-vous scientifique, dont les initiateurs souhaitaient « donner une opportunité à la culture ?haute? de prendre l'Internet au sérieux, de s?exprimer sur les effets du réseau sur la transformation de notre rapport au texte, tout en utilisant l'Internet comme outil de communication ».

50

Trois principaux thèmes structurent le débat. Le premier concerne les rapports entre la forme et le fond d?un document ; le deuxième, l'appropriation et la propriété de l'information ; le troisième, enfin, concerne l'impact des nouvelles technologies sur les pratiques cognitives et sociales. Chaque contribution alimentant ces différents axes de réflexion est suivie de la reproduction d?une partie des débats suscités en ligne. C?est pourquoi le lecteur est invité à compléter sa lecture en consultant le site < www. text-e. org >. Par ailleurs, les thèmes proposés par G. Origgi comme « parcours de lecture » donnent lieu à des chapitres dispersés. Et le lecteur s?interroge sur la raison d?être de ce parcours proposé en zigzag.

Une forme nouvelle de rapport au texte sous l'effet du réseau?

51

Roger Chartier aborde le premier thème en présentant « Lecteurs et lectures à l'âge de la textualité électronique » (chap. I, p. 17-50). Il y retrace l'histoire des matérialisations du livre et le rôle de ces formes dans la détermination d?un ordre du discours. L?ordinateur, seul support pour tous les genres et les contenus, rompt ce parallèle entre support matériel et contenu, « nous laissant avec une perception incertaine des formes du discours ». Dans la même optique, Roberto Casati s?interroge sur « Ce que l'Internet nous a appris sur la vraie nature du livre » (chap. II, p. 51-75). Internet libère la métaphysique du livre d?une conception peu adéquate puisqu?elle confond dans le même mot le support matériel et le contenu immatériel. « Cette libération passe curieusement par un affranchissement économique », ajoute l'auteur, reprenant l'idée de créer des sites AOC (appellation d?origine contrôlée) avant de conclure : « Nous paierons pour les aspects physiques du livre et nous en ferons circuler librement les aspects immatériels. »

52

Stevan Harnard ouvre le deuxième thème en dissertant sur « La ?ciélographie scientifique? : une anomalie postgutenbergienne » (chap. III, p. 77-103). Dans son texte très argumenté et strictement découpé, il plaide pour l'accès libre de tous les périodiques scientifiques animés par des comités de lecture qui existent dans le monde. S?adressant, tour à tour, à tous les acteurs physiques ou moraux concernés, il établit une distinction claire entre ?uvres en accès libre et celles en accès payant, nécessaire pour comprendre l'évolution du droit d?auteur.

53

Bruno Patino revient sur le premier thème à partir d?une expérience de terrain, celle du journal Le Monde. « Transmettre, réagir, se souvenir : le journalisme sur l'Internet » se résume dans ces termes clés (chap. IV, p. 105-120). D?abord version virtuelle du quotidien sur support papier, le journal a progressivement trouvé sa personnalité électronique. « Le futur de l'internet » est raconté par Théodore Zeldin dans une conversation avec G. Orrigi (chap. V, p. 121-137). Abordant le troisième thème, ce penseur propose de relier la réflexion sur la révolution technologique aux transformations de nos relations avec autrui dans nos vies privées et professionnelles. Mais, Internet, dit-il, en est encore à l'âge de Bouvard et Pécuchet dont l'ambition était de copier toutes les connaissances? Comment, aujourd?hui, pouvons-nous transformer des informations en savoir et sagesse au service de nos propres desseins ?

54

Prévoyant le futur digital du livre, Jason Epstein annonce la survie de divers formats, chacun correspondant à des contenus différents. Mais, prévient-il, malgré les difficultés actuelles (affaire Random/Rosetta), le marché digital émergera tôt ou tard et même sans l'aide d?un magicien ou la coopération des éditeurs (chap. VI, p. 139-152). Un des lieux les plus touchés par les nouvelles technologies reste la bibliothèque, lieu de mémoire et de partage de l'information. Un collectif de bibliothécaires de la BPI en apporte le témoignage dans le chapitre VII au titre explicite : « Babel ou le choix du caviste : la bibliothèque à l'heure du numérique » (p. 153-176).

55

De son côté, Dan Sperber s?interroge : « Vers une lecture sans écriture ? » (chap. VIII, p. 177-195) en invitant son lecteur à réfléchir avec lui sur les conséquences d?une disparition progressive de l'écriture manuelle comme technique de production des textes dans un monde où l'on continuera à apprendre à lire. En écho, Stefana Broadbent et Francesco Cara analysent « Les nouvelles architectures de l'information » (chap. IX, p. 197-213) pour tenter d?expliquer, en termes d?usages, la chute de la première vague de la nouvelle économie. Umberto Eco clôture ce colloque virtuel dans un entretien avec G. Origgi portant sur « Auteurs et autorités » (chap. X, p. 215-232), une occasion de rappeler que l'histoire du droit d?auteur n?a pas plus de quatre siècles, commençant avec le privilège du roi. La divergence entre les intérêts des auteurs et ceux des éditeurs peut transformer le droit d?auteur dans l'avenir.

? et une forme nouvelle de débat scientifique

56

Et, en guise de conclusion provisoire, Agnès Camus-Vigué et Françoise Gaudet présentent « Les usages de Text-e, premières évaluations » d?une enquête lancée sur l'audience de ce colloque original. Il s?agit de mesurer la participation passive ou active des acteurs de ce colloque et de mesurer ce que les personnes concernées ont retenu de cette réunion virtuelle au niveau des contenus bien sûr, mais aussi au niveau de cette forme de rencontre nouvelle proposée aux participants. Leurs réactions sont celles du lecteur du document imprimé, captivé par l'ensemble de ces communications riches d?idées, denses en réflexions et informations. Pour lire ces textes qui concernent son environnement proche et futur, le professionnel de l'information a tout intérêt à se placer dans cette perspective de dialogue et d?échange qui fut celle des participants à ce colloque virtuel. Quelle est sa réaction ? Retrouve-t-il cette perspective dans les débats clôturant chacun des dix chapitres de ce livre ? Quelle que soit sa réponse, il est à parier qu?il sera présent lors du prochain colloque virtuel.

57

Marie-France Blanquet

Entreposage et fouille de données. Rédigé par Omar Boussaïd et Stéphane Lallich. Toulouse : Cépaduès Éditions, 2003. ? 282 p. Numéro de : Revue des nouvelles technologies de l'information, 2003, n° 1. ? ISBN 2-85428-621-9 : 35 ?

Recherches actuelles sur l'extraction de connaissances à partir de données

59

ORGANISEE DANS LE CADRE DES 35es JOURNEES de statistiques de la SFDS à Lyon en 2003 sous la responsabilité du laboratoire ERIC (Université de Lyon 2), la session intitulée « Entreposage et fouille de données » a été l'occasion pour les chercheurs et les praticiens d?échanger des idées, et de poser la spécificité de ces deux concepts.

60

Entreposage des données et fouille de données sont des disciplines récentes, issues de la confluence des statistiques, de l'intelligence artificielle et des bases de données. Elles se rattachent toutes deux à l'extraction de connaissances à partir des données (ECD), qui propose un cadre général dans lequel sont regroupées les méthodes qui permettent de faire face aux problèmes d?organisation des données et de leur exploitation. L?entreposage, ou data warehousing, précisent les rédacteurs invités, a pour objet d?organiser les très grands volumes de données, de les structurer et de les préparer à l'analyse. La fouille de données, ou data mining, a pour but d?extraire des connaissances à partir des données, par diverses méthodes, une fois ces données acquises et préparées. Ces méthodes se complètent. Il s?agit désormais d?organiser leur synergie.

61

Vingt-quatre contributions, très savantes, constituent ce numéro spécial qui s?adresse à des chercheurs de haut niveau et spécialisés. Il est divisé en trois grandes parties. Six textes portent sur l'entreposage des données, douze sur la fouille de données. S?y ajoutent six contributions sur la « statistique pour l'image » scientifique et technique.

62

Le professionnel de l'information ou le chercheur en sciences de l'information pourront comprendre, grâce à ces textes extrêmement difficiles à lire et qui ne s?adressent pas réellement à eux, la complexité de recherches qui débouchent déjà et, encore plus demain, sur des outils de gestion permettant de maîtriser les grandes masses de données hétérogènes dont disposent les entreprises et les flots de données circulant sur le réseau. Ce livre leur indique les termes clés sur lesquels ils doivent veiller en attendant la parution de documents vulgarisant ces savoirs savants, mais surtout les logiciels les autorisant à mieux exploiter les masses d?informations à gérer.

63

Marie-France Blanquet

Extraction automatique d?information : du texte brut au web sémantique. Thierry Poibeau. Paris : Hermès Science Publications, 2003. ? 239 p. ? ISBN 2-7462-0610-2 : 55 ?

Vers des applications d?extraction automatique d?information

65

LE SUCCES DE L?EXTRACTION D?INFORMATION est-il l'aveu que la compréhension de textes est loin de notre portée ou même inaccessible ? questionnent Adeline Nazarenko et Célestin Sedogbo, signataires de la préface de cette étude. Cette interrogation résume l'objectif de ce travail que l'auteur se propose d?aborder par l'examen des différentes approches de la compréhension de textes qui se sont succédé historiquement. L?extraction d?information désigne l'activité qui consiste à alimenter automatiquement une banque de données à partir de textes écrits en langage naturel. En ce sens, elle s?oppose à la recherche documentaire traditionnelle qui vise à retrouver dans une base de documents un ensemble pertinent répondant à une question. L?extraction met en ?uvre une analyse de texte pour produire du factuel, c?est-à-dire pour remplir un formulaire prédéfini.

66

Dès l'introduction, l'auteur donne un exemple clair qui encourage le lecteur à poursuivre sa lecture, même si la table des matières donnée en début d?ouvrage lui en a révélé la difficulté et le niveau scientifique. Cette étude vise, en effet, à apporter des réponses ou des éléments de réponse aux questions qu?il peut se poser sur les ressources et les méthodes utilisées dans l'extraction d?informations et la place accordée à l'utilisateur.

67

Thierry Poibeau s?interroge également sur la possibilité de déboucher sur des applications opérationnelles, c?est-à-dire la mise en place d?une solution d?extraction dans un cadre industriel. Pour cela, il découpe son travail en huit chapitres. Le premier, « Des systèmes de compréhension de textes aux systèmes d?extraction d?information » (p. 17-34), explique l'approche trop ambitieuse des systèmes de compréhension de textes mais également leur apport dans la problématique de l'extraction d?information. Les techniques d?extraction sont, en général, fondées sur une analyse locale progressivement étendue au moyen de transducteurs linguistiques appliqués en cascade sur le texte. Ceux-ci, élaborés à la main par le concepteur du système, imposent une tâche longue et coûteuse. C?est pourquoi de nombreuses équipes de recherche se penchent sur l'acquisition semi-automatique de patrons d?extraction.

68

Ce point fait l'objet du chapitre 2, « Stratégies pour l'acquisition semi-automatique de ressources pour l'extraction » (p. 35-49), qui permet à l'auteur de s?orienter « Vers une mise en ?uvre opérationnelle de l'extraction d?information » (chapitre 3, p. 51-66) tenant compte d?applications déjà opérationnelles dans le domaine de la veille technologique, par exemple. Cette mise en ?uvre est abordée en posant l'idée que l'évaluation devra prendre en compte non seulement les performances du système mais aussi son niveau d?utilisabilité. Ce travail débouche sur « SEMTEX : architecture du système et cadre applicatif » (chapitre 4, p. 67-86). Ce système, explique l'auteur avec humour, vise « à capturer un peu de la SEMantique des TEXtes. Il s?agit aussi d?un Système d?Extraction et de Manipulation de TEXtes. » Ces textes préanalysés sont des courriers et des dépêches AFP. « Qui utilise le système et pour quel service ? », interroge T. Poibeau. L?examen de ces questions le conduit à opérer des choix pour son application. Il présente globalement l'architecture de son système, décrit par la suite (chap. 5 à 8) de façon détaillée. Le module d?extraction des entités intervenant pour la reconnaissance des noms de personnes, de lieux, d?entreprises, de dates, etc., fait l'objet du chapitre 5, « Repérage d?entités nommées : une approche à base de connaissances hybrides » (p. 87-116).

Quelques outils opérationnels, des perspectives prometteuses

69

Une fois que les entités du texte ont été identifiées, il importe de les mettre en relation afin de préciser leur rôle dans le texte. Ce point constitue le chapitre 6, « La mise en relation des entités » (p. 116-126). L?extraction met en jeu des ressources dépendant du domaine visé. Ces ressources se présentent traditionnellement sous la forme de patrons d?extraction. L?auteur en a présenté des exemples dans le chapitre précédent. Cependant, avant d?entreprendre l'écriture des patrons, l'« Acquisition semi-automatique de classes sémantiques » (chap. 7, p. 127-149) est nécessaire car ce sont elles qui guident l'analyse et la recherche de contextes. En s?appuyant sur des exemples, l'auteur présente quelques outils d?acquisition de ressources tout en soulignant leurs limites.

70

Le chapitre 8, enfin, décrit l'« Acquisition semi-automatique de patrons d?extraction » (p. 151-180). Effectuée de façon manuelle, cette opération se révèle lourde et fastidieuse. Son automatisation représente donc un enjeu important, décrit dans ce texte illustré de très nombreux exemples, bien venus pour permettre une meilleure compréhension de ce que l'auteur veut démontrer, avec une très grande rigueur intellectuelle et d?expression, et qu?il confirme dans sa conclusion : « Les paliers traditionnels de l'analyse linguistique n?ont plus grand intérêt pour la tâche. » Et si les systèmes d?extraction restent des « systèmes de facture classique », une certaine unification apparaît dans les traitements, ouvrant la voie sur un futur espéré fécond.

71

Dans l'importante bibliographie donnée en fin d?ouvrage (p. 212-226), le professionnel de l'information ne rencontre aucun des siens. Il se reconnaît davantage dans le glossaire où sont définis les termes de bruit, silence, rappel, pertinence? C?est pourquoi il doit lire ce texte difficile mais captivant, écrit par un scientifique de haut niveau mais aussi pédagogue. Les nombreuses illustrations permettent en effet au lecteur, même peu averti des problématiques d?ingénierie linguistique, de comprendre l'essentiel des recherches de l'auteur. L?extraction automatique d?information, décrit par T. Poibeau, l'intéresse dans les moments clés de sa vie professionnelle : l'analyse, l'indexation, la recherche d?information, la linguistique appliquée. Quoi qu?il en soit, la lecture de ce texte montre que les professionnels de l'information croisent sur leur route d?autres professionnels qui partagent avec eux des problématiques identiques, complémentaires, et qu?ils s?enrichiront mutuellement en engageant le dialogue.

72

Marie-France Blanquet

Accès intelligent aux documents multimédias sur l'Internet : MédiaNet 2002, 17-21 juin 2002, Sousse, Tunisie. Coordonné par Liming Chen, Abdelmajid Ben Hamadou et Mesaac Makpangou. Paris : Hermès Science Publications, 2002. ? 407 p. ? ISBN 2-7462-0500-9 : 90 ?

Un état des recherches sur l'accès aux documents multimédias

74

LA GENESE DE MEDIANET, PREMIER FORUM de recherche sur l'évolution d?Internet vers des contenus multimédias, est le projet CoCo, réseau de recherche franco-tunisien. La profusion du multimédia pose des défis en des termes renouvelés quant à la chaîne de production et de diffusion de documents multimédias et d?accès à ceux-ci. Ce sont ces nouveaux défis que les nombreux participants à cette conférence, venus du monde entier, ont voulu relever.

75

Leurs contributions, de longueur très inégale, souvent très courtes (deux à cinq pages, parfois réduites au seul résumé d?auteur), cosignées par deux à cinq auteurs, écrites parfois en anglais, parfois en français, accompagnées d?un résumé en français et en anglais, d?une indexation parfois étonnante pour le documentaliste (termes au pluriel, phrases entières, par exemple) et souvent de références bibliographiques, sont organisées en neuf principaux points.

76

La session 1, « Tutoriaux et conférences invitées » (p. 13-60), ouvre sur six textes aux titres explicites. Françoise Prêteux présente une revue synthétique concernant les « Enjeux et technologies des standards MPEG-4 et MPEG-7 ». Ahmed Mostefaoui décrit les différents composants d?un serveur multimédia, en particulier les « Techniques de stockage et d?accès aux données multimédias ». Dimitrova Nevenka fait un tour d?horizon sur le domaine de l'analyse automatique de contenus à partir de plusieurs applications. « Édition multimédia : de XML à SMIL, quels outils pour quel confort d?édition ? » interroge Cécile Roisin. La rétroconversion, explique dans le texte suivant Abdel Belaïd, a pour ambition d?effectuer la conversion du papier vers le numérique, ouvrant ainsi de nouvelles voies pour l'exploitation adaptée à une lecture personnalisée du document. Enfin, Luigi Lancieri, Liming Chen et Mesaac Makpangou présentent le « projet RNRT (Réseau national de recherche en télécommunication) Cyrano : système de réplication actif personnalisé de flux audiovisuel sur Internet ». Ce projet est axé sur les technologies de réplication coopératives, l'indexation de programmes audiovisuels ainsi que la distribution des contenus sur Internet. Il a été labellisé en France en 2000.

77

Cette session 1 est relativement facile à lire, même pour un professionnel de l'information non-spécialiste du multimédia à qui elle peut servir d?excellente introduction pour comprendre les problématiques liées à l'audiovisuel. Il n?en est pas de même pour les sessions suivantes qui s?adressent en priorité à des spécialistes. La session 2, « Analyse et indexation de la vidéo » (p. 61-90), est, à cet égard, composée de trois textes aux titres peu explicites : « Schémas de détection de tatouage audionumérique robuste à une attaque du type filtrage passe-tout » ; « Détection et extraction automatique de texte dans une vidéo : une approche par morphologie mathématique » ; « Face Detection, Tracking and Recognition in Video ». Cependant, s?il est difficile de lire et de maîtriser les algorithmes de démonstration défendus par les différents auteurs de ces contributions, le lecteur non spécialiste peut avoir l'intuition, grâce aux nombreux exemples donnés, des objectifs des formules mathématiques qui composent ces textes.

78

« Interface d?accès aux informations multimédias » (session 3, p. 91-128) fait appel à un autre type de spécialisation : la relation homme/machine. Elle est composée de trois articles. Le premier « ACTIVe3D : interrogation de scènes 3D en SQL » présente une méthode de modélisation et de stockage par le contenu d?objets 3D dans une base de données relationnelle. Le deuxième traduit le « Dialogue homme-machine pour l'accès à l'information géographique » quand le troisième propose une méthode spécifique de recherche de vidéo : « VRS : Vidéo Retrieval System based on Script Structure Recognition ».

79

« Pourquoi le web resterait-il sourd à nos envies de musique et de son ? » interroge Francis Rousseau en ouvrant la session 4, « Web sémantique » (p. 129-184). À sa suite, sont présentés un « Modèle étendu pour le partage d?annotations audiovisuelles », un « Système de reformulation de requêtes pour la recherche d?information », un « Système de filtrage pour le web nommé Actif (Adult Content detection and Filtering) » ainsi qu?une « Contribution à la modélisation et interrogation de métadonnées ». Le documentaliste découvre dans ces textes le web sémantique abordé, non pas sous l'angle des textes qui lui est plus ou moins familier, mais sous l'angle de l'audiovisuel qu?il connaît moins.

80

« Analyse, compression et indexation d?images fixes » constitue le thème de la cinquième session (p. 185-230). Combiner les méthodes de data mining et d?analyse d?images permet à des chercheurs de l'université de Lyon 2 de proposer une « Définition d?un modèle de peau et son utilisation pour la classification des images ». D?autres se penchent sur le « Codage d?images par ondelettes : optimisation de zone-morte dans la norme JPEG2000 », la « Génération de primitives 3D par utilisation de l'analyse harmonique sur les groupes » ou sur la « Fonction de hachage robuste et invariant pour images ». Les titres des communications parlent d?eux-mêmes pour dire le haut niveau de spécialisation des textes et leur difficulté d?assimilation.

81

En ce sens, la session 6 ne surprend pas le lecteur. Elle s?interroge non plus comme la précédente sur l'image fixe mais sur l'« Analyse et indexation audio » (p. 231-254) en abordant le thème de la reconnaissance automatique de la parole par différents types de réseaux de neurones : application à la recherche d?information et à la description de scènes vidéos.

Perspectives du web sémantique pour le multimédia

82

La session 7 retrouve « Le web sémantique pour des applications multimédias » (p. 255-330). Le documentaliste est davantage à son aise pour y lire « Le web : une source d?information pour l'intégration de multi-termes dans le processus de recherche d?information », ou le « Filtrage et classement automatique des documents issus du web » ou l'« Utilisation des métadonnées pour une recherche sémantique des données scientifiques ». « SYFAX : un système de cache web sémantique pour des communautés distribuées » est présenté ensuite en précisant les bénéfices que la communauté d?utilisateurs coopérants peuvent en tirer. L?article suivant décrit une architecture basée sur un proxy pour l'« Adaptation dynamique dans une application multimédia répartie ». Cette session se termine sur « Un exemple de personnalisation de sites web utilisant des modificateurs linguistiques symboliques « et la présentation de « MAPIRNET : A Multi-Agent Prototype to the Information Retrevial over the NET ». Toutes les applications multimédias présentées au cours de cette session permettent au lecteur de mesurer les avancées scientifiques et techniques avec, en arrière-plan, le regret d?un manque d?unité dans toutes ces expérimentations, réduites encore à l'état de prototypes sans applications généralisées réelles.

83

La session 8, « Applications » (p. 333-352), suscite le même sentiment avec la « Reconstruction en 3D d?une paire stéréo calibrée de monuments des sites archéologiques de Carthage », la description d?« Une architecture de courtiers pour le commerce électronique » et « Une étape de prévisualisation en recherche vidéo ».

84

« Images et vidéo » (session 9, p. 353-407) clôture ce colloque avec sept interventions sur la détection et le suivi d?objets dans les images vidéo en utilisant les données directement extraites de MPEG. On y parle aussi de l'« Optimisation de la compression TCD avec des tailles de bloc variables par la fonction lagrangienne », d?un « Schéma efficace de cryptocompression pour les images médicales », d?une « Classification d?images par concept », d?« Architectures reconfigurables dynamiquement dédiées au TIBN (Traitement d?Images Bas Niveau) ». « Une nouvelle approche pour la détection des transitions progressives » et « Application de la méthode des séries de Fourier aux images couleurs » clôturent cette session et le document.

85

La lecture des titres donnés aux diverses communications de ce colloque international donne l'idée du niveau scientifique et multidisciplinaire en informatique, en intelligence artificielle, en multimédia, etc., nécessaire pour comprendre et assimiler les informations apportées. Par ailleurs ? c?est souvent le cas dans la publication des actes d?un colloque ? ce document manque d?unité dans son fonds comme dans sa forme. Certaines communications sont plus aisées à lire (celles qu?illustrent de nombreux exemples) que d?autres, qui reposent, par exemple, sur des formules mathématiques ou des algorithmes compliqués. Le professionnel de l'information ou le chercheur spécialisé trouvera dans ces textes de nombreuses informations sur les recherches, les expérimentations, les applications concernant l'accès intelligent aux documents multimédias sur Internet. L?étudiant en maîtrise ou en thèse y trouvera un enseignement et des exemples à exploiter ou à adapter éventuellement à son travail. Au professionnel de l'information ce colloque permet de rencontrer un monde en pleine ébullition, reflet de ce que sera son futur même si, pour l'instant, le dialogue est ardu?

86

Marie-France Blanquet

Intelligence linguistique : le calcul du sens des énoncés élémentaires. Jacques Rouault et Maria-Caterina sManes-Gallo. Paris : Hermès Science Publications, 2003. ? 271 p. ? ISBN 2-7462-0740-0 : 60 ?

Travaux récents sur la recherche automatique du sens

88

CE LIVRE, PRECISENT LES AUTEURS DANS LEUR INTRODUCTION, est centré sur deux problèmes imbriqués : comment « atteindre automatiquement le sens d?un texte pour représenter les connaissances qu?il véhicule et effectuer des inférences à partir des connaissances et comment résoudre ce problème à partir du texte lui-même et non sur la base de savoirs liés à ce texte et posés a priori dans une représentation des connaissances guidant le traitement linguistique ? »

89

Pour mener à bien ce travail de traitement automatique des langues (TAL), Jacques Rouault, professeur émérite de sciences de la communication, et Maria-Caterina Manes-Gallo, maître de conférences en sciences du langage, posent le cadre de leur étude dans le premier chapitre : « Le couple sémantique pragmatique » (p. 19-32). Les applications présentées ont été réalisées au sein de l'équipe Connaissances, Recherche d?information, Interface et Système de Traitement (CRISTAL) du laboratoire GRESEC de l'université de Grenoble. Elles concernent toutes la relation homme/machine et la recherche d?information à partir d?une base de données ou du texte intégral. Leur but est d?approfondir les problématiques différentes de la modélisation des connaissances véhiculées par ces deux types d?accès à l'information. Cela les entraîne à centrer leur attention sur le comportement de l'utilisateur appelé à chercher de l'information dans une masse de documents techniques dont les auteurs rappellent la spécificité : organisés en parties indépendantes, ces documents favorisent la consultation ponctuelle, à l'inverse de la lecture linéaire qu?exigent d?autres types de documents. L?élaboration d?un système de traitement automatique des langues nécessite de distinguer plusieurs niveaux et types de signification, interactifs et complémentaires, entraînant des modes de représentation des connaissances différenciés.

90

Le résultat de ce travail pluridisciplinaire, fondé sur la linguistique, les disciplines formalisantes et l'informatique, est présenté en trois parties. Pour poser le problème de manière précise, les auteurs donnent d?abord une partie de la pragmatique, celle qui concerne les « objets-de-discours », composée de deux chapitres : « Représentation des connaissances » (p. 33-50) et « Les objets-de-discours individuels » (p. 51-82). Le lecteur y découvre le concept de « mémoire discursive » définissant le langage de représentation des connaissances du niveau pragmatique.

91

Vient ensuite l'introduction des « énoncés élémentaires » et leur traitement sémantique. Cette deuxième partie, constituée de cinq chapitres (p. 83-206), expose le modèle de sémantique linguistique qui vise à prendre en compte un certain implicite véhiculé par le langage de représentation des connaissances du niveau pragmatique, analysé dans la première partie ; ce langage, à base nominale, comporte principalement des expressions prédicatives. Il est possible alors de généraliser le modèle pragmatique à ces énoncés et de montrer comment on peut représenter les connaissances à la fois objectales et prédicatives dans une base unique, appelée mémoire discursive.

92

Ce point fait l'objet de la troisième partie de cette savante étude « La représentation et la gestion des connaissances » qui présente dans deux chapitres le système de cette mémoire : le « Langage » (chap. 9, p. 209-228), les « Raisonnements et fonctionnement » (chap. 10, p. 229-249) avant de conclure dans le chapitre 11 (p. 251-262) sur les « Éléments pour un système d?analyse automatique de la langue ».

93

La bibliographie comme l'index qui clôture cet ouvrage permettent de comprendre ce qu?annonçait déjà la table des matières : la difficulté de la lecture de ce texte de haut niveau scientifique qui demande des connaissances multiples et multidisciplinaires pour être assimilé dans son intégralité. Cependant, malgré cette complexité, le professionnel de l'information doit lire ou consulter ce document pour deux principales raisons. Parce qu?il se trouve en pays de connaissance dans certains passages où les auteurs parlent de recherche d?information, d?utilisateur ou de documents, de langage et de linguistique appliquée. Il le lira aussi parce que cet ouvrage lui permet de rencontrer des scientifiques avec lesquels il peut être appelé à travailler : les sciences de l'information étant, elles aussi, pluridisciplinaires et concernées par les recherches sur le langage.

94

Marie-France Blanquet

Construire des indicateurs et tableaux de bord. Sous la direction de Pierre Carbone. Villeurbanne : Presses de l'ENSSIB ; Paris : Tec α Doc, 2002. ? 256 p. ? (La boîte à outils, ISSN 1259-4857 ; 15). ? ISBN 2-910227-45-6 (ENSSIB), ISBN 2-7430-0550-5 (Tec α Doc) : 36 ?

Pour placer l'usager au c?ur du service

95

CE TRAVAIL A POUR AMBITION de « rendre plus aisée la pratique concrète de l'évaluation, et de mettre à la portée de tous la construction d?un tableau de bord par des apports progressifs ». Se préoccuper d?évaluation n?est pas chose nouvelle. Ce qui est nouveau, c?est que l'exigence de gestion prend une place grandissante depuis quinze à vingt ans ; principalement quand une bibliothèque se demande si elle répond aux besoins et aux attentes de ses usagers. L?évaluation est un processus global qui comprend de nombreux points d?entrée et différents aspects que ce livre entend analyser. Mais attention, prévient Pierre Carbone, c?est « une boîte à outils et non un livre de recettes » !

96

Une douzaine d?auteurs s?attellent à la tâche pour construire cette boite à outils en abordant quatre thèmes principaux.

97

« Mesurer la qualité des bibliothèques de service public : enjeux, acteurs, partenaires » (première partie, p. 13-35) ouvre sur deux chapitres. Le premier présente le rôle et les missions des services communs de la documentation des universités (B. Dizambourg). Puis D. Arot rappelle que, pour les bibliothèques de lecture publique en France, l'évaluation en est encore à ses débuts.

98

« Mieux répondre aux besoins et aux attentes du public » (deuxième partie, p. 39-84) permet à P. Debrion d?établir une étude comparative entre différentes enquêtes réalisées en des temps et des lieux différents et par des acteurs différenciés. « Améliorer le service public » est l'objectif de la contribution de L. Klee qui présente les initiatives prises en ce sens par la bibliothèque de l'Université de Nice Sophia-Antipolis.

99

« Mettre en pratique une gestion dynamique des collections » (troisième partie, p. 87-150) comporte un chapitre sur les périodiques scientifiques présentés par M. Farguell et C. Kleb. Le cas de la médiathèque de la Cité des sciences est commenté par J. Muller, puis J. Bernon examine les critères d?évaluation des services et des ressources électroniques.

100

La quatrième partie, enfin, « Mesurer la performance » (p. 153-252), donne la parole à E. Larbre et V. Mathieu-Valle pour dire comment optimiser l'utilisation des moyens et la gestion d?un service. « Améliorer la gestion des ressources humaines. Quelle gestion des emplois et des compétences en bibliothèque ? » interroge A. Chauvet. M. Maisonneuve nous apprend à construire un tableau de bord. P. Carbone analyse la norme internationale ISO 11620 sur les indicateurs de performance des bibliothèques avant de conclure sur la portée politique de ces indicateurs et des tableaux de bord, sur le sens qu?ils revêtent pour les usagers, sur la nécessité de mobiliser le personnel et de définir des objectifs précis, quantifiés, classifiés selon des objectifs clairement explicités. Outils de gestion de projets, les indicateurs et tableaux de bords doivent permettre d?échanger, d?évoluer et d?évaluer.

101

Technique et précise, cette étude est d?abord destinée aux bibliothécaires de terrain soucieux de mesurer leurs activités professionnelles. Elle permettra aussi à l'étudiant de comprendre la nécessité et l'importance de l'évaluation continue grâce à laquelle on peut modifier des pratiques pour améliorer le service rendu à l'usager.

102

Au terme de la lecture de ce document, le professionnel de la documentation se prend à regretter l'absence d?études menées de façon aussi concise, claire et efficace dans son domaine. Qui pourrait proposer une boîte à outils utile à tous les documentalistes, leur permettant de disposer des outils susceptibles de mesurer l'impact de leurs activités, la qualité de leur service, leur performance, leur relation avec l'usager ? Ce livre qui reste à écrire pourrait très judicieusement s?inspirer de la présente étude dans laquelle, malgré tout, le documentaliste se sent parfois étranger, n?ayant pas toujours les mêmes motivations, le même environnement ni le même type d?usager que le bibliothécaire.

103

Marie-France Blanquet

Titres recensés

  1. La culture de l'information : du livre au numérique. Brigitte Juanals. Paris : Hermès Science Publications, 2003. ? 243 p. ? (Traité des sciences et techniques de l'information). - ISBN 2-7462-0691-9 : 50 €
    1. Une étude approfondie de l'évolution des conditions d?accès à l'information
      1. L?objet retenu pour appliquer l'analyse est l'encyclopédie
      2. La difficulté de construire une société de l'information
  2. Knowledge management : libraries and librarians taking up the challenge. Edited by H.-C. Hobohm. München, K.G. Saur : 2004. ? 220 p. ? (IFLA Publications ; 108). ? ISBN 3-598-21838-9 : 74 ?
    1. La gestion des connaissances dans les bibliothèques et services d?information
      1. Aspects philosophiques et politiques, aspects pratiques, études de cas
      2. Le tournant du knowledge management
  3. La gestion des connaissances. Jean-Louis Ermine. Paris : Hermès Science Publication, 2003. ? 166 p. ? ISBN 2-7462-0660-9 : 40 ?
    1. Une approche unifiée de la gestion des connaissances
  4. La gestion documentaire selon l'ISO 9001. Laurent Lévêque. Saint-Denis La Plaine : AFNOR, 2003. ? 59 p. ? (À Savoir). ? ISBN 2-12-505052-8 : 9 ?
    1. Un mémento pour décideurs sur la gestion des documents selon la norme ISO 9001
  5. Le domaine public en droit d?auteur. Stéphanie Choisy ; avant-propos de Pierre-Yves Gautier. Paris : Litec, 2002. ? XI-289 p. ? (Le droit des affaires. Série Propriété intellectuelle, ISSN 0757-0341 ; 22). ? ISBN 2-7111-3410-5 : 49 ?
    1. Une étude de questions brûlantes et délicates relatives au domaine public
      1. Définir les frontières du domaine public
  6. XML et le développement des EDI. Norbert Paquel et Olivier Bezaut. Paris : Hermès Science Publication, 2002. ? 287 p., bibliogr., index. ? (Nouvelles technologies informatiques). ? ISBN 2-7462-0427-4 : 45 ?
    1. Fonctionnement, technique et utilisation de l'échange de données informatisées
      1. Une nécessaire démarche de modélisation
  7. Text-e : le texte à l'heure de l'Internet. Sous la direction de Gloria Origgi et Noga Arikha. Paris : Bibliothèque publique d?information - Centre Georges Pompidou, 2003. ? 252 p. ? (Études et recherche, ISSN 0993-8958). ? ISBN 2-84246-065-0 : 23 ?
    1. Les TIC comme objet, support d?un colloque et condition de sa réalisation
      1. Une forme nouvelle de rapport au texte sous l'effet du réseau?
      2. ? et une forme nouvelle de débat scientifique
  8. Entreposage et fouille de données. Rédigé par Omar Boussaïd et Stéphane Lallich. Toulouse : Cépaduès Éditions, 2003. ? 282 p. Numéro de : Revue des nouvelles technologies de l'information, 2003, n° 1. ? ISBN 2-85428-621-9 : 35 ?
    1. Recherches actuelles sur l'extraction de connaissances à partir de données
  9. Extraction automatique d?information : du texte brut au web sémantique. Thierry Poibeau. Paris : Hermès Science Publications, 2003. ? 239 p. ? ISBN 2-7462-0610-2 : 55 ?
    1. Vers des applications d?extraction automatique d?information
      1. Quelques outils opérationnels, des perspectives prometteuses
  10. Accès intelligent aux documents multimédias sur l'Internet : MédiaNet 2002, 17-21 juin 2002, Sousse, Tunisie. Coordonné par Liming Chen, Abdelmajid Ben Hamadou et Mesaac Makpangou. Paris : Hermès Science Publications, 2002. ? 407 p. ? ISBN 2-7462-0500-9 : 90 ?
    1. Un état des recherches sur l'accès aux documents multimédias
      1. Perspectives du web sémantique pour le multimédia
  11. Intelligence linguistique : le calcul du sens des énoncés élémentaires. Jacques Rouault et Maria-Caterina sManes-Gallo. Paris : Hermès Science Publications, 2003. ? 271 p. ? ISBN 2-7462-0740-0 : 60 ?
    1. Travaux récents sur la recherche automatique du sens
  12. Construire des indicateurs et tableaux de bord. Sous la direction de Pierre Carbone. Villeurbanne : Presses de l'ENSSIB ; Paris : Tec α Doc, 2002. ? 256 p. ? (La boîte à outils, ISSN 1259-4857 ; 15). ? ISBN 2-910227-45-6 (ENSSIB), ISBN 2-7430-0550-5 (Tec α Doc) : 36 ?
    1. Pour placer l'usager au c?ur du service

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information, 2/2004 (Vol. 41), p. 126-140.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2004-2-page-126.htm
DOI : 10.3917/docsi.412.0126


Article précédent Pages 126 - 140
© 2010-2014 Cairn.info
back to top
Feedback