Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2009/1 (Vol. 46)

  • Pages : 80
  • DOI : 10.3917/docsi.461.0070
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 70 - 77

Une réflexion riche et stimulante sur l’avenir du livre

Gutenberg 2.0 : le futur du livre. Lorenzo Soccavo, Préface de Paul Soriano. – 2e éd. – Paris : M21 Éditions, 2008. – 220 p. – ISBN 2-916260-12-9 : 23 €

1

« Six siècles après Gutenberg, une nouvelle révolution va changer votre façon de lire », prédit Paul Soriano dans la préface de la deuxième édition de cet ouvrage. Il salue cette étude en remerciant l’auteur pour sa modération. « On lui saura gré de s’être tenu éloigné de deux catégories de commentateurs peu fréquentables : celle des fondamentalistes ("Touche pas à mon livre !") et celle des exterminateurs ("Vivement qu’on s’en débarrasse !") ». L’intention de l’auteur est, dès lors, très claire. C’est celle d’informer et uniquement informer. C’est ce qu’il fait au cours des cinq chapitres qui composent son texte.

2

« Le livre n’est pas un produit comme un autre », affirme Lorenzo Soccavo dans le premier chapitre. Son histoire sans fin l’entraîne vers l’apparition, dans les années soixante-dix, de nouvelles formes de livres qu’il qualifie de « mutants ». Ceux-ci conduisent à s’interroger : comment sera le livre 2.0, qui est à l’origine « De nouveaux appareils de lecture » (chapitre 2) utilisant l’e-ink ou encre électronique et l’e-paper ou papier communicant ? Les principaux e-books de nouvelle génération 2004-2008 sont présentés à l’aide de nombreuses illustrations qui concrétisent bien leur existence. Des tableaux récapitulatifs permettent d’en connaître les principales caractéristiques techniques et financières (dimensions, poids, prix, etc.).

3

La « nouvelle révolution » ne concerne pas que le livre. Elle concerne tous les documents imprimés au premier rang desquels se trouve la presse (« Le renouveau de la presse », chapitre 3). Différents groupes de presse sont intéressés par ce nouveau journal au format plus aisé à lire dans des lieux publics, tels les métro bondés !. En France, Les Échos offrent déjà une édition e-paper de leur quotidien.

4

« Le livre 2.0 et après ? », interroge le chapitre 4. Un peu de prospective permet d’entrevoir la réalité des readers à l’horizon 2010 et d’envisager, avec une nouvelle charte graphique concernant l’ergonomie, les contenus et la typographie, un nouveau contrat de lecture.

5

Il faut aussi « Réinventer la chaîne du livre » (chapitre 5) tenant compte de lecteurs demandeurs et exigeants et l’apparition de e-communautés de lecteurs capables de donner un nouveau souffle au livre et à sa diffusion. Il faut pour cela que les industriels se mobilisent et acceptent de nouveaux partenaires dans la nouvelle chaîne économique qui doit se mettre en place. Un nouveau partenariat doit également voir le jour entre éditeurs et auteurs de l’écrit, levant la confusion établie au cours des ans entre création littéraire et marché du livre.

6

Doivent apparaître également de nouvelles voies de promotion. La diffusion / distribution à l’ère de la dématérialisation, permettant à tout individu, n’importe où sur la planète, d’accéder sur sa tablette de lecture à tout livre qu’il souhaite lire, réveille le mythe millénaire de la bibliothèque universelle. Le livre du futur permet de se rapprocher de sa réalisation avec la naissance d’une bibliothèque numérique mondiale. Change également la librairie du futur qui, pour survivre, doit s’adapter au nouvel environnement créé par ce livre du futur. Les libraires vivront s’ils savent démontrer aux éditeurs « qu’ils sont capables de répondre à la demande, quel que soit le support ». Emporté par son élan, l’auteur s’interroge sur l’avenir du livre dans le web 3D ou web 3.0 qui nous invite à faire les premiers pas dans une « second life ».

7

« J’ai lancé mon javelot dans les espaces indéfinis de l’avenir ». L’auteur emprunte cette superbe phrase au musicien Franz Liszt pour dire, au terme de son exposé très technique (ce que confirment les annexes présentant les caractéristiques du Cybook de Cytale), mais parsemé de réflexions pénétrantes (ce que confirme la Lettre ouverte au Président de la République pour la défense et la promotion d’une filière française de l’e-paper), son profond optimisme pour l’avenir en général et l’avenir du livre en particulier.

8

Lorenzo Soccavo atteint à la perfection son objectif premier : informer, informer dans la quantité mais surtout dans la qualité en offrant une étude exhaustive et pertinente. Son livre concerne en priorité, bien sûr, toutes les professions liées au document : bibliothécaires, documentalistes, éditeurs ou libraires. Mais elle concerne aussi les lecteurs – et leur nombre infini permet de dire que cette passionnante étude concerne tout le monde. De plus, par delà les données techniques parfois un peu abruptes, l’auteur invite, souvent avec humour (« Gutenberg es-tu là ? Un coup pour oui, deux coups pour non »), à une réflexion qui devrait réconcilier les fondamentalistes qu’il rassure en affirmant que le livre papier va coexister longtemps encore avec les nouveaux livres et les exterminateurs en leur prédisant qu’il reste beaucoup à faire pour que le livre numérique, qui ne bénéficie pas de numéro ISBN, soit considéré comme un livre.

9

Voilà une étude utile, très riche, où, en de multiples encadrés, l’auteur s’efforce d’associer des auteurs, des penseurs, des acteurs du livre venus de tous les horizons pour témoigner et inviter à la réflexion sur cet univers qui nous concerne tous.

10

Marie-France Blanquet

Des solutions pour donner légalement un accès aux œuvres sous droit

Bibliothèques numériques : le défi du droit d’auteur. Lionel Maurel, Préface d’Yves Alix. – Villeurbanne : Presses de l’ENSSIB, 2008. – 356 p. – ISBN 978-2-910227-69-2 : 35 €

12

Analyser les stratégies adoptées par les bibliothèques nationales en France et au Québec pour intégrer les œuvres protégées par le droit d’auteur dans les projets de numérisation de masse afin de donner des pistes pour favoriser le développement des bibliothèques numériques – quelle belle perspective !

13

Libérer les droits : un choix politique. Si, en France, les négociations autour de questions juridiques ont très vite limité l’intérêt et l’ampleur des projets de la BnF, proposer des œuvres du domaine public, « défraîchies » et inadaptées aux usages contemporains, « était une position intenable dans le temps ». Aujourd’hui, les projets ont changé d’échelle tant en quantité qu’en qualité, mais ils portent encore sur des œuvres du domaine public et, lorsqu’il s’agit d’œuvres sous droits, sur un modèle payant, directement de l’éditeur à l’utilisateur.

14

Le Québec s’est donné les moyens d’engager à grande échelle une politique de libération des droits. Pour poursuivre une mission de promotion de la lecture publique, grâce à des crédits dégagés par le gouvernement pour couvrir les compensations financières éventuelles, sa bibliothèque nationale a pu intégrer les œuvres protégées dans ses projets de numérisation. Elle peut ainsi proposer des collections continues, des accès à distance et un accès démocratique, non réservé, comme en France, aux seuls chercheurs.

15

« Surmonter la barrière des droits sans la démolir ». Mais les contextes dans les deux pays sont naturellement très différents, y compris dans le domaine juridique. Puisque le système canadien est à mi-chemin entre le droit d’auteur continental et le copyright anglo-saxon, il était utile de présenter les marges de manœuvre offertes aux bibliothécaires par chaque système « pour éviter la tendance à la régression que pourrait induire le numérique ».

16

En ce qui concerne les outils appliqués aux documents, l’arrêt Microfor-Le Monde, qui les légitime dans un contexte de droit continental, est précieux, tout comme les procès contre Google, à suivre pour les répercussions qu’ils pourraient avoir si devaient prévaloir les interprétations strictes du droit d’auteur.

17

Parmi les nombreux autres défis : le recours aux outils du web 2.0 dont les fondements juridiques ne sont pas stabilisés, la coexistence d’éléments aux statuts juridiques divers ou encore – le numérique multipliant les possibilités de verrouillage – le piège de la réappropriation du domaine public.

18

« Éviter le trou noir » documentaire. Faute de réponse adaptée donnée par la loi, le Canada a choisi « une voie diplomatique et individuelle » en négociant avec chaque ayant droit. Mais l’approche « individualiste » trouve ses limites dans la lourdeur et la complexité de la procédure, le coût des démarches et par ses résultats aléatoires.

19

La BnF a choisi d’accompagner l’émergence d’une offre numérique légale et les négociations collectives faites avec les représentants des éditeurs pour les ouvrages sous droits. Portail donnant accès aux œuvres, elle fixe les modalités de la collaboration avec les plates-formes de distribution. Ce modèle donne de fortes garanties juridiques mais, privilégiant les œuvres rentables lorsqu’il s’agit d’œuvres sous droit, pêche par l’absence de vision documentaire.

20

Mais, au-delà des clivages, l’approche doit être complémentaire et souple, comme le prouve la réussite d’un modèle adopté pour l’accès à des revues électroniques.

21

Loi et/ou contrat ? Pour des approches combinées. Une analyse de la loi Dadvsi démontre que celle-ci offre peu de perspectives pour les bibliothèques et qu’aller plus loin serait « irréaliste voire dangereux ». La négociation individuelle a également montré ses limites, comme l’indique l’expérience canadienne, tout comme la négociation auprès de sociétés de gestion collective, en dépit d’expérimentations réussies (celle de l’Ina, par exemple) et même si la licence collective étendue des pays scandinaves semble offrir des perspectives intéressantes.

22

Les solutions potentielles sont extrêmement variées, comme le soulignent les systèmes adoptés dans le monde pour utiliser les œuvres orphelines ou épuisées. Puisque alléguer, par ailleurs, un droit à la culture est une position fragile, il convient de préconiser des approches « moins frontales mais plus subversives » fournies par les licences libres qui « présentent un fort potentiel ».

23

Un « nuancier juridique » ouvert aux bibliothèques numériques. Au-delà de la lecture binaire classique du droit d’auteur – œuvres sous droit ou œuvres du domaine public –, les bibliothèques trouveront à côté de la « zone rouge » (œuvres objets d’une exploitation commerciale active) et de la « zone blanche » (œuvres du domaine public), une « zone grise » regroupant les œuvres épuisées mais encore protégées, libérables par des négociations contractuelles, et une « zone verte » regroupant les œuvres libérées volontairement par les licences de la culture libre.

24

Et de conclure en donnant une liste de dix propositions très concrètes.

25

Michèle Battisti

De l’utilité d’une analyse économique en matière de droit d’auteur

L’évaluation en droit d’auteur. Guillaume Henry, Préface de Pierre-Yves Gautier. – Paris : Litec : IRPI, 2007. – XIII-364 p. – (Le Droit des affaires : propriété intellectuelle, ISSN 0757-0341 ; 30). – ISBN 978-2-7110-0984-8 : 55 €

27

Évaluer une œuvre est une opération indispensable dans le cadre d’un contrat d’édition ou de production ou, en cas de contrefaçon, pour obtenir réparation. Mais comment définir sa valeur de manière objective ? S’il existe plusieurs méthodes (par le revenu, le prix du marché ou les coûts historiques), un choix doit être fait en fonction de l’opération juridique, mais aussi de l’objectif qui est privilégié (fiabilité, précision, simplicité). Par ailleurs, si, lors de la négociation d’un contrat d’auteur, l’évaluation se fait de manière individuelle, par les parties, dans d’autres cas, l’évaluation est collective, réalisée par les sociétés d’auteurs, ou par loi lorsqu’il s’agit de licences légales. Pour évaluer le préjudice d’une mise en ligne ou d’une vente illicite, ce seront les juges qui se chargeront de réaliser ce calcul délicat.

28

L’auteur de cette thèse, qui souligne les risques de déséquilibres liés aux contrats individuels, est inquiet pour l’avenir de la gestion collective, qui a ses faveurs mais qui est menacée à la fois par les juges et par la Commission européenne. Guillaume Henry milite par ailleurs pour une peine privée, appliquée à la contrefaçon, qui irait au-delà de la simple réparation et où la part punitive de l’amende serait versée à la victime. Il souligne aussi qu’en réaction à une marchandisation croissante des œuvres sont apparus des mouvements de « contestation de la prise de pouvoir de l’argent dans le domaine de la culture » qui revendiquent un accès gratuit aux œuvres de l’esprit. Puisque la diversité culturelle, affirme-t-il, ne peut reposer ni sur « l’obsession de ratios économiques » ni sur l’exigence d’un droit gratuit à la culture, il rejette le concept de licence globale et les licences Creative Commons, de gratuité choisie – des projets fondés sur « une idéologie menaçante pour la propriété littéraire et artistique ».

29

Ces mouvements antinomiques mettent l’accent sur l’imbrication, de plus en plus étroite, des champs du droit et de l’économie, ce qui l’amène à inciter les juristes à savoir maîtriser les modes de raisonnement économique.

30

Extrêmement complexes, les questions économiques ne peuvent pas être éludées dans les débats juridiques.

31

Michèle Battisti

Un dictionnaire de qualité, nécessaire à tout professionnel

Dictionnaire de l’information. Sous la direction de Serge Cacaly, Comité de rédaction : Yves-François Le Coadic, Paul-Dominique Pomart, Éric Sutter. – 3e éd. – Paris : Armand Colin, 2008. – VIII-296 p. – ISBN 978-2-200-35132-8 : 30 €

33

Quelques chiffres, d’entrée de jeu, pour caractériser ce dictionnaire : 26 spécialistes (enseignants, chercheurs ou professionnels) pour son élaboration, 900 entrées dont 700 définitions, 15 articles encyclopédiques, 35 biographies. Ainsi se présente la troisième édition du Dictionnaire de l’information, dirigée par Serge Cacaly. Par rapport à l’édition précédente (2004), 150 nouvelles entrées ont été ajoutées.

34

On ne dira jamais assez l’importance de ce type d’ouvrage dans un champ disciplinaire – les sciences de l’information et de la communication – qui englobe des notions hétérogènes, de la plus technique (le catalogage, l’indexation, etc.) à la plus complexe à définir (l’information, le savoir, etc.). Ce Dictionnaire de l’information couvre parfaitement ce domaine, il définit les termes techniques et spécialisés, indique les auteurs, les organismes, les sigles (anglo-saxons ou français) que chaque professionnel de l’information doit connaître.

35

Il se présente sous forme de notices successives généralement courtes, d’une dizaine de lignes. Certaines notions, ainsi que la biographie de certains auteurs, demandent cependant un développement plus important : c’est le cas pour des auteurs comme Georges Boole ou Suzanne Briet ou pour des notions telles que « associations professionnelles » ou « culture de l’information ». Chaque notice est signée par un expert du domaine concerné, et propose parfois un arrière-plan historique ou technique indispensable à connaître. Par la force des choses, ce dictionnaire rassemble donc des notions a priori disparates ou qui peuvent apparaître sans lien entre elles : il est en effet difficile de rattacher des notions telles que « brevet » et « écologie de l’information » ou celles de « langage naturel » et de « veille informationnelle ». Mais, comme l’avait déjà constaté Sylvie Lainé-Cluzel lors de la parution de la deuxième édition, « les notices sur les chercheurs et acteurs majeurs de l’information et de son histoire sont particulièrement précieuses, et fournissent d’excellentes synthèses sur l’apport des uns et des autres, et sur le contexte historique de leurs productions ».

36

Des questions, bien sûr, se posent quant à certains choix : fallait-il vraiment définir ici des termes comme « inférence » ou « infogérance » ? Certains termes sont préférés en langue anglaise (« repository ») alors que la traduction française est entrée dans les mœurs depuis plusieurs années. Certains renvois posent également question : « outil collaboratif » vers « collaboratoire », terme qui n’est certainement pas très familier à tout un chacun. La notion de marketing est très peu développée, avec seulement une notice d’une dizaine de lignes sur le « marketing viral ». À part ces quelques points (qui montrent la difficulté d’un tel travail sur la terminologie), le (les) champ(s) actuel(s) des sciences de l’information semble(nt) bien couverts : citons les technologies de l’information (avec l’apparition du terme « blog », par exemple) ; la veille (avec « veille informationnelle », « profil », « personnalisation de l’information », etc.) ; le management des connaissances…

37

Les exemples de dictionnaires sont suffisamment rares – tout du moins en français – dans le champ disciplinaire qui nous occupe pour ne pas intégrer celui-ci dans toute bonne bibliothèque professionnelle. Car c’est un outil de qualité qui nous est donné ici, qui se lit avec facilité (la présentation est aérée), et dont le style des notices est très soigné. La publication d’une troisième édition confirme également que cet instrument de travail a trouvé son public. C’est donc un ouvrage à conseiller, utile à tout moment de la vie professionnelle.

38

Jean-Philippe Accart

Pour valoriser l’intelligence économique « à la française »

Les nouveaux territoires de l’intelligence économique. Sous la direction de Marc-Antoine Duval, Préface d’Alain Juillet. – Paris : Institut français de l’intelligence économique (IFIE), 2008. – 171 p. – ISBN 978-2-916265-04-9 : 15 €

40

Cet ouvrage apporte une contribution importante pour préciser l’originalité de l’intelligence économique à la française et l’élargissement de ses champs d’action à de nouveaux territoires.

41

Dans sa préface, Alain Juillet, Haut Responsable en charge de l’intelligence économique, redéfinit le champ de cette IE « à la française ». En prolongement du rapport Carayon (2003), il s’agit, dans un contexte de compétition généralisée, d’aider à capitaliser nos véritables points forts tout en réduisant nos faiblesses et de savoir acquérir les informations nécessaires pour cela. La conception française de l’IE s’inspire à la fois de l’école suédoise et des approches anglo-saxonnes au « ciblage trop économique » : competitive intelligence américaine et business intelligence britannique. L’IE n’est pas réservée aux grandes entreprises, elle concerne aussi les PME. Une délégation des missions de l’État devrait lui permettre de s’impliquer davantage dans l’intelligence territoriale. Alain Juillet envisage aussi l’élargissement de l’IE vers un concept d’« intelligence stratégique » et le champ du développement durable.

42

Dans l’introduction, Marc-Antoine Duval insiste aussi sur la nécessité de dépasser l’intelligence économique classique pour visiter, avec une nouvelle vision de cette discipline, d’autres territoires qu’explore cet ouvrage.

43

Thibault du Manoir de Juaye présente la spécificité de l’intelligence juridique qui constitue le fondement légal de la protection juridique du patrimoine des entreprises, permettant à celles-ci d’éviter les contentieux et à défaut d’obtenir gain de cause devant les tribunaux.

44

Agnès Bricard s’intéresse à l’intelligence comptable et financière. Les experts-comptables constituent les principaux acteurs de la veille comptable et financière. L’auteure plaide pour une politique de soutien de l’État aux PME stratégiques. Elle présente un « plan de comptes intelligent » qui ne doit plus être vu comme un outil statique mais comme un « outil de veille intelligent ».

45

Jean-Philippe Mousnier présente le nouveau territoire de l’intelligence culturelle, une nouvelle façon de penser et de porter les projets culturels muséaux ou touristiques. Il insiste sur son apport au marché de l’art en pleine expansion. Le dialogue interculturel constitue une autre vision de la mondialisation. Pour le tourisme, le défi est de passer de l’actuel tourisme de masse à un tourisme culturel à forte valeur ajoutée. Dans ce secteur, la France doit savoir définir un nouveau « modèle de raisonnement stratégique » en intégrant la notion de patrimoine immatériel, la relation de la culture à l’image et à l’identité du lieu, du site ou du pays, en articulation avec des politiques culturelles territoriales.

46

L’intelligence humanitaire est ensuite présentée par François Mabille. Les ONG humanitaires et de développement constituent de nouveaux acteurs des relations internationales. Assimilées à des entreprises, elles évoluent dans un marché fortement concurrentiel. Dans le cadre d’une « citoyenneté mondiale », elles traduisent de nouvelles formes d’organisation des identités qui ne sont plus uniquement liées à la nation, au territoire, à la religion. Leur force réside dans leur capacité à mobiliser des imaginaires. Avec la crise de l’État-Providence, elles remplissent une fonction sociale.

47

Philippe Clerc aborde ensuite le nouveau territoire de l’intelligence sociale ou mieux sociétale. Considérant que l’intelligence sociétale s’inscrit dans un processus d’intelligence collective, il insiste sur son aspect interdisciplinaire et sur son ancrage très ancien, en insistant sur le capital social que permettent de constituer les réseaux. Il situe l’intelligence sociétale au cœur des nouvelles stratégies de développement durable. Hervé Azoulay applique ensuite l’intelligence sociale au cas des banlieues en montrant comment un maillage de réseaux (entreprises, associations, collectivités locales) peut y aider au développement de l’emploi.

48

Dernier « nouveau territoire » de l’IE évoqué ici : l’intelligence sportive. En profonde mutation, le sport est devenu une composante majeure de la vie économique, politique, sociale et culturelle de la France. Il constitue un enjeu des relations internationales et un élément de gouvernance, comme le montre Marie Brigaud à partir de l’exemple du football. Émerge ainsi un nouveau concept de géopolitique du sport. L’intelligence sportive peut aussi aider à prévenir malversations et tricheries, etcontribuer à la « cohésion sociale ».

49

Développant des réflexions passionnantes et d’actualité pour mieux comprendre une mondialisation qui ne concerne pas que l’économie, cet ouvrage se lit facilement. Au-delà des professionnels de la veille et de l’intelligence économique, il concerne tous les publics : universitaires, étudiants, décideurs publics et privés, et toutes personnes soucieuses de mieux comprendre les enjeux de notre monde globalisé, avec des méthodes pour essayer de maîtriser cet environnement incertain et de plus en plus concurrentiel.

50

Christian Bourret

Un panorama des solutions techniques actuellement disponibles pour la veille

La veille 2.0 et ses outils. Gilles Balmisse et Denis Meingan, Paris : Hermès Science Publications : Lavoisier, 2008. – 234 p. – (Management et informatique). – ISBN 978-2-7462-1929-8 : 49 €

52

Avec ce titre prometteur, on pouvait s’attendre à un ouvrage consacré principalement à ces environnements technologiques – dits 2.0 – qui placent l’utilisateur au cœur des dispositifs informationnels. Autant le dire d’entrée, cet ouvrage rédigé par les deux directeurs associés de Knowledge Consult est plus un panorama général des solutions techniques actuelles qu’un opus de décryptage et d’analyse de la veille 2.0 proprement dite. Il offre en outre de larges rappels sur les principes constitutifs de la veille en entreprise et livre quelques cas d’implémentation intéressants. De ce fait, il s’adresse aussi bien à des veilleurs, à des responsables de centres de documentation, à des directeurs de systèmes d’information qu’à des utilisateurs finals. Et il constituera pour les personnes non expertes de ces questions une très bonne entrée en matière.

53

Cet ouvrage rappelle tout d’abord quelques notions de base sur la veille, en insistant sur le fait qu’il est attendu aujourd’hui d’un système qu’il rassemble l’ensemble des fonctions de collecte, de stockage, d’analyse, de diffusion et partage et d’administration. Cette évolution technique vers une plus grande intégration fonctionnelle n’est pas étrangère à l’élargissement des objectifs assignés à la veille. Ce qui ressort d’ailleurs le plus nettement au cours de ces dernières années, c’est à la fois la plus grande insertion de la veille dans les différents niveaux opérationnels de l’entreprise et sa plus grande spécialisation.

54

Les auteurs distinguent ensuite trois grands « âges » de la veille : l’époque de l’information (surveillance concurrentielle ou technologique sans but opérationnel précis) ; l’époque de la gestion (où la veille apporte « sous forme de documents de synthèse les éléments qui vont permettre de valider ou d’affiner les choix qui doivent être faits ») ; vient enfin l’époque de l’action dans laquelle nous serions aujourd’hui et dont les caractéristiques principales sont à la fois l’organisation volontariste de la veille et son statut de composant de base de l’intelligence économique.

55

En terme d’organisation, ces évolutions ont vu naître, au début des années 2000, les premières cellules de veille et l’embauche de personnes aux profils spécialisés. Les auteurs évoquent les modalités précises de cette mise en place dans une PME spécialisée dans les composants électroniques et dans un grand groupe industriel, où apparaissent clairement des besoins en veille spécifiques à chaque client interne. L’apport le plus intéressant de cette partie de l’ouvrage consiste en un tableau de recommandations à mettre en œuvre en fonction du niveau de maturité de la fonction veille dans l’organisation, selon que l’on se situe dans une phase de sensibilisation, de déploiement ou, en aval, dans la mesure des résultats.

56

On regrettera peut-être que les deux chapitres consacrés aux outils soient d’avantage énumératifs qu’analytiques. Reprenant la répartition traditionnelle des fonctions constitutives de la veille, les auteurs proposent ainsi un panorama de l’offre d’outils pour la collecte et pour l’analyse. Curieusement, les outils de diffusion ne sont quasiment pas mentionnés dans ces chapitres, si ce n’est au travers des progiciels de veille généraliste.

57

La partie consacrée à l’offre open source dans le domaine de la veille mérite d’être signalée. En effet, si cette offre est encore naissante, des briques fonctionnelles commencent à exister à tous les niveaux de la chaîne. On notera cependant l’absence d’un véritable agent de surveillance pouvant rivaliser avec les solutions propriétaires, de même que l’absence d’une véritable plate-forme de veille.

58

Gilles Balmisse et Denis Meingan consacrent un chapitre aux outils d’analyse de données, de text-mining et de visualisation. Ils rappellent le fonctionnement des systèmes d’extraction de connaissances qui visent à automatiser les opérations d’analyse et de synthèse pour traiter une quantité parfois gigantesque d’informations. En matière de visualisation de l’information, ils insistent sur l’apport des « vues connectées » issues des cartes cognitives ou des cartes sémantiques qui permettent des approches globales d’un périmètre informationnel.

59

Viennent enfin les outils web 2.0 proprement dits et le rappel de leurs principales caractéristiques : centralité de l’utilisateur, ouverture (API publiques), décentralisation de la production et du partage des contenus dont del.icio.us est l’exemple emblématique. En terme de collecte, les auteurs considèrent – à juste titre – que la diffusion du format RSS « est en passe de modifier notre vision et notre utilisation d’Internet et de son contenu ». Ils soulignent à cet égard la polyvalence de la plupart des outils web 2.0 (wikis, blogs, etc.) qui sont à la fois des sources, des outils de production et, via RSS et le tagging notamment, des outils communautaires. Sur ce dernier aspect, les pratiques 2.0 apparaissent comme une opportunité (représentativité des différents collaborateurs de l’entreprise dans le social bookmarking, « trouvabilité ») non exempte de risques (pérennité des outils, surabondance d’informations, incohérence dans la caractérisation des sources et problèmes de réutilisation de l’information collectée).

60

Cet ouvrage a le mérite de rappeler en conclusion la différence dans la mise en œuvre d’un dispositif de veille entre l’approche fonctionnelle (initiée au plus près des processus et des besoins d’information de l’entreprise) et l’approche outils (plutôt centrée sur la résolution technique des problèmes de traitement de l’information). Dans la mise en œuvre d’un système de veille, qu’il soit ou non 2.0, le succès dépend très largement d’un cadrage clair des objectifs et de l’implication des participants. Elle appelle également une mobilisation des ressources humaines adaptées aux différentes phases du projet et une juste évaluation des mutations d’organisation qu’entraînera le déploiement du système. Quant au choix de l’outil lui-même, dont les critères font l’objet de la dernière partie de l’ouvrage, Gilles Balmisse et Denis Meingan insistent sur l’intérêt de mixer les profils décisionnaires pour que la plupart des facteurs de succès soient correctement pondérés. La veille 2.0 semble donc être, au moins autant que la précédente, une affaire de management et de gestion de projet.

61

Loïc Lebigre

Évolutions récentes et à venir de la recherche d’information sur le web

Recherche d’information : état des lieux et perspectives. Sous la direction de Mohand Boughanem et Jacques Savoy, Paris : Hermès Science Publications : Lavoisier, 2008. – 343 p. – (Recherche d’information et web). – ISBN 978-2-7462-2005-8 : 75 €

63

Une question préoccupe la plupart des professionnels de l’information à l’heure actuelle : quelles sont les conséquences des évolutions technologiques sur la recherche d’information, autrement dit comment allons-nous travailler demain, avec quels outils, dans quel contexte ? D’emblée, on pourrait citer le développement du web 2.0 ou les supports multimédias, mais d’autres éléments existent, tel le multilinguisme. Deux professeurs d’université, Mohand Boughanem (Université Paul Sabatier de Toulouse) et Jacques Savoy (Université de Neuchâtel) tentent de répondre à ces questions dans cet ouvrage très dense consacré à la recherche d’information et qui rassemble une vingtaine de contributions.

64

Plusieurs traits caractérisent la recherche d’information sur Internet ces dernières années : un accès démultiplié à l’information, le développement des capacités de stockage, la mobilité des utilisateurs… Le nombre d’internautes a été multiplié par quatre depuis 2000 (soit 1 245 millions en septembre 2007). Le volume d’informations disponibles sur la toile est lui-même exponentiel : il était chiffré à 167 térabytes en 2002 (soit 167 trillions).

65

Comme le soulignent à juste titre les auteurs dans leur introduction générale, le rôle des moteurs, dans ce contexte, est devenu prépondérant : sans eux, il est pratiquement impossible de rechercher et de retrouver une information. Les moteurs actuels se divisent en deux catégories distinctes : les moteurs généralistes et les moteurs pouvant investir le web invisible. La première catégorie propose avec Google l’exemple le plus frappant. En seulement dix années (son lancement date de 1998), celui-ci est devenu un élément indispensable de la vie quotidienne, qu’elle soit professionnelle et privée : en 2007, Google répondait à plus de 128 millions de requêtes journalières. Outre-Atlantique, le « googling » est entré dans le langage courant.

66

Cependant, le web invisible renferme des ressources au moins aussi nombreuses que le web visible : comment les trouver ? Les moteurs de recherche doivent pouvoir rechercher sur des éléments particuliers, comme une structure logique de document (dans le cas d’un journal) ou dans une langue autre que l’anglais, de plus en plus de requêtes étant faites en langue arabe, par exemple.

67

Les demandes des utilisateurs / clients jouent un rôle non négligeable dans l’évolution des moteurs et de leurs fonctionnalités, qui doivent s’adapter notamment à leur profil : obtenir directement la réponse à la question posée (et non pas une liste de résultats), tenir compte de l’endroit géographique où ils se trouvent (afin de trouver des informations locales), prendre en compte les goûts et habitudes de chacun en sont quelques exemples.

68

Un moteur de recherche apportera des réponses réellement appropriées quand le web sémantique se développera et intégrera le sens des termes, quand il deviendra plus pertinent dans les résultats proposés. Mais il n’y a pas que le texte ou l’écrit à prendre en compte sur Internet : tout ce qui est support audio ou multimédia occupe une place de plus en plus grande. La façon d’interagir avec le moteur de recherche est également à prendre en considération. De nombreux chantiers restent encore ouverts sur le web…

69

Voici les grandes lignes de cet ouvrage, qui devraient intéresser les professionnels de l’information. Il reste que l’écriture de certaines contributions est un peu trop académique, ce qui n’en rend pas la lecture toujours très aisée.

70

Jean-Philippe Accart

De l’influence d’Internet sur le rôle et les usages des bibliothèques

Bibliothèques et politiques documentaires à l’heure d’Internet. Bertrand Callenge, Paris : Éditions du Cercle de la librairie, 2008. – 264 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 978-2-7654-0962-5 : 37 €

72

Cet ouvrage s’ouvre sur le bouleversement des techniques et des usages d’information engendrés par Internet. Les nouveaux modes d’appropriation, de stockage et de diffusion des contenus culturels – les collections conservées en bibliothèque – ébranlent « la stabilité pérenne des bibliothèques au sein de la société » (p. 10) et les obligent à revoir leur politique documentaire. On sait combien les bibliothécaires en sont conscients et combien ils s’interrogent sur le devenir de leur institution. En récapitulant l’évolution de la problématique et l’histoire récente des collections, Bertrand Calenge leur propose un cadre de réflexion et d’action ancré dans cette histoire et ouvert au contexte socioculturel dans lequel elle se déroule.

73

Prendre conscience de l’éclatement des unités d’information, évaluer l’adéquation des contenus de la collection à l’état du savoir et sa pertinence pour le public, percevoir le déplacement des usages et l’évolution de l’établissement vers un nouveau type de bibliothèque « hybride » dont les caractéristiques sont précisées – autant de préalables indispensables à toute refondation d’une politique documentaire modélisée. Une analyse fine en est faite, tant du point de vue du public que de celui des contenus. Les outils et les modalités de formalisation sont indiqués. Toutefois les limites de la formalisation sont soulignées.

74

L’accent est mis sur la nécessité de penser la bibliothèque comme un système complexe contextualisé dans un environnement en mutation : « Le système bibliothèque est un outil collectif au service des besoins cognitifs d’une population » (p. 234). Repérer ces besoins et leur évolution appartient aux fonctions traditionnelles des professionnels, mais doit être repensé en fonction de « la perpétuelle recomposition des savoirs » qu’engendre l’usage multiple d’Internet.

75

L’auteur ne cache pas les tensions qui en découlent et propose des pistes à explorer selon le contexte de la bibliothèque : multiplier les itinéraires d’accès aux contenus, de l’organisation des collections à l’aménagement de l’espace, réinventer les outils tels catalogues, bibliographies ou plans de classement, construire des programmes culturels autour d’un thème ou d’un auteur – occasion pour le lecteur de prendre la parole –, s’ouvrir aux partenaires extérieurs, etc.

76

Se construit ainsi un ensemble d’objectifs stratégiques dont sont analysés les paramètres et la programmation. En guise de conclusion, l’auteur rappelle les quatre « maîtres mots » autour desquels doit s’ancrer la bibliothèque pour survivre : « dimension locale, mémoire vivante, contenus de savoirs et accompagnement de personnes » (p. 260).

77

Nul doute que cette redéfinition du rôle des bibliothèques ne fournisse ample matière à réflexion et nombre de voies à explorer aux professionnels – à la sagacité desquels l’auteur rend hommage dans son prélude.

À lire sur la même problématique

Les bibliothèques municipales en France après le tournant Internet : attractivité, fréquentation et devenir / Bruno Maresca ; avec la collab. de Christophe Evans et Françoise Gaudet. – Paris : Bibliothèque publique d’information (BPI), 2007. – 284 p. – (Études et recherche, ISSN 0993-8958). – ISBN 978-2-84246-103-4 : 26 €

Bien des faits relevés dans l’enquête menée par le CREDOC en 2005 et présentée dans cet ouvrage confirment les mutations subies par les bibliothèques. Réalisée auprès d’un échantillon de deux mille individus représentatifs et complétée par l’analyse statistique de la base de données de la Direction du livre et de la lecture, elle actualise les résultats des deux précédentes collectes (1979 et 1997). Si elle invalide l’idée, répandue, d’une baisse de fréquentation des bibliothèques, elle souligne la baisse des inscriptions, donc des emprunts, et éclaire l’évolution des usages. La « culture de l’écran » n’entame pas l’image des médiathèques mais transforme la relation entre individu et source du savoir et de la culture. Riche de données nouvelles, cette étude se conclut sur la probabilité d’évolution de l’établissement selon qu’il saura attirer un public diversifié et se gardera – sous la pression d’une offre insuffisante par ailleurs – de devenir bibliothèque d’étude.

C.G.

78

Claire Guinchat

Titres recensés

  1. Une réflexion riche et stimulante sur l’avenir du livre
    1. Gutenberg 2.0 : le futur du livre. Lorenzo Soccavo, Préface de Paul Soriano. – 2e éd. – Paris : M21 Éditions, 2008. – 220 p. – ISBN 2-916260-12-9 : 23 €
  2. Des solutions pour donner légalement un accès aux œuvres sous droit
    1. Bibliothèques numériques : le défi du droit d’auteur. Lionel Maurel, Préface d’Yves Alix. – Villeurbanne : Presses de l’ENSSIB, 2008. – 356 p. – ISBN 978-2-910227-69-2 : 35 €
  3. De l’utilité d’une analyse économique en matière de droit d’auteur
    1. L’évaluation en droit d’auteur. Guillaume Henry, Préface de Pierre-Yves Gautier. – Paris : Litec : IRPI, 2007. – XIII-364 p. – (Le Droit des affaires : propriété intellectuelle, ISSN 0757-0341 ; 30). – ISBN 978-2-7110-0984-8 : 55 €
  4. Un dictionnaire de qualité, nécessaire à tout professionnel
    1. Dictionnaire de l’information. Sous la direction de Serge Cacaly, Comité de rédaction : Yves-François Le Coadic, Paul-Dominique Pomart, Éric Sutter. – 3e éd. – Paris : Armand Colin, 2008. – VIII-296 p. – ISBN 978-2-200-35132-8 : 30 €
  5. Pour valoriser l’intelligence économique « à la française »
    1. Les nouveaux territoires de l’intelligence économique. Sous la direction de Marc-Antoine Duval, Préface d’Alain Juillet. – Paris : Institut français de l’intelligence économique (IFIE), 2008. – 171 p. – ISBN 978-2-916265-04-9 : 15 €
  6. Un panorama des solutions techniques actuellement disponibles pour la veille
    1. La veille 2.0 et ses outils. Gilles Balmisse et Denis Meingan, Paris : Hermès Science Publications : Lavoisier, 2008. – 234 p. – (Management et informatique). – ISBN 978-2-7462-1929-8 : 49 €
  7. Évolutions récentes et à venir de la recherche d’information sur le web
    1. Recherche d’information : état des lieux et perspectives. Sous la direction de Mohand Boughanem et Jacques Savoy, Paris : Hermès Science Publications : Lavoisier, 2008. – 343 p. – (Recherche d’information et web). – ISBN 978-2-7462-2005-8 : 75 €
  8. De l’influence d’Internet sur le rôle et les usages des bibliothèques
    1. Bibliothèques et politiques documentaires à l’heure d’Internet. Bertrand Callenge, Paris : Éditions du Cercle de la librairie, 2008. – 264 p. – (Bibliothèques, ISSN 0184-0886). – ISBN 978-2-7654-0962-5 : 37 €

Pour citer cet article

« Notes de lecture », Documentaliste-Sciences de l'Information, 1/2009 (Vol. 46), p. 70-77.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2009-1-page-70.htm
DOI : 10.3917/docsi.461.0070


Article précédent Pages 70 - 77
© 2010-2014 Cairn.info
back to top
Feedback