Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2012/3 (Vol. 49)

  • Pages : 80
  • DOI : 10.3917/docsi.493.0010
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 10 - 15 Article suivant

Big data, grande illusion ?

1

Analyze. On parle beaucoup du « Big data » et c’est sans doute le concept du moment. Mais est-ce une simple évolution de l’informatique ou une vraie révolution ? Qu’apporte-t-il ? Cette analyse d’un article critique paraissait indispensable pour contrebalancer un engouement peut-être excessif et replacer ce phénomène dans un cadre plus approprié.

2

La cause serait entendue [1][1] Cette contribution, analyse d’un texte d’Allen Mitchell... : après le cloud computing[2][2] Hubert Guillaud, « Il est temps de réglementer la propriété... et l’internet des objets [3][3] Daniel Kaplan, « Repenser l’internet des objets (1/3) :..., les big data[4][4] Hubert Guillaud, « Big data: les-progrès de l’analyse... seraient la prochaine révolution apportée par le numérique. Mais pour Alan Mitchell, les big data, chant du cygne d’une informatique productiviste, centralisatrice, centrée sur les grandes organisations, auraient presque un côté contre-révolutionnaire [5][5] Alan Mitchell, « Big Data, Bid Dead End », Ctrl-Schift,... :« Les big data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. La statistique fournit une manière extraordinairement puissante et utile de remettre en question les suppositions et les inférences que les cerveaux humains produisent naturellement - et souvent de manière erronée. C’est formidable. […] Mais le principal déficit que rencontre notre société ne réside pas dans la capacité de traiter un grand nombre de données, bien au contraire. Le défi est celui de la logistique de l’information : comment transmettre exactement la bonne information à, et depuis, les bonnes personnes, au bon format, au bon moment. Une affaire de " Toutes Petites Données " (Very Small Data). »

3

Alan Mitchell ne conteste pas l’utilité des big data, mais leur nouveauté et leur degré de priorité dans les programmes de recherche et d’investissement. Selon lui, les big data ne marquent qu’une nouvelle étape d’une histoire aussi vieille que l’informatique : celle qui raconte la manière par laquelle des organisations, équipées de moyens très supérieurs à ceux du commun des mortels, deviennent capables de traiter des volumes toujours croissants d’informations toujours plus hétérogènes, afin de détecter des phénomènes toujours plus subtils, de prendre des décisions toujours plus pertinentes - et, au final, de renforcer leur position ou d’en occuper de nouvelles.

Le Big data pour pallier des faiblesses

4

Pour Mitchell, cette informatique-là rencontrerait ses limites, dont les big data constitueraient une tentative désespérée de les repousser.

5

Première limite, déjà énoncée par plusieurs chercheurs [6][6] Dana Boyd, Kate Crawford, « Big data : la nécessité... : le fantasme d’un accès direct, sans médiation, à la réalité de phénomènes physiques, biologiques ou sociaux, qui oublie volontiers qu’une donnée n’a rien de « donné »: elle est construite comme une variable, avec une finalité précise, puis produite, saisie ou acquise par des mécanismes qui constituent autant de médiations plus ou moins masquées. Cette quête sans fin se condamne à une course aux armements : il faut des moyens sans cesse plus importants pour parvenir à des inférences un peu plus fines, avec des rendements de plus en plus décroissants. Et sans espoir, nous dit Mitchell, de parvenir au Graal : se connecter vraiment à l’unité, la subjectivité, la complexité des êtres humains et de leurs pratiques sociales. Pourquoi ? Parce que les objets du calcul, en l’occurrence les humains, n’y sont pas conviés.

6

« Dans la plupart (mais pas la totalité) de ses manifestations, les big data s’intéressent à des données qui concernent le comportement des consommateurs. Les organisations collectent de telles données pour, par exemple, leur proposer un produit ou leur envoyer un message. L’objet, encore et toujours, est d’aider les organisations à en faire plus, de manière plus efficace. [Cette approche] part, sans même y penser, de l’hypothèse que toutes les améliorations proviendront des organisations, alors qu’en réalité, les principales opportunités se trouvent tout à fait ailleurs - dans le fait d’aider les individus à agir de manière plus pertinente et efficace, via de nouveaux genres de services centrés sur les personnes. »

7

C’est bien là, selon Alan Mitchell et les autres pionniers d’un monde numérique centré sur l’empowerment des individus [7][7] Hubert Guillaud, « Nous faudra-t-il payer pour préserver..., que résideraient la vraie opportunité et le vrai défi : passer du traitement de masse de l’information (largement consubstantiel à sa concentration dans des organisations obligées de deviner le sens d’actes, de sentiments ou de discours qui leur restent extérieurs) à une « logistique de l’information », qui vise à « résoudre des problèmes, prendre des décisions, organiser et mettre en pratique des actions sans perdre de temps et d’énergie à chercher la bonne donnée, encore moins à trier et jeter des masses d’informations non pertinentes. »

8

Mais « les big data ne vont jamais à la source des données qui comptent vraiment (Really Big and Important Data) : à savoir les humains et ce qu’ils veulent faire tout de suite, ou prévoient de faire dans le futur. Pourtant, […] les gens commencent à avoir les moyens de gérer leur propre information, de la créer eux-mêmes et de la partager avec d’autres ». Cela crée une avalanche de « "données qui comptent vraiment" : les Informations Proposées Volontairement (Volunteered Personal Information) - des informations sur moi, ma situation, mes priorités et ce que je souhaite faire maintenant. […] La logistique de l’information s’organise autour de spécifications très précises - le recueil d’informations sur ce qu’un individu précis recherche à ce moment précis - plutôt que sur le moulinage massif et a posteriori de toutes les données sur lesquelles on a pu mettre la main. À partir des big data, vous pouvez inférer un motif ou une intention extraits de la masse, mais ça ne sera jamais aussi bon que d’obtenir l’information directement auprès de ceux qu’elle concerne. […] Le sujet, ce n’est pas la collecte et le traitement massif de données - c’est le partage de données, qui mobilise des technologies différentes et pose des problèmes infrastructurels différents des big data. »

9

D’un point de vue technique, on passerait de la « force brute » (mobiliser toujours plus de données et de puissance informatique pour attaquer les problèmes) à une forme de subsidiarité : tenter de traiter les questions à la source, là où toutes les informations existent sans doute, pour peu qu’on leur donne une raison de raconter leur histoire. D’un point de vue économique, il s’agirait de passer de « l’économie de l’attention à l’économie de l’intention » [8][8] Doc Searls, The Intention Economy: When Customers Take..., une économie qui se focalise sur l’idée d’aider les individus (plutôt que les organisations) à décider, choisir et agir ; une économie frugale en information, qui équipe la demande pour lui permettre de s’exprimer de manière simple, directe et non ambiguë.

Un consommateur souhaite changer de voiture

L’approche Big data consisterait à repérer, par exemple, que l’automobile actuelle a plus de x années, que les factures de réparation se multiplient, qu’elle consomme visiblement plus, que la famille s’est étendue, qu’elle consomme plus « vert » et bio qu’avant mais que son pouvoir d’achat a baissé et qu’elle ne va plus chaque année en vacances au même endroit. En comparant ces caractéristiques (ou même des caractéristiques plus « brutes », il s’agit déjà d’inférences) à celle de milliers d’autres profils, on enverra des propositions commerciales pour des automobiles plus grandes, moins consommatrices mais moins haut de gamme, bien souvent en se trompant : trop tôt, trop tard, bien vu pour l’attention environnementale mais pas pour la famille (elle s’est séparée), etc.

L’approche Small data permettrait au consommateur de dire en une fois à plusieurs interlocuteurs : « Je vais changer de voiture. Voici mon modèle et la manière dont je l’utilise. Voici quelques informations sur moi, ma famille recomposée, où je vis et où je travaille, mes revenus. Attention, je cherche plutôt une petite voiture très peu polluante, je louerai quand on voyagera en famille. Je ne suis pas pressé, elle roulera encore bien un an, mais si vous me proposez une offre globale alléchante, crédit et assurance compris, je peux être intéressé. Je peux aussi être intéressé par des propositions de mobilité carrément alternatives : étonnez-moi ! Ces données sont confiées à un intermédiaire qui les a anonymisées mais qui vous garantit que j’existe et que ces informations sont exactes. Vous pouvez vous en servir pendant 2 semaines. ».

Le Big data, un changement de modèle ?

10

Alan Mitchell n’a pas entièrement raison. Tout d’abord parce que les big data dont il parle concernent les humains et leurs pratiques et pas les sciences dures qui ont déjà beaucoup bénéficié de ces techniques. On trouve dans les big data autre chose que des statistiques, par exemple des analyses de réseaux, des correspondances sémantiques, des cartes (pas seulement géographiques), etc.

11

Mais il vise juste quand il désigne la focale fondamentalement organisationnelle et asymétrique de la dynamique « Big data » telle qu’elle se développe aujourd’hui, alors même que l’équipement des « foules » peut désormais rivaliser avec celui des plus grandes organisations. On pourrait ainsi s’interroger sur les manières d’en mettre les outils à disposition du plus grand nombre, ce qui nécessiterait de répandre également une culture critique des données [9][9] Hubert Guillaud, « Du rôle prédictif des données à... (dont beaucoup de décideurs pourraient également bénéficier).

12

Et surtout, il faut prendre au sérieux l’agenda alternatif de recherche et d’innovation que décrit Mitchell : celui d’une informatique de flux d’information et de calculs centrés sur les individus, et de la frugalité informationnelle que ce changement de focale rendrait à la fois possible et nécessaire.

13

Daniel Kaplan

La bibliothèque comme interface physique de découverte et lieu de curation collective

14

Pratiques. Nous sommes passés trop vite de la bibliothèque-machine à la bibliothèque virtuelle. Ne faut-il pas retrouver aujourd’hui la pertinence de la bibliothèque comme interface physique et en faire un lieu pour la production collective de métadonnées ?

15

Une bibliothèque est un volume organisé en une partie publique (front-end), avec laquelle les usages peuvent interagir, et une partie cachée (back-end) utilisée pour la logistique et le stockage. À la Bibliothèque nationale de France, un système robotisé fait la jonction entre les espaces immenses et souterrains ouverts au public et les quatre tours qui stockent les livres. L’architecte Dominique Perrault avait imaginé une « bibliothèque-machine » où la circulation des hommes était pensée symétriquement à la circulation des livres.

16

La New York Public Library, telle qu’elle apparaît sur la couverture du Scientific American du 27 mai 1911 [10][10] Alan Galey, « The Human Presence in Digital Artefacts »..., est présentée comme une interface physique mettant en contact des lecteurs avec des collections de livres archivés. Les bibliothécaires gèrent les requêtes, le catalogue et utilisent des tubes pneumatiques pour commander les livres stockés dans les étages inférieurs qui, une fois localisés, remontent par des mini-ascenseurs. Bien avant la bibliothèque François Mitterrand, la NY Public Library était déjà une bibliothèque-machine.

17

Dans d’autres bibliothèques, souvent de taille plus modeste, c’est encore une logistique humaine, plus ou moins complexe, qui organise les circulations de livres entre le front et le back-end. L’espace étant limité, une volumétrie stable doit être maintenue grâce à une gestion rigoureuse de l’équilibre entre le nombre d’ouvrages acquis et désherbés.

18

Ce souci d’équilibre et de sélection, éléments clés dans la gestion de toutes les bibliothèques, grandes ou petites, est l’une des problématiques centrales de toute interface. Celui qui conçoit un site web ou une application iPad se demande également comment organiser au mieux l’espace de navigation et les cheminements des utilisateurs et comment articuler le front-end avec la logistique et le stockage back-end. Mais alors que le créateur d’applications compose avec une surface de quelques centimètres carrés, le bibliothécaire dispose d’un volume articulable en rayonnages, espaces d’échanges et zones de travail spécialisées.

View of the stacks inside the Stephen A. Schwarzman Building from the May 27, 1911 issue of Scientific American

NYPL, Picture Collection

La tentation de la virtualité

19

Avec l’arrivée du numérique, Il est tentant pour une bibliothèque de nier sa dimension physique, de ne devenir qu’une machine à information aux front-ends démultipliés, accessibles par toutes sortes de terminaux et aux back-end entièrement informatisés. On se souvient que Jacques Attali, alors conseiller de François Mitterand, avait critiqué le projet architectural de « bibliothèque-machine » de la BNF pour lui opposer l’urgente nécessité d’une BNF numérique et algorithmique, accessible de partout et qui serait l’outil idéal pour la diffusion de la culture française dans le monde.

20

Sur ce point, les questions stratégiques et patrimoniales des grandes bibliothèques ne rejoignent pas celles des bibliothèques plus modestes. Ces dernières n’ont aujourd’hui que des droits très encadrés pour l’exploitation numérique des livres qu’elles proposent en lecture ou en prêt. Impossible pour elles de construire de nouveaux services en exploitant directement des nouveaux circuits commerciaux de livres numériques « grand public » dans la mesure où la législation leur interdit la diffusion de contenus obtenus « sous le régime réservé à l’acquisition personnelle » [11][11] Les bibliothèques achètent plus cher les livres et.... Dans ces conditions, il est peu étonnant que ce soit en ordre dispersé et en expérimentant parfois les zones grises qui entourent ces nouveaux usages qu’elles essaient aujourd’hui de proposer des offres de prêt numérique complémentaire à leurs services traditionnels.

21

Néanmoins, penser que l’avenir des bibliothèques se joue uniquement dans le succès de leur virtualisation et la constitution d’archives de contenus « empruntables » est un pari risqué. En ne portant son attention que sur l’indépendance des circuits de distribution et des services numériques, ne passe-t-on pas à côté de ce qui serait la vraie valeur des bibliothèques dans ce paysage de pratiques de lecture en mutation ?

Production et curation sociale de métadonnées

22

Une bibliothèque n’est pas qu’une archive de contenus accessibles selon des règles de prêt particulières. C’est aussi et avant tout une interface physique de découverte. Rappelons-nous la pauvreté des interfaces proposées par les grandes librairies numériques où, en général, deux types d’algorithmes statistiques sont utilisés. L’un exploite les corrélations d’achats (« ceux qui comme vous ont acheté ce livre ont aussi aimé celui-là »), l’autre les corrélations d’opinions (« ceux qui ont aimé ce livre ont aussi aimé celui-là »). Les livres ne sont, dans ce jeu algorithmique, que de simples identifiants, des produits comme les autres.

23

Une des missions de la bibliothèque est d’organiser une rencontre physique différente entre des lecteurs et des livres. Le bibliothécaire est un match-maker. Il remplit cette mission en utilisant au mieux trois atouts à sa disposition : un espace physique organisable, une équipe compétente et une communauté locale plus ou moins fidèle.

24

Parmi les nombreuses pratiques pouvant tirer profit de ce triangle vertueux, en voici une qui semble pertinente (et relativement nouvelle) : participer à l’organisation, la production et la curation sociale de métadonnées riches.

25

La production et l’organisation de métadonnées ont toujours été au cœur du travail du bibliothécaire et l’une de ces compétences premières. Plusieurs exemples récents ont montré que, dans certaines conditions, la production sociale de métadonnées riches était envisageable pour peu que les bonnes boucles d’engagements soient mises en place. En alimentant, par exemple, des fiches d’auteurs, de personnages, de lieux et d’objets, et en invitant les usagers à faire de même, une bibliothèque peut créer une communauté locale de pratique, sorte de club de lecture qui opère dans un but plus vaste et place ses contributions dans un réseau d’autres communautés locales.

26

Pour cela, il faut des outils communs et neutres et ceux-ci pourraient être créés très prochainement, plusieurs conditions favorisant aujourd’hui leur émergence :

  • le développement des « humanités digitales » et la prise de conscience de leur importance géostratégique dégagent des fonds de recherche académique pour la production de ce type d’outils ;

  • la prise de conscience du rôle historique des bibliothèques dans la constitution du capital linguistique et sémantique et de l’importance de ne pas laisser ce capital entièrement dans des mains privées. Si des conditions particulières sont imposées aux bibliothèques pour numériser et diffuser des livres, elles peuvent, en revanche, en extraire des informations linguistiques et sémantiques et les rendre accessibles gratuitement comme un « bien commun ». De la même manière qu’elles ont parfois contribué sans le savoir à l’apparition de nouveaux empires du capitalisme linguistique [12][12] Frédéric Kaplan, « Vers le capitalisme linguistique :..., elles peuvent jouer un rôle moteur dans la création d’immenses bases de données libres détaillant le contenu des livres, leurs relations mutuelles, donnant ainsi les bases d’outils de découverte sans précédent.

Construire des cartographies

27

Plutôt que de construire une bibliothèque pensée comme une interface physique à la distribution de livres, on pourrait adapter certains espaces des bibliothèques aux activités de curation collective. Tout pourrait commencer par des « visualisations » : la bibliothèque présenterait sur un grand mur une carte des relations entre les auteurs d’un certain pays, la géographie des lieux d’une famille de romans policiers, l’arbre généalogique des personnes d’une saga, etc. Ces données visuelles, ces diagrammes et ces cartes seraient autant d’invitations à découvrir des livres et des auteurs nouveaux.

28

Dans une seconde étape, le bibliothécaire inviterait les usagers les plus motivés à participer à ces « processus cartographiques ». Le projet Bookworld [13][13] http://fkaplan.wordpress.com/2012/02/22/bookworld-..., un monde virtuel où chaque livre est représenté sous la forme d’une ville, confirme que visualisation et participation sont intimement liées. Voir un livre-ville complexe donne envie d’en construire un soi-même. Mettre en scène et en valeur les productions des usagers pour amorcer des pratiques locales est une forme nouvelle de clubs de lecture, où il ne s’agit plus de critiquer les livres qu’on a lus, mais de construire ensemble leur cartographie. Pour les bibliothèques de recherche, il s’agirait de produire collectivement des cartographies permettant, par exemple, la découverte d’un champ disciplinaire particulier ou mettant en relation des champs connexes.

29

Les métadonnées que les bibliothécaires produisent, structurent et organisent depuis les débuts des pratiques documentaires ont toujours été à la base de l’organisation physique des espaces des bibliothèques. Pourquoi ne pas poursuivre cette voie en élargissant ces pratiques et ces services à une communauté locale de lecteurs, engagés collectivement dans des processus cartographiques ?

30

Frédéric Kaplan

Le résumé automatique aujourd’hui

31

Outil. Résumer automatiquement, un rêve pour certains devenu réalité. Un ouvrage récent de Juan-Manuel Torres-Moreno dresse un panorama historique des différentes approches en mettant l’accent sur la dimension statistique.

32

Exprimer le contenu d’un document, activité phare des professionnels de l’info-doc, a vu ses modalités évoluer en fonction des périodes, besoins, contraintes et technologie : sommaire et table de fin de livre pour une publication, puis tables/index des titres, sujets, auteurs pour des collections, indexation par descripteurs, synthèse et résumé documentaires. Progressivement, la machine a assisté l’homme mais ce qui n’était qu’un service accessoire dans les années 1980 devient aujourd’hui un élément décisif des dispositifs d’accès à l’information.

Que fait la machine ? Pas tout, mais beaucoup

33

Le résumé automatique de textes est l’une des nombreuses applications du traitement automatique des langues (TAL) [14][14] http://fr.wikipedia.org/wiki/Traitement_automatiqu.... Cette technique s’est enrichie au fil des années, mais on distingue toujours trois niveaux de complexité : l’extraction d’unités textuelles (phrases ou parties de phrases) fournissant, après réorganisation, un aperçu du contenu ; la compression qui, en supprimant des éléments jugés non essentiels, aboutit à une réduction des phrases pouvant aller jusqu’à 33 % ; et l’abstraction, fondée sur la compréhension du texte, produisant un résumé basé sur la reformulation ou la fusion des idées ou phrases du texte, texte réécrit qui correspond au résumé au sens où l’entend la profession [15][15] http://www.adbs.fr/resume-18517.htm?RH=OUTILS_VOC.

L’ouvrage

Résumé automatique de documents : une approche statistique / Juan-Manuel Torres-Moreno. – Paris : Hermès : Lavoisier, 2011. – 260 p. (Recherche d’information et web, ISSN 1968-8008). – ISBN 978-2-7462-3212-9 : 69 €

Juan-Manuel Torres-Moreno est maître de conférences HDR à l’Université d’Avignon et des Pays de Vaucluse (UAPV) et responsable de la thématique Traitement Automatique de la Langue Naturelle Ecrite (TALNE), au Laboratoire Informatique d’Avignon (LIA).

Fondements et chronologie des techniques

34

Ces techniques se déploient suivant deux axes de niveau de complexité très différents : le résumé mono-document ou multi-documents.

35

Quel que soit le niveau de qualité visé, la technique du résumé repose sur deux grandes étapes - l’analyse du texte (prétraitement et sélection), puis la génération d’un nouveau texte (résumé) - et s’appuie sur différents algorithmes qui réaliseront l’une ou l’autre de ces nombreuses tâches.

36

La chronologie d’apparition de ces différentes techniques fait ainsi remonter les mots-clés et la pondération de phrases en 1958 ; l’enrichissement par identification de mots-indices, position des phrases et présence de mots liés pour surpondérer certaines phrases en 1969 ; le processus de rejet plutôt que la sélection de phrases en 1975 ; la sélection améliorée par la prise en compte de la structure particulière de certains types de documents (textes scientifiques ou chapeau des articles journalistiques) en 1995.

37

En 1998, la mise en œuvre de techniques d’analyse sémantique latente, en produisant des proximités entre un document et chacune de ses phrases, améliore le calcul de pondération des phrases et permet d’envisager leur hiérarchisation. Plus récemment, l’approche par graphes (PageRank, LexRank, TextRank), en créant des relations entre les phrases, a enrichi les techniques de pondération de phrases (monodocument) ou de documents (pluridocuments). En 2010, de nouvelles pistes s’ouvrent avec des « résumeurs » basés sur « l’énergie textuelle » (Enertex). D’autres types d’algorithmes sont utilisés pour les analyses profondes.

38

La compression automatique de phrases (2006) consiste quant à elle à éliminer des informations non essentielles tout en maintenant la grammaticalité du texte. Elle permet d’envisager des applications comme la génération de titres ou de sous-titres.

39

Les approches extractives d’analyse dite superficielle (distribution de mots, position des phrases, co-occurrence des mots, etc.), adaptables aux domaines ou aux langues, sont les plus utilisées. Des approches rhétoriques, plus récentes, permettent d’analyser les textes avec une granularité plus fine améliorant la qualité du résultat.

40

Le résumé unique multi- documents, guidé par une thématique, s’appuie en grande partie sur les mêmes techniques que le résumé monodocument. Mais il nécessite cependant des traitements spécifiques (regroupement de documents considérés comme similaires, redondance, niveau élevé du ratio de compression) impliquant la prise en compte d’autres facteurs tels que la temporalité des textes.

41

Les systèmes les plus récents portent sur le multilinguisme (résumé dans une langue cible qui fait partie des langues source), le crosslinguisme (résumé dans une langue différente de celles des documents source) et la prise en compte de la nature des documents spécialisés. Des approches hybrides articulant méthodes linguistiques et statistiques et s’appuyant sur des ressources linguistiques spécialisées permettent d’envisager un saut qualitatif dans la production automatique de résumés.

Rôle des professionnels de l’infodoc

42

Le résumé automatique de textes est sorti depuis longtemps des laboratoires ; la revue Documentaliste aborde (timidement) ce sujet depuis plus de 10 ans [16][16] Voir les références sur le site de l’ADBS http://w..., mais force est de constater la frilosité des concepteurs lorsqu’il s’agit de connecter ces systèmes aux différents dispositifs d’accès à l’information. Pourtant, ces techniques, en particulier celles par extraction ou par compression, ont prouvé leur efficacité dans bon nombre de contextes ; l’ingénierie des systèmes s’étant simplifiée, il est possible d’envisager plus sereinement leur déploiement avec pour objectif, modeste mais efficace, de fournir un aperçu des ressources afin d’aider le lecteur à orienter ses choix. Il reste à investir plus concrètement ce domaine, multiplier les expériences et démocratiser ces techniques auprès des concepteurs et des professionnels de l’infodoc. •

43

Sylvie Dalbin

La chronique de Marc Maisonneuve. Ressources numériques : regroupez-vous !

44

Les ressources numériques sont un marché de développement pour les bibliothèques, à condition de négocier d’une façon collective auprès des fournisseurs.

45

En 2012, les Assises du livre numérique ont constaté l’émergence d’un nouveau marché : 5 % des Français ont lu un livre numérique. L’Institut Gfk a souligné les facteurs du développement de ce marché : l’extension de l’équipement des foyers en matériel de lecture, le développement d’une offre attractive et la levée des freins à l’usage. Ces indications permettent de dégager les conditions de réussite des ressources numériques en bibliothèque.

46

• L’équipement des foyers. Aux côtés des liseuses, il faut compter également les tablettes numériques, les ordinateurs et les smartphones. Avec 75 % des foyers connectés à Internet, la population non équipée pour la lecture numérique représenterait moins d’un quart des Français auxquels les bibliothèques peuvent proposer des équipements d’accès fixes (ordinateurs) ou mobiles (tablettes, liseuses), des présentations des ressources numériques et des outils d’auto-formation.

47

• Le développement d’une offre attractive (choix, prix). Si les bibliothèques sont a priori bien positionnées pour traiter la question du coût supporté par l’usager, la question du choix des ressources numériques est plus délicate : il faut que les éditeurs acceptent de céder les droits nécessaires à la consultation des ressources numériques dans les murs des bibliothèques et, pour certaines ressources, également à domicile. Le ministère de la Culture travaille sur ce sujet avec tous les acteurs de la chaîne du livre numérique.

48

• La levée des freins à l’usage. Deux obstacles majeurs entravent l’accès aux ressources numériques : la nécessité d’inscriptions multiples et de recherches successives sur les plateformes des éditeurs. Concernant l’inscription multiple, une seule solution me paraît satisfaisante : l’éditeur doit déléguer le contrôle d’inscription à la bibliothèque dont les outils garantiront un accès encadré aux ressources numériques. Concernant la recherche dans les plateformes de ressources numériques, deux solutions permettent d’éviter la multiplication des requêtes de l’usager : la recherche fédérée (solution fragile et peu performante) et la recherche unifiée. Celle-ci consiste à récupérer périodiquement la copie des index de chaque ressource en ligne et à les charger dans l’entrepôt d’un opac de nouvelle génération ; elle offre ainsi les mêmes possibilités pour la sollicitation du catalogue et des bases des éditeurs, notamment la navigation à facettes. Plus stable, cette solution est aussi beaucoup plus simple pour l’usager.

49

Les grandes orientations permettant de favoriser l’utilisation des ressources numériques en bibliothèques peuvent s’esquisser assez aisément. Je ne sais pas si les éditeurs accepteront ces options mais encore faudrait-il essayer des les y encourager ! Et, pour cela, il est indispensable que les bibliothèques s’organisent en groupe de pression et mènent une action collective. Les bibliothèques américaines affrontent collectivement ce type de difficultés ; elles bénéficient aujourd’hui d’une offre plus attractive qu’en France et consacrent déjà 20 % de leur budget à l’acquisition de ressources numériques. En 2015, ces ressources représenteront 50 % de leurs dépenses d’acquisition.

Notes

[1]

Cette contribution, analyse d’un texte d’Allen Mitchell - cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift -, est parue initialement sur le site Internet Actu http://www.internetactu.net le 11 avril 2012

[2]

Hubert Guillaud, « Il est temps de réglementer la propriété dans les nuages », InternetActu.net, 09 septembre 2011

[3]

Daniel Kaplan, « Repenser l’internet des objets (1/3) : L’internet des objets n’est pas celui que vous croyez ! »;, InternetActu.net, 23 avril 2009

[4]

Hubert Guillaud, « Big data: les-progrès de l’analyse des données », InternetActu.net, 04 mai 2011

[5]

Alan Mitchell, « Big Data, Bid Dead End », Ctrl-Schift, 17 janvier 2012, http://www.ctrl-shift.co.uk/about_us/news/2012/01/17/big-data-big-dead-end/

[6]

Dana Boyd, Kate Crawford, « Big data : la nécessité d’un débat », trad. Laurence Allard, Pierre Grosdemouge & Fred Paille, InternetActu.net, 23 sept. 2011

[7]

Hubert Guillaud, « Nous faudra-t-il payer pour préserver notre vie privée ? », InternetActu.net, 22 mars 2012

[8]

Doc Searls, The Intention Economy: When Customers Take Charge, Harvard Business Press Books, 2012

[9]

Hubert Guillaud, « Du rôle prédictif des données à la gouvernementalité algorihtmique », InternetActu.net, 16 déc. 2010

[10]

Alan Galey, « The Human Presence in Digital Artefacts » in : Willard McCarty (ed.), Text and Genre in Reconstruction: Effects of Digitalization on Ideas, Behaviours, Products and Institutions, Open Books Publishers, Cambridge, 2010, p.93-118

[11]

Les bibliothèques achètent plus cher les livres et les DVDs pour pouvoir les exploiter dans le cadre des services qu’elles proposent.

[12]

Frédéric Kaplan, « Vers le capitalisme linguistique : Quand les mots valent de l’or », Le Monde diplomatique, n °692, novembre 2011, p.28

[16]

Voir les références sur le site de l’ADBS http://www.adbs.fr/c/x

Plan de l'article

  1. Big data, grande illusion ?
    1. Le Big data pour pallier des faiblesses
    2. Le Big data, un changement de modèle ?
  2. La bibliothèque comme interface physique de découverte et lieu de curation collective
    1. La tentation de la virtualité
    2. Production et curation sociale de métadonnées
    3. Construire des cartographies
  3. Le résumé automatique aujourd’hui
    1. Que fait la machine ? Pas tout, mais beaucoup
    2. Fondements et chronologie des techniques
    3. Rôle des professionnels de l’infodoc
  4. La chronique de Marc Maisonneuve. Ressources numériques : regroupez-vous !

Pour citer cet article

Kaplan Daniel, Kaplan Frédéric, Dalbin Sylvie, Maisonneuve Marc, « Méthodes, techniques et outils », Documentaliste-Sciences de l'Information 3/2012 (Vol. 49) , p. 10-15
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2012-3-page-10.htm.
DOI : 10.3917/docsi.493.0010.


Article précédent Pages 10 - 15 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback