Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2012/4 (Vol. 49)

  • Pages : 78
  • DOI : 10.3917/docsi.494.0010
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 10 - 15 Article suivant

Quelles normes pour le livre numérique ?

1

Bilan. Quelles normes pour produire le livre numérique, le diffuser, l’utiliser ? Une journée d’étude organisée par l’Afnor et la BNF, le 29 juin 2012, proposait de faire le point sur cette question essentielle pour le monde de l’information.

2

Les échanges entre les acteurs de la chaîne du livre numérique, support encore jeune, s’appuient aujourd’hui sur des formats fluctuants qui fragilisent sa préservation et l’essor de ses usages. Un bilan était donc nécessaire pour évaluer les enjeux en termes de production et d’usages pour tous les acteurs concernés [1][1] Actes et enregistrements vidéo de la journée d’étude.....

Le contexte

3

Lorsque l’on parle de normalisation, c’est bien l’interopérabilité qui est au cœur des débats entre acteurs commerciaux, bibliothèques et utilisateurs. Il est cependant complexe de normaliser un objet que l’on a encore du mal à définir, dans un écosystème en constante évolution, avec des intérêts parfois contradictoires entre les acteurs. Mais le rôle de la normalisation est bien de fournir un cadre pour offrir de meilleurs services aux usagers, pour inscrire le livre numérique dans les usages des chercheurs comme du grand public, et donc finalement pour donner une impulsion nouvelle à ce marché et permettre la transition du livre numérique vers sa maturité. Afin de positionner les enjeux, il est essentiel de rappeler que la normalisation a pour objectif d’assurer l’interopérabilité entre les acteurs de la chaîne du livre, mais aussi de garantir la qualité de l’offre. Toutefois, tous les acteurs du livre numérique ne jouent pas forcément le jeu de la normalisation : si l’usager préfère un environnement ouvert (où il peut acheter les livres où il veut et les lire avec le terminal de son choix), il est plus facile pour un éditeur de fournir un environnement de lecture agréable et fluide s’il maîtrise toute la chaîne.

4

La définition même du livre numérique reste toutefois floue. Mais on peut cependant le caractériser au moins par la notion de volume, l’exigence d’écriture, et un but démonstratif ou pédagogique [2][2] L’ebook dans l’EPUR :. Les descriptions sectorielles semblent plus aisées, comme l’édition professionnelle universitaire et de recherche (EPUR), et ouvrent à une normalisation plus impliquée dans des enjeux économiques et stratégiques spécifiques. La nature même du livre numérique, multiforme et évolutif, empêche finalement tout contour simple et unique. Mais on s’aperçoit que l’on peut traiter l’objet sans le décrire précisément, voire que c’est peut-être justement ce flou qui le définit. Il est de ce fait intéressant de confronter les points de vue des différents acteurs de la chaîne du livre numérique, en regroupant éditeurs, bibliothèques, organismes de normalisation et utilisateurs autour de trois thèmes qui suivent le circuit du livre numérique : la production, la diffusion et les usages.

Des enjeux pour la production

5

La normalisation a des implications très fortes pour la production et les formats de contenu du livre numérique, tant en termes d’efficacité de la chaîne de production que d’accessibilité de ces contenus pour le plus grand nombre, même si le rythme de l’innovation technologique est parfois en décalage avec celui de la normalisation.

6

La mise en place du format ePub, format normé, ouvert et accessible, a été pilotée par l’International Digital Publishing Forum (IDPF), en accord avec les standards du web [3][3] Site officiel de l’ePub :. L’ePub garantit ainsi le confort de lecture, la qualité et l’interopérabilité des livres numériques, mais permet aussi la créativité autour des livres enrichis. Le processus de production éditoriale s’industrialise, depuis la collecte des manuscrits et des images, la création des fichiers numériques jusqu’à leur mise en page. À chaque niveau s’appliquent une foule de standards et formats : identifiants uniques comme ISBN ou EAN, standards d’échange comme OAI-PMH, formats de production comme ePub ou PDF, ou encore standards de structuration comme XML ou TEI. Le livre numérique ouvre finalement des perspectives pour les personnes empêchées de lire (mal voyants et non voyants, dyslexiques). Le format ePub prend ainsi en compte les recommandations d’accessibilité du consortium Daisy (Digital Accessible Information System), bien que l’ajout de DRM (Digital Rights Management) par certains éditeurs pose de lourds problèmes d’accessibilité, car ces systèmes empêchent la lecture par les synthèses vocales ou les terminaux Braille.

Le rôle clef des métadonnées

7

Les métadonnées jouent un rôle essentiel puisque, à la différence du livre papier, le livre numérique n’est accessible qu’à travers ses métadonnées. D’ailleurs, le numérique rend plus que jamais indispensables les échanges fluides de données entre acteurs du livre, et donc la normalisation des formats.

8

Le format Onix est adapté aussi bien aux besoins descriptifs pour l’accès intellectuel au contenu qu’aux impératifs éditoriaux (droits d’auteur, commercialisation). C’est pourquoi la Commission de liaison interprofessionnelle du livre (CLIL), regroupant distributeurs, éditeurs et libraires, s’attache à renforcer la normalisation des données nécessaires à la description et à la commercialisation du livre numérique, et l’adoption de formats normalisés, en particulier Onix [4][4] Site officiel de Onix for books http://www.editeur.org/83/Overview..... Ce format complexe étant difficile à mettre en œuvre dans l’ensemble de la chaîne du livre, on voit apparaître des formats spécifiques à certains domaines, comme dans le contexte éducatif où le texte utilisé par les enseignants et les apprenants est souvent enrichi de contenus iconographiques, multimédias voire interactifs. Les formats utilisés sont ici les normes LOM (Learning Object Metadata) et MLR (Metadata for Learning Ressources), qui permettent de gérer les niveaux de granularité les plus fins ainsi que l’enrichissement collaboratif [5][5] Le profil français d’application du LOM (LOMFR) fait....

9

La richesse de ces métadonnées descriptives représente un enjeu complexe pour les bibliothèques, qui conservent de plus en plus de livres numériques, par numérisation de livres papier, par achat ou, bientôt, dans le cadre du dépôt légal. Les bibliothèques doivent résoudre des problèmes de signalement et de préservation spécifiques : mise à disposition dans une bibliothèque numérique de fichiers que l’on possède et d’autres auxquels on donne accès via des plateformes de diffusion, conservation pérenne de fichiers de formats différents et complexes.

Le livre numérique : quelles normes pour le produire, le diffuser, l’utiliser ?

Journée d’étude AFNOR/BNF • Vendredi 29 juin 2012 • BnF, site François-Mitterrand

Ouverture de la journée

Gildas Illien (directeur du département Information bibliographique et numérique, BNF)

Françoise Pellé (présidente de l’ISO TC 46 Information et Documentation)

Pierre Fuzeau (président de l’Afnor GC 46 Information et Documentation)

Les normes dans l’économie du livre numérique : état des lieux, enjeux, acteurs

Catherine Thiolon (éditions Quae, GFII) et Virginie Clayssen (Editis)

Produire : Pourquoi des formats de contenu ? (table ronde)

Modérateur : Florent Souillot (Flammarion)

Participants : Fernando Pinto Da Silva (Association Valentin Haüy), Alain Pierrot (I2S Innovative Imaging Solutions) et Luc Audrain (Hachette Livre).

Diffuser : Métadonnées, chacun pour soi ? (table ronde)

Modérateur : Emmanuelle Bermès (Centre Pompidou)

Participants : Laurent Dervieu (Cercle de la Librairie), Françoise Bourdon (BNF), Philippe Le Pape (ABES), Rosa Maria Gomez de Regil (CNED) et Dominique Parisis (Editis-Interforum, CLIL).

Utiliser : La normalisation, levier pour de nouveaux usages (table ronde)

Modérateur : Caroline Buscal (Serda Conseil)

Participants : Hadrien Gardeur (Feedbooks, International Digital Publishing Forum), Marc Jahjah (École des Hautes Études en Sciences Sociales, blog www.sobookonline.fr), Nadine Delcarmine (SICD 2 UPMF Grenoble).

Conclusion

Arnaud Beaufort (directeur des Services et réseaux, BNF)

Un levier pour les usages

10

La normalisation favorise de nouveaux usages du livre numérique (partage, citations, annotations, enrichissements), mais aussi l’analyse de ces usages.

11

Le standard OPDS (Open Publication Distribution System) [6][6] Site officiel de l’OPDS http://opds-spec.org/., utilisé par plusieurs systèmes de lecture de livres numériques présente plusieurs atouts. Il offre des fonctionnalités intégrées d’accès et d’annotation pour les catalogues et les bibliothèques personnelles (navigation, recherche, agrégation de titres acquis dans des sources différentes). Basé sur des standards ouverts, OPDS permet ainsi de sortir d’une logique propriétaire de segmentation des usages. Par ailleurs, le livre numérique encourage les annotations « sociales » des lecteurs. Les outils de lecture grand public, dont le modèle économique peut se fonder sur le partage des annotations (Readmill), proposent des fonctionnalités souvent sommaires (souligner, partager), tandis que les applications professionnelles (comme Textus pour les universitaires) offrent des possibilités très riches et variées d’annotation. Une réflexion est en cours sur la normalisation de ces annotations sociales, pour permettre leur synchronisation d’une application à l’autre, mais aussi leur citabilité au niveau le plus fin de granularité.

12

Afin d’analyser ces usages et d’offrir les meilleurs services et fonctionnalités aux usagers, il est nécessaire de disposer de statistiques de consultation fiables et homogènes, en s’appuyant par exemple sur la norme Counter (Counting Online Usage of Networked Electronic Resources). C’est ce besoin de normalisation de l’évaluation des usages que met en évidence une enquête réalisée par l’Afnor auprès de bibliothèques proposant un accès à des livres numériques.

13

En conclusion, l’importance de formats et métadonnées interopérables pour l’ensemble des acteurs du livre numérique a été soulignée. La responsabilité des bibliothèques, et spécifiquement de la BNF, pour soutenir les métiers de la chaîne du livre dans l’élaboration et la mise en œuvre de normes interprofessionnelles est clairement engagée.

14

Pauline Moirez

L’annotation, pratique et technique d’appropriation de la documentation

15

Pratiques. Copier pour annoter, une pratique banale mais essentielle qui, dans l’environnement numérique, demande à être revisitée ? Pallier les craintes, au risque d’abus juridiques, par des solutions techniques et contractuelles, voilà qui ne manquera pas d’attirer l’attention.

16

L’annotation peut être en partie définie comme une opération matérielle, intellectuelle et corporelle, menée à partir et en regard d’un objet dont elle assure la transformation et l’appropriation éventuelle et auquel elle est sémiotiquement et linguistiquement liée. Annoter, c’est en effet autant se positionner que prospecter, autant entrer en contact avec une surface, un lieu (celui de la lecture) que repérer, indexer, sélectionner, découper, baliser, copier/coller, réécrire, déplacer, produire des signes selon des perspectives, des stratégies, des moments et des moyens qui conditionnent la nature, la fonction, la circulation et la transmission des formes graphiques observées. On comprend, dans ces conditions, combien elle s’avère importante dans la gestion d’une documentation et l’acquisition potentielle d’un savoir, déterminé par les formes qu’il prend successivement à mesure qu’il est travaillé.

17

Des études relativement récentes, menées sur des publics universitaires, confirment cette ambition donnée à l’annotation. Les travaux de Wolfe et Neuwirth [7][7] Joanna L. Wolfe, Christine M. Neuwirth. « From the... mettent, par exemple, l’accent sur le nécessaire apprentissage de ces techniques à l’aune desquelles se mesurent des stratégies de lecture et d’acquisition efficaces. Si elles prennent plus de temps que la prise de notes sur un support différent (25 % contre 22 %), en partie parce que les signes produits sont bien plus variés, les techniques d’annotation assurent pourtant une bonne optimisation en termes de contextualisation, de condensation des réflexions, de structuration des connaissances, de mémorisation (notamment lorsque les annotations d’un lecteur reconnu sont rendues publiques). Ainsi l’annotation rend visible le processus de recherche et contribue, en tant que « micro-pratique primitive » et « pratique épistémique » inscrite dans un cycle de vie, à la définition progressive d’un objet de recherche [8][8] Voir l’excellente thèse de Marie-Eve Bélanger : ht.... Elle fournit également des renseignements potentiels sur le fonctionnement intellectuel d’un scripteur.

18

C’est pourquoi les annotations font depuis longtemps l’objet d’un intérêt et d’une exploitation (64 systèmes d’annotation ont ainsi été produits de 1989 à 2008 [9][9] Guillaume Cabanac. Fédération et amé­lio­ration des... et ce chiffre n’a depuis cessé de croître) assurée par un ensemble d’acteurs dont les motivations varient selon qu’ils sont historiens (qui cherchent alors à reconstituer l’univers mental d’un lecteur), pédagogues (ils tentent plutôt d’affiner les outils proposés en fonction de besoins observés) ou entrepreneurs (qui incitent alors les utilisateurs à produire des annotations potentiellement convertibles en données). Aussi différentes soient-elles, ces motivations s’appuient sur le besoin fondamental de manipuler un document, c’est-à-dire de lui faire prendre des formes variées par l’entremise de la main, afin d’assurer une meilleure digestion et « régurgitation » de l’information.

L’appropriation contrainte par les politiques d’accès

19

Le degré d’utilité de ces techniques est cependant tributaire des politiques d’accès restrictives menées par des diffuseurs qui permettent parfois la consultation sans le téléchargement libre, pourtant indispensable à l’appropriation d’un document à partir des transformations multiples réalisées dans différents espaces et selon des buts intellectuels variés. L’écriture « sur » le document est alors rendue impossible et le travailleur du savoir se trouve condamné à n’envisager qu’une solution : la prise de notes sur un support ou une interface différents. De même, s’il veut photographier certains passages d’un livre imprimé en bibliothèque, pour en garder une trace ou pour le retravailler, le manipulateur est immédiatement arrêté dans sa démarche. On peut certes comprendre une telle logique dans le cas des surfaces imprimées, où chaque trace s’apparente à une marque potentiellement envahissante pour un autre - c’est pourquoi, depuis le XIXe siècle, le « tabou des marginalia[10][10] Les marginalia sont des notes, griffonnages, et commentaires... » a frappé le monde des bibliothèques -, mais dans un contexte numérique, elle relève de stratégies de contrôle et parfois d’abus juridiques.

20

L’initiative Copy Party, menée par Silvère Mercier, Olivier Ertzscheid et Lionel Maurel, rend bien compte des enjeux liés à l’appropriation de la documentation par la copie privée [11][11] Olivier Ertzscheid, Lionel MaureL, Silvère Mercier..... Le 7 mars 2012, le public de la bibliothèque universitaire de La Roche-sur-Yon fut ainsi invité à « copier librement, en partie ou en intégralité, tous les documents disponibles (livres, revues, magazines, CD, DVD) à l’exception des logiciels et bases de données, à condition de respecter » certaines règles (confidentialité de la copie, matériel de reproduction personnel, maintien des verrous). L’entreprise reconnaissait donc implicitement les stratégies inventives de contournement des utilisateurs, leur créativité, qui irriguent la réécriture, la circulation et la transmission de notre patrimoine et, plus généralement, leurs pratiques et leurs usages des documents qu’ils apprennent à négocier avec l’institution et ses normes. Cette action eut donc non seulement pour vertu de mettre au jour des techniques d’appropriation, qui passent par des opérations matérielles, des manipulations textuelles et des procédures intellectuelles, mais également de les légitimer et de les « conscientiser » auprès de ceux qui les exerçaient.

Photographier pour annoter

21

Des outils se développent aujourd’hui dans cette perspective : développer la copie pour favoriser l’appropriation par l’annotation sans pour autant porter atteinte à l’intégrité du document imprimé. C’est par exemple le cas de l’application eHiglighter disponible sur iOS (voir les illustrations ci-dessous). Cette dernière permet en effet de produire, à partir d’un iPhone, une image d’un passage de livre photographié, transformé en texte manipulable, annotable (note mais aussi tag) qu’il est possible de faire circuler et de synchroniser (grâce à Dropbox et Evernote, par exemple).

L’application eHighlighter sur iOS - sélection d’une page à scanner
L’application eHighlighter sur iOS - océrisation de la page scannée
22

Il ne s’agit cependant là que de béquilles et de stratégies imparfaites de contournement. Car si l’annotation se pense en effet bien à un niveau microstructurel (c’est la relation entre la marge et le texte annoté, entre autres), on ne saurait faire l’économie du lien qu’elle entretient aussi avec un ensemble d’éléments - technologies de repérage : index, table des matières ; découpage textuel : chapitres, sections, etc. - qui conditionnent ses formes, ses fonctions et ses possibilités d’exploitation et l’éloignent ainsi de l’autonomie que peut prendre la prise de notes sur un autre support ou une autre interface de lecture-écriture. Autrement dit, ces outils d’appropriation de la documentation par l’annotation ne seront vraiment efficaces que lorsqu’ils s’exerceront pleinement dans l’espace endogène de leur formation ou, si l’on préfère, dans leur contexte de production originel. Si, pour les raisons évoquées, ce vœu est encore pieu, on peut cependant imaginer des accords qui s’en rapprocheraient, avec des éditeurs fournisseurs d’éléments de contextualisation - comme une table des matières dynamique, inscriptible, à laquelle le lecteur accèderait contre une faible rémunération, après avoir acquis son livre imprimé en bibliothèque (il s’agit donc là simplement d’une extension, déjà pratiquée mais peu harmonisée, de la revente des métadonnées) ; l’ouverture des APIs des éditeurs pourrait également fournir des pistes à ce type d’approche [12][12] http://www.sobookonline.fr/livre-numerique/tools-o.... Ainsi, les annotations produites à partir des passages photographiés et transformés en texte seraient automatiquement signalées dans une table des matières mise à disposition par l’éditeur d’un livre et récupérée par l’utilisateur de eHighlighter après l’intégration de son ISBN dans l’application. On se rapprocherait alors de la définition du 16e siècle de l’annotation [13][13] L’entreprise Kobo semble aujourd’hui s’inscrire dans..., activité qui consiste à produire une note, mais aussi à inventorier les biens d’une maison dans une table ordonnée, chargée de renvoyer précisément à la position de chaque bien de manière à en définir le territoire, c’est-à-dire les conditions d’habitation et, à terme, de mémorisation. Ainsi, la visualisation des annotations et leur mode de gestion [14][14] Un étudiant en design a récemment réfléchi à ces questions... déterminent le degré de leur exploitation et, par conséquent, la génération et l’appropriation potentielles des savoirs.

23

Mais avant de bénéficier de telles propositions, les pratiques d’annotations devront faire l’objet d’études ethnographiques - encore trop timides - afin de déterminer la diversité des opérations menées, dans des contextes multiples et à partir d’un matériel varié (papier/écran, stylo, crayon, clavier, etc.) afin de les penser et de les inscrire dans des interfaces graphiques adaptées, capables de les comprendre et d’accompagner leurs éventuelles transformations

24

Marc Jahjah

Un moteur très sémantique

25

Développement. S’appuyer sur l’intelligence collective, quoi de plus tendance ? Les moteurs s’y emploient, comme l’indique cette interview de François Bourdoncle, PDG d’Exalead, où il présente les avancées très prometteuses de ces outils.

26

Un moteur intelligent, capable d’extraire du sens, c’est un défi auquel on semble pouvoir répondre aujourd’hui. Exalead a présenté récemment la nouvelle version de sa plate-forme CloudView [15][15] http://blog.exalead.fr, l’occasion de faire le point sur les développements des moteurs en présentant dans un premier temps leurs fonctionnalités sémantiques.

27

Indexer une chaîne de caractères indépendamment de sa signification permet déjà de répondre aux attentes d’un marché. À l’image de Google, on peut utiliser des critères exogènes, qui n’ont rien à voir avec le contenu (comme la popularité d’un document), pour classer des documents. Si on y ajoute le nombre de pages qui contiennent un à deux mots choisis par l’internaute, cela suffit généralement pour avoir l’illusion d’avoir trouvé le « bon » document. Dans un cadre professionnel, où le nombre de documents est limité et leur densité importante, il sera facile à un moteur de retrouver les documents auxquels des mots-clés ont été attribués. Mais face à l’abondance de l’information et à l’hétérogénéité des données et des documents sur le Web, la compréhension de l’information devient un réel enjeu, y compris pour les entreprises.

Deux approches pour exploiter intelligemment le Web
  • Le web sémantique[*]. Dans cette approche normative, top-down, promue notamment par Tim Berners- Lee, il s’agit de structurer le Web en appliquant aux ressources des formats comme le RDF (Resource Definition Framework) pour permettre aux moteurs de les repérer.

  • Le moteur sémantique. Une approche bottom-up où les moteurs de recherche s’appuyant sur l’intelligence collective parviennent à traduire les requêtes en langage naturel et à extraire les informations de l’ensemble du Web.

[*]

Voir le dossier du n°4/2011 de Documentaliste-Sciences de l’information consacré à ce sujet et le « 5 à 7 » Web de données (vidéo en ligne) http://www.adbs.fr/le-web-de-donnees-perspectives-pour-les-metiers-de-l-information-documentation-79361.htm?RH=1266334869518

28

On distingue différents niveaux de compréhension pour une langue. Lorsqu’il s’agit du sens des mots et de leur grammaire [16][16] Façon de présenter une expression, sous une forme plus..., les moteurs ont développé des techniques à partir de dictionnaires et de statistiques. Mais, aujourd’hui, ces deux techniques d’analyse - automatiques et linguistiques - du Web sont insuffisantes. Le troisième niveau, plus rebelle, consiste à en comprendre le sens, ou au moins à s’en approcher, ce qui implique une collaboration entre différents éditeurs de solutions. On a déjà conçu des moteurs sémantiques. Temis et Lingway, entre autres, ont développé des cartouches spécialisées sur des métiers, réalisées à partir de la terminologie métier, par exemple pour des médicaments, à partir de la grammaire d’un nom de molécule. Dans ce modèle, on indexe les corpus des entités concernées en se servant d’ontologies [17][17] Schémas de classification : thésaurus, taxonomie, ontologie,... déjà constituées.

29

Analyser les tonalités d’un discours étant relativement simple, l’approche statistique suffit pour évaluer son e-réputation ou celle de son entreprise, mais elle n’est pas très précise et le suivi peut s’avérer coûteux. On peut se trouver aussi face à des corpus à une forte densité d’informations (des brevets par exemple), mais très consommateurs en ressources, en compétence et en maintenance linguistique. Une telle action suppose donc que le champ d’application ne soit pas important car l’analyse fine serait, dans ce cas, elle aussi trop coûteuse.

Analyse trop grossière ou trop coûteuse, quels développements pallieraient ces défauts ?

30

Plaquer des séquences déjà analysées sur de grands corpus pour organiser des apprentissages automatiques est une technique qui semble prometteuse. Ces pierres de Rosette numériques [18][18] Champollion s’est servi de l’écriture démotique et... permettent en effet d’aligner du texte et du sens en correspondance. Cette technique, adoptée depuis longtemps pour la traduction automatique, n’est pas nouvelle. Il s’agit de repérer des séquences de mots puis de faire du benchmark sur Internet. Ce système ne permet peut-être pas de traduire des romans de Proust, mais s’avère pertinent pour analyser des corpus très spécialisés, où les techniques automatiques battent même les linguistes. Nous avons l’intuition qu’à long terme l’extraction de connaissances avec des méthodes statistiques sur des corpus alignés et annotés progressera très vite. Ces techniques sont adaptées à des corpus métiers mais avec des échelles nouvelles en terme de volumétrie et pour un coût de maintenance faible.

31

On part ici du constat que ce n’est pas l’auteur qui définit le sens d’un texte mais le lecteur. L’annotation sémantique par l’internaute d’une masse d’informations créées dans un autre cadre, comme celles que l’on trouve dans les blogs par exemple, sont des mines de ressources pour les entreprises. Cette intelligence collective d’usage [19][19] François Bourdoncle. « L’intelligence collective d’usage »...., sans se substituer à une vision interne, apporte un éclairage différent mais riche.

Comment les moteurs vont-ils s’emparer des tags des internautes ?

32

L’approche uniquement linguistique serait trop coûteuse. Les techniques d’apprentissage consistent à observer le contexte où des mots apparaissent, à modéliser ce contexte pour détecter les mots inconnus apparaissant dans ce contexte et à en compléter progressivement la liste. Ce qui est nouveau aujourd’hui, c’est la puissance de calcul et la disponibilité de grands corpus, à même d’améliorer le processus d’apprentissage et à désambiguïser les annotations sociales, tout comme l’application aux images, aux sons, soit à d’autres médias que le texte.

33

L’approche top-down, qui permet l’interopérabilité et la facilité d’analyse, et l’approche bottom-up, où l’usager étend le champ d’application, sont complémentaires. Ceux qui s’intéressent au web sémantique gagneraient à regarder plus loin. Exalead, comme sans doute Google, travaille à une approche pragmatique alliant des algorithmes de linguistique et de sémantique statistiques capables de traiter des corpus importants et non structurés.

34

François Bourdoncle

35

Michèle Battisti

La chronique de Marc Maisonneuve. Professionnaliser les services en ligne

36

Quelques recommandations utiles pour améliorer sa présence sur le Web…

37

Les internautes deviennent relativement exigeants : ils souhaitent un service efficace, une relation soignée, une grande compétence de leurs interlocuteurs numériques et un conseil de qualité. L’Observatoire des usages du numérique [20][20] http://observatoire-nexstage.fr/presentation. fournit de multiples indications permettant d’améliorer la présence sur le Web d’une bibliothèque ou d’un centre de documentation.

38

Les usages du numérique se créent désormais principalement dans la sphère privée. C’est l’une des conséquences du fort développement des réseaux sociaux. Le numérique s’impose, transforme les normes sociales et influe très fortement sur les modes de fonctionnement personnel. Il développe le désir d’immédiateté dans l’échange et rend indispensable la protection des données personnelles, voire d’anonymat.

39

Ainsi, aucun service en ligne ne devrait être proposé sans comporter d’engagement clair en matière de délai de service (quand recevrai-je une réponse sur la réservation du DVD que je viens d’envoyer ou à ma demande d’achat de ce livre numérique ?).

40

Nul ne devrait imposer une quelconque identité numérique à l’usager : il doit pouvoir lui-même choisir son identifiant et pouvoir l’utiliser pour tous ses échanges en ligne avec la bibliothèque. Les relations numériques doivent être proposées à l’usager et en aucun cas des informations le concernant ne doivent être enregistrées sans son accord (par exemple, une inscription d’office à une newsletter ou à un profil de diffusion sélective d’information). C’est à ces conditions qu’une relation de confiance peut s’établir de manière durable.

41

Autre confirmation donnée par l’Observatoire, l’accès mobile à l’information doit être privilégié. C’est l’une des conséquences de l’exigence d’immédiateté. La valeur accordée à l’information partagée doit conduire à un positionnement de la bibliothèque sur un pied d’égalité, sans aucune hiérarchie.

42

Enfin, une relation respectueuse doit s’installer au travers des outils numériques avec des ergonomies accessibles à chacun, un accueil prévenant et une offre de services simples à utiliser.

43

Ces éléments laissent penser que les services en ligne doivent connaître une forte amélioration. Ils posent également la question du positionnement de ces services (les destine-t-on aux usagers actuels ou, dans une stratégie de développement des publics, plutôt aux non-usagers ?), celle des compétences des personnels affectés à ce service et celle de la formulation des engagements de services que peut prendre la bibliothèque. Bref, ils installent le numérique comme une activité à part entière, aussi légitime que l’accueil physique et probablement toute aussi exigeante que celui-ci, avec ses métiers propres et ses propres cibles de public.

Notes

[2]

L’ebook dans l’EPUR :

le livre numérique dans l’édition professionnelle, universitaire et de recherche, GFII, 2012, http://www.gfii.fr

[4]

Site officiel de Onix for books http://www.editeur.org/83/Overview. Dernière version : Onix 3.0 http://www.editeur.org/93/Release-3.0-Downloads. Voir le Guide des bonnes pratiques sur la normalisation des données nécessaires à la description et à la commercialisation des livres numéri­ques, CLIL, 2012, http://www.clil.org/information/detailDoc.html?docId=33.

[5]

Le profil français d’application du LOM (LOMFR) fait l’objet de la norme AFNOR Z76-040 (2010) ; MLR est normalisé à l’ISO (ISO/IEC 19788).

[6]

Site officiel de l’OPDS http://opds-spec.org/.

[7]

Joanna L. Wolfe, Christine M. Neuwirth. « From the Margins to the Center : the Future of Annotation », Journal of Business and Technical Communication, 2001, 15 (3), p. 333-371

[9]

Guillaume Cabanac. Fédération et amé­lio­ration des activités documentaires par la pratique d’annota­tion collective, Thèse de doctorat, Université de Bordeaux, 2008.

[10]

Les marginalia sont des notes, griffonnages, et commentaires formulés par les lecteurs (ou le copiste) dans la marge d’un livre (source Wikipédia)

[11]

Olivier Ertzscheid, Lionel MaureL, Silvère Mercier. « Une "copie-party" en bibliothèque », Médium, 2012, n°32-33, p 414-429.

[14]

Un étudiant en design a récemment réfléchi à ces questions en développant une proposition stimulante : http://www.sobookonline.fr/annotation/experimentations/garder-le-fil-de-la-lecture-le-projet-dun-etudiant-en-design

[16]

Façon de présenter une expression, sous une forme plus ou moins normalisée.

[17]

Schémas de classification : thésaurus, taxonomie, ontologie, etc., http://www.dia-logos.net

[18]

Champollion s’est servi de l’écriture démotique et grecque pour déchiffrer des hiéroglyphes, trois écritures figurant sur une pierre découverte à Rosette.

[19]

François Bourdoncle. « L’intelligence collective d’usage ». In : Technologies de l’information et intelligence collective, sous la dir. de Brigitte Juanals et Jean-Max Noyer, Lavoisier, 2010 (Coll. Systèmes d’information et organisations documentaires)

Plan de l'article

  1. Quelles normes pour le livre numérique ?
    1. Le contexte
    2. Des enjeux pour la production
    3. Le rôle clef des métadonnées
    4. Un levier pour les usages
  2. L’annotation, pratique et technique d’appropriation de la documentation
    1. L’appropriation contrainte par les politiques d’accès
    2. Photographier pour annoter
  3. Un moteur très sémantique
    1. Analyse trop grossière ou trop coûteuse, quels développements pallieraient ces défauts ?
    2. Comment les moteurs vont-ils s’emparer des tags des internautes ?
  4. La chronique de Marc Maisonneuve. Professionnaliser les services en ligne

Pour citer cet article

Moirez Pauline, Jahjah Marc, Bourdoncle François,   Battisti Michèle, Maisonneuve Marc, « Méthodes, techniques et outils », Documentaliste-Sciences de l'Information 4/2012 (Vol. 49) , p. 10-15
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2012-4-page-10.htm.
DOI : 10.3917/docsi.494.0010.


Article précédent Pages 10 - 15 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback