Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2008/3 (Vol. 45)

  • Pages : 94
  • DOI : 10.3917/docsi.453.0014
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 14 - 27 Article suivant

Référentiels, données d’autorité, thésaurus, ontologies, taxonomies... Pour en savoir plus !

1

Journée d’étude. Le 28 mars 2008, une journée d’étude était proposée par la BnF et la commission générale 46 de l’Afnor « pour réfléchir au rôle des référentiels dans l’interopérabilité des systèmes d’information et dans le web sémantique ». Françoise Bourdon, organisatrice de cette journée, répond pour nos lecteurs aux questions de Muriel Amar.

Comment passe-t-on des travaux de l’Afnor au web sémantique ? Quel a été le cheminement intellectuel suivi pour monter cette journée ?

2

Dans les représentations communes, l’image de l’Afnor est plutôt celle d’une vieille dame rigide, tandis qu’on associerait volontiers le web sémantique à un jeune homme ébouriffé... Pourtant, c’est bien ce qui se prépare dans les groupes de normalisation comme ceux de la CG 46 qui permet au web sémantique de se développer. Loin d’être aux antipodes, les travaux de l’Afnor et ceux du web sémantique s’inscrivent dans un continuum et s’intéressent aux mêmes thématiques : modélisation des données, accès aux ressources, identifiants, réseaux et interconnexion [1][1] Voir, sur ce point, le support de présentation de Françoise.... C’est pour cette raison que le thème « Référentiels et interopérabilité dans les systèmes d’information et le web sémantique » s’est naturellement imposé quand il s’est agi, à l’automne 2007, de monter une nouvelle journée Afnor [2][2] La précédente journée s’était tenue en 2006 sur le....

3

Il est vrai que, au tout début de la réflexion, la première formulation du thème, portant sur la notion de fichiers d’autorité, restait assez bibliothéconomique. Sollicités tour à tour, les experts siégeant dans les différentes commissions de normalisation ont permis d’élargir la problématique : bien qu’appartenant à des milieux professionnels différents, leurs activités de veille convergeaient toutes vers les notions de référentiels et d’interopérabilité.

4

Les journées Afnor ont une visée informative et pragmatique : elles s’attachent à vulgariser les travaux de normalisation qui, loin d’être une fin en soi, sont au service des professionnels et surtout de leurs publics. Il fallait, au-delà du thème, identifier des intervenants porteurs d’expériences concrètes [3][3] Sur ce point, une aide précieuse nous est venue de.... Un autre élément qui a plaidé en faveur du choix de ce thème est le congrès 2007 de l’Ifla. On y a beaucoup parlé du web 2.0 dans les bibliothèques et de la façon dont les internautes s’approprient les pratiques professionnelles : il est apparu que les référentiels commençaient alors une nouvelle vie !

5

C’est donc en étroite relation avec les questions débattues sur le plan national et international au sein des groupes d’experts que le thème s’est imposé : référentiels, données d’autorité, thésaurus, taxonomies, ontologies… Nous avons refusé de privilégier un terme au détriment des autres pour que tous les participants reconnaissent leur propre vocabulaire et se sentent concernés. « Référentiels » est sans doute le terme le plus générique.

Les référentiels, à présent, sont partout…

6

Le web sémantique s’appuie beaucoup sur les référentiels : ce qui le rend très fédérateur ! Il permet aux producteurs de ces référentiels de se rencontrer [4][4] Voir, par exemple, la présentation de la librairie....

7

Chaque référentiel suppose des données bien structurées et une documentation précise sur ses règles d’élaboration et de fonctionnement : c’est à ce prix qu’il pourra sortir de son contexte premier et évoluer. Actuellement, les référentiels documentaires, conçus dans un objectif précis, nous échappent de plus en plus ! C’est le regard de chercheurs ou d’autres professionnels de l’information, aux préoccupations différentes de celles des bibliothécaires ou des documentalistes, qui autorise ce phénomène : ainsi Rameau est maintenant formalisé en Skos [5][5] Voir la présentation d’Antoine Isaac. pour entrer dans le pot commun des ressources disponibles pour les applications du web sémantique… Une nouvelle vie difficilement imaginable par ses seuls gestionnaires !

8

Pour autant, ce mouvement d’émancipation des référentiels documentaires n’est pas complètement nouveau. Rappelons sur ce point l’évolution du fichier d’autorité de la BnF depuis sa création en 1985. D’abord conçu comme un outil interne devant aider les catalogueurs à gérer les points d’accès au catalogue de la BN, ce réservoir national a ensuite été diffusé, d’abord sur microfiches, puis sur cédérom, et aujourd’hui il est accessible et téléchargeable librement sur le web. De même, on a abandonné l’idée, séduisante d’un point de vue normatif mais irréalisable d’un point de vue culturel, d’utiliser dans tous les catalogues du monde la même forme d’un nom de personne, par exemple, quelle que soit la nationalité ou la langue de celle-ci. Un internaute français cherche d’emblée « Christophe Colomb » dans un catalogue ou sur le web, et non pas « Cristóbal Colón » qui est pourtant une forme tout aussi légitime !

C’est sans doute sur ce point que l’interopérabilité entre référentiels prend tout son sens ?

9

Précisément : il ne s’agit plus de contraindre à l’uniformité mais de garder les intitulés les mieux adaptés à leur contexte d’utilisation : l’harmonisation se fait aujourd’hui a posteriori par la mise en correspondance de fichiers différents. La normalisation s’appuie sur une modélisation générique et ne se fait plus au niveau de chaque référentiel. Reste que ces interconnexions ne sont valides que si chaque référentiel est à la fois structuré et documenté.

10

Ainsi un projet de fichier d’autorité international virtuel (VIAF) est en cours. L’objectif est d’apparier, à l’aide d’un algorithme développé par OCLC, les mêmes entités bibliographiques (personnes ou noms géographiques) existant dans trois fichiers d’autorité nationaux (allemand, américain et français) : le programme de rapprochement fonctionne sans impact sur les référentiels locaux. Ce qui ne dispense pas, bien sûr, de faire un travail systématique et rigoureux sur chacun des fichiers participant au projet.

Repères

Adjointe au directeur du département de l’information bibliographique et numérique de la Bibliothèque nationale de France, Françoise Bourdon préside la commission de normalisation 357 « Modélisation, production et accès aux documents » au sein de la commission générale « Information et documentation » (dite CG 46) de l’Afnor. francoise. bourdon@ bnf. fr

Présentation de la CG 46 et de la CN 357 : www. bnf. fr/ PAGES/ infopro/ journeespro/ pdf/ AFNOR2008/ afnor_CG46. pdf

Le programme de cette journée ainsi que les supports des interventions, notamment de celles citées en notes dans cet entretien, sont en ligne à l’adresse www. bnf. fr/ PAGES/ infopro/ journeespro/ no-Afnor2008. htm#point

11

Aujourd’hui, il faudrait sortir les référentiels des catalogues auxquels ils sont intrinsèquement liés, pour leur permettre de vivre de nouvelles vies. Cette opération suppose la conversion des formats bibliographiques de production et de gestion dans une structuration de données plus adaptée à l’utilisation sur le web [6][6] Voir la présentation de Sylvie Dalbin..

L’interopérabilité ne favorise-t-elle pas aussi les convergences professionnelles ?

12

En abandonnant la piste de l’uniformité et en introduisant une autre logique, l’interopérabilité entre référentiels permet en effet aux différents métiers de se rencontrer et de se renforcer mutuellement. Pour autant tout n’est pas résolu par la seule interconnexion des fichiers. Par exemple, l’utilisation des données d’autorité « noms de personnes » dans un contexte de gestion des droits sur la propriété intellectuelle ne va pas complètement de soi.

13

Les travaux entrepris dans le cadre de la commission de normalisation « Identification et numérotation des documents » (CN 6 de l’Afnor) autour de la norme ISNI (International Standard Name Identifiers) permettent de détecter les questions. Les gestionnaires de droits [7][7] Voir la présentation de la Confédération internationale... ont besoin de données précises sur les années de naissance des ayants droit. Les fichiers d’autorité « personnes » des bibliothèques contiennent généralement ces informations quand elles sont disponibles dans des sources publiques qui n’ont pas forcément de valeur légale. Selon les sources, ces données peuvent ne pas coïncider : un auteur peut souhaiter décliner une identité publique différente de son identité légale.

14

Reste que la possibilité d’utiliser l’important travail déjà réalisé par les bibliothèques est tentante pour les gestionnaires de droits, d’autant que plus personne n’a les moyens de recommencer une telle entreprise ! C’est d’ailleurs ce qui va se faire à la BnF : la gestion des droits dans la bibliothèque numérique Gallica 2 va s’appuyer sur le fichier d’autorité de la BnF… Et cette nouvelle utilisation des données engendre à son tour une nouvelle organisation du travail sur le fichier !

15

De façon plus générale, on constate que les référentiels élaborés par les bibliothécaires sont aujourd’hui très largement détournés de leur objectif premier : ils se mettent au service d’autres problématiques professionnelles et les utilisateurs finals eux-mêmes se les approprient. Aujourd’hui les catalogues de bibliothèques ne sont plus uniquement utilisés pour localiser un document !

16

Cette appartenance des outils bibliothéconomiques à un environnement élargi de pratiques est devenue tangible grâce au web qui est le véritable point de rencontre des différents acteurs de l’information.

17

Propos recueillis par Muriel Amar

Dix bonnes raisons de choisir un opac de nouvelle génération

18

Le 6 mars 2008, la Digital Library Federation a réuni quelques bibliothèques universitaires et une dizaine de fournisseurs (BiblioCommons, California Digital Library, Ex Libris, LibLime, Medialab Solutions, OCLC, Polaris Library Systems, SirsiDynix, Talis, VTLS) pour se pencher sur une nouvelle proposition de recommandation. Celle-ci devrait favoriser le développement d’opacs (online public access catalogs) de plus en plus indépendants des systèmes de gestion de bibliothèque et l’enrichissement des services qu’ils proposent. L’industrie et les bibliothèques américaines suivent donc de très près le fort développement de ces opacs de nouvelle génération qui suscitent un réel engouement du public. La rapide généralisation de ces outils conduit à s’interroger sur ce qui plaît tant à leurs utilisateurs.

1 - L’usager préfère la souris

19

Premier point fort des opacs de nouvelle génération, l’économie de moyen. Une fois saisie sa re quête initiale, c’est-à-dire un ou deux mots sans plus de précision, l’usager va naviguer dans les résultats de sa recherche et rebondir sur des termes proposés par l’opac sans avoir jamais à ressaisir la moindre information ; quelques clics suffiront. Cette ergonomie appréciable s’appuie sur la mise en œuvre de la navigation à facettes pour donner une vision structurée des résultats et permettre d’accéder rapidement à celles des notices qui répondent à la demande. Elle exploite également les possibilités de rebond offertes par le nuage de mots apparentés aux termes de la requête de l’usager. Bref, les facettes sont là pour aller directement aux bons résultats et le nuage de mots pour rebondir si les résultats sont décevants. La recherche est rapide, la saisie d’information réduite au minimum.

2 - Le silence est source d’angoisse

20

Tous les usagers ont expérimenté le silence absolu et écrasant de l’opac classique lors d’une recherche sujet. Les plus habiles ont compris qu’ils ne maîtriseraient jamais Rameau, les autres sont repartis en concluant que la bibliothèque ne disposait pas des documents recherchés. Le silence renvoie à l’usager une image peu valorisante (il ne maîtrise pas les techniques bibliothéconomiques, il n’est pas bibliothécaire, il a des goûts bizarres que ne peut satisfaire la bibliothèque…). Deuxième point fort de l’opac de nouvelle génération : des références seront toujours proposées à l’usager, quelle que soit la nature de sa requête. Pour garantir la proposition de résultats, cet opac met en œuvre plusieurs techniques : recherche dans toutes les zones de la notice (sans demander à l’usager de spécifier le point d’accès à utiliser), proposition de mots proches du terme saisi donnant des résultats, consultation en feuilletage des nouveautés ou des notices des derniers documents évalués par les autres usagers, etc.

3 - Travailler dans le bruit, ce n’est pas gênant

21

Si le silence angoisse l’usager, le bruit le gêne moins (il suffit d’observer les ados révisant le bac ou les jeunes étudiants préparant un partiel, sur fond de techno et en maintenant ouverte une fenêtre de chat, pour le vérifier : la musique favorise la concentration des nouvelles générations). Certes l’opac de nouvelle génération ne diffuse généralement pas de musique mais ses résultats de recherche comprennent de nombreuses références non pertinentes : c’est la conséquence d’une recherche dans toutes les zones de la notice et de la priorité donnée à la réduction du silence. Cet opac est construit pour proposer le maximum de références. Il est également conçu pour que cette multitude de propositions ne soit pas gênante : les références sont triées par ordre de pertinence, les facettes affichent les résultats par groupes, facilitant ainsi la restriction à tel ou tel ensemble de notices présentant un point commun (même auteur ou même zone géographique traitée, par exemple).

4 - Des illustrations pour zapper la lecture de longues notices

22

La lecture des notices, mêmes produites par la BnF, n’inspire aux usagers qu’un intérêt limité, rapidement émoussé. Les plus indociles prétendent même que la lecture d’une notice n’est pas toujours concluante quant au contenu ou à l’intérêt du document qu’elle décrit. Bref, d’autres informations doivent être fournies à l’usager afin qu’il évalue au mieux la pertinence des documents qui lui sont proposés. L’opac de nouvelle génération enrichit la notice de toute l’information disponible sur le net : première et quatrième de couverture, table des matières, extrait, avis et vote des usagers, précisions biographiques sur l’auteur, analyse et critique. Sans être particulièrement réfractaire à la lecture d’une notice, il faut bien convenir que ces éléments complètent très utilement l’indexation matière.

5 - « Je ne vais quand même pas feuilleter dix pages écran de notices ! »

23

L’usager nonchalant risquerait d’être découragé par le feuilletage d’un trop grand nombre de résultats de recherche. Les opacs classiques pêchant bien plus par leur silence que par leur bruit, le risque de submerger l’usager par un grand nombre de références n’était pas bien grand. Avec l’opac de nouvelle génération, la priorité donnée à la réduction du silence aboutit à une situation tout à fait opposée : la plupart du temps l’usager se voit proposer des dizaines et des dizaines de références. Aussi, comme il ne saurait être question de donner à lire d’interminables listes de notices, l’opac offre deux modes de consultation des résultats : l’usager a le choix entre le feuilletage des résultats et la restriction à l’aide des facettes. Le tri par pertinence rend le feuilletage beaucoup plus supportable qu’autrefois, y compris lorsque la liste des résultats est relativement longue. La puissance de restriction des facettes se passe de commentaire.

6 - Les concepts bibliothéconomiques sont barbants

24

Proposant une recherche à la Google – saisie d’un terme sans mention du moindre critère d’accès et recherche dans toutes les zones de la notice –, l’opac de nouvelle génération ne nécessite aucune maîtrise des notions bibliothéconomiques. L’usager n’a pas non plus à connaître la logique booléenne, celle-ci étant prise en charge de manière implicite tant au niveau de l’interprétation de la requête (recherche avec tous les termes de la requête soit un ET logique, étendue à une recherche à une partie des termes soit un OU logique) que dans la navigation (le choix d’une facette est une restriction qui correspond à l’ajout d’un opérateur ET). Les opacs les plus aboutis pratiquent de plus une gymnastique extrêmement intéressante : ils décoordonnent Rameau et proposent sous forme de facettes la restriction à une subdivision géographique, à une subdivision temporelle… L’usager lambda, c’est-à-dire celui qui n’est pas initié aux arcanes de Rameau, peut enfin en exploiter les multiples richesses. Pour un outil qui proscrit la maîtrise des concepts bibliothéconomiques, ce résultat est tout à fait remarquable !

7 - Tout doit être simple

25

Au-delà du bannissement apparent des concepts bibliothéconomiques, l’opac de nouvelle génération se veut dépouillé à l’extrême. L’écran d’accueil pastiche celui de Google. Très sobre, il comporte une seule zone de saisie. Aucune fonction n’est proposée. L’usager est invité à se lancer dans la recherche, le mode d’emploi viendra avec l’usage. L’opac reprend d’ailleurs de nombreuses caractéristiques du Google : il propose toujours quelques réponses, il dispose d’une fonction « Essayez avec cette orthographe… » La simplicité de l’opac découle de son modèle : reproduisant les principes de fonctionnement de Google, outil quasi universel, il semble d’un usage simple et naturel.

À lire

Le catalogue de la bibliothèque à l’ère du Web 2.0 : étude des opacs de nouvelle génération, par Marc Maisonneuve. ADBS Éditions, 2008. 308 p. ISBN 978-2-84365-105-2. 26 €

Présentation sur www. adbs. fr

8 - « Vous voulez savoir ce que j’en pense ? »

26

L’usager passionné peut enfin prendre la parole et dire tout le bien ou tout le mal qu’il pense des documents que possède la bibliothèque. Mieux encore, au-delà de la saisie de ses impressions et de ses critiques, il peut lire ensuite (et faire lire) les textes qu’il a saisis. L’usager devient critique littéraire. C’est tout de même plus valorisant que de parcourir de longues listes de notices bibliographiques !

9 - « Qu’est-ce qu’il y a de bien dans les nouveautés ? »

27

L’opac classique est généralement dans la totale incapacité de donner à voir les nouvelles entrées de la bibliothèque : celles-ci sont noyées dans la masse du catalogue. L’opac de nouvelle génération met en valeur les nouveautés de multiples façons : une icône spécifique identifie les nouvelles acquisitions, une facette permet la restriction à ces nouvelles entrées, les nouvelles critiques des usagers, dont une majorité porte sur l’actualité littéraire, peuvent être consultées en feuilletage… S’y ajoute la génération automatique de listes HTML de nouvelles acquisitions classées par niveau de lecture, genre littéraire et classe de la Dewey que l’usager pourra consulter en mode feuilletage.

10 - « Que lisent mes voisins ? »

28

L’usager est bien souvent preneur des conseils de lecture aimablement dispensés par les bibliothécaires. Il est plus friand encore des conseils prodigués par ses pairs. L’opac de nouvelle génération satisfait ce type d’attente de plusieurs manières : consultation des votes des autres usagers avec généralement une note moyenne entre 0 et 5, lecture des critiques saisies par les autres usagers (ou récupérées par l’opac sur Amazon.fr !)… La fonction la plus aboutie en la matière consiste à proposer la liste des documents qu’ont lus les usagers qui ont emprunté le document dont la notice est affichée. C’est l’équivalent de la fonction d’Amazon « Les clients ayant acheté cet article ont également acheté… ». L’usager découvre enfin ce que lisent ses voisins.

29

Mettant à profit les trouvailles du commerce en ligne et la maîtrise que l’usager à acquise des sites de référence du web, l’opac de nouvelle génération est un outil conçu pour l’usager, qui n’a plus rien à voir avec la version dégradée de la recherche professionnelle qui tenait lieu d’opac. Plus ludique et surtout plus efficace en recherche, il donne à voir les documents de la bibliothèque, met en valeur ses nouvelles acquisitions et installe l’usager dans un rôle de contributeur, plus valorisant et plus dans l’air du temps. C’est sans aucun doute l’outil qu’attendaient les nouvelles générations, notamment celle des digital natives.

30

Marc Maisonneuve

Usages concurrents et complémentaires des logiciels libres et des logiciels propriétaires

31

Atelier i-expo. La cohabitation sur le même marché de logiciels libres et de logiciels d’éditeurs conduit à des échanges entre ces deux modèles. Qui sont les bénéficiaires de ces « hybridations » ? L’atelier proposé par l’ADBS lors du salon i-expo invitait des éditeurs, des utilisateurs et des prestataires de services à témoigner de leurs pratiques croisées.

32

Les logiciels libres occupent encore une part modeste dans le marché français de l’industrie logicielle, mais leur croissance est importante. Moins militants, plus soucieux de s’intégrer dans l’économie marchande, ils ont fait la preuve de leur robustesse, amélioré leur ergonomie et gagné la confiance des entreprises. Il existe aujourd’hui des solutions libres pour presque tous les besoins métier. Dans le domaine de la gestion de l’information, aussi, de plus en plus de professionnels envisagent l’utilisation du libre. En bibliothéconomie, un projet d’informatisation sur cinq [8][8] Source : Tosca consultants, www. toscaconsultants.... pourrait être réalisé avec des logiciels libres.

33

Le modèle collaboratif des communautés libres, qui réunissent des utilisateurs/prescripteurs non-informaticiens et des développeurs non-praticiens nécessite des ajustements qui conduisent à une interpénétration des logiques libres et marchandes. L’intervention de sociétés de service dans les communautés ou le financement de développements libres par des groupes d’industriels sont fréquents. De nombreux logiciels sont ainsi proposés sous double licence, gratuite dans le cadre d’une collaboration communautaire, payante lorsque la licence s’accompagne d’une documentation et de prestations de service. Enfin il n’est pas rare que les éditeurs livrent des plates-formes associant à leurs produits des logiciels libres, voire commercialisent des progiciels alliant du code libre et du code propriétaire. Logiciels libres et logiciels propriétaires sont donc à la fois concurrents et complémentaires.

Repères

Ces ateliers ont eu lieu le 28 mai 2008 à Paris, dans le cadre du salon i-expo. On en trouvera le programme détaillé, ainsi que les textes ou supports des interventions, à l’adresse : www. adbs. fr, rubrique « Se former et s’informer », sous-rubrique « Manifestations ADBS ». Un compte rendu plus détaillé y figure également

Identifier les coûts et les risques spécifiques aux projets libres

34

Dans ces conditions, est-il avantageux d’implémenter un logiciel libre ? Laurent Soual [9][9] Consultant associé au cabinet de conseil DoXulting constate que ces projets comportent des coûts et des risques qu’il faut identifier pour ménager un bon retour sur investissement. Même si l’on opte pour une licence gratuite, les coûts des infrastructures techniques et des prestations de service nécessaires pour installer, adapter et compléter le logiciel ne doivent pas être négligés. Il est donc important, en préalable au projet, d’évaluer la couverture fonctionnelle du logiciel. Si ce dernier est mature et couvre d’emblée tous les besoins, le projet sera rentable. S’il nécessite d’importants ajouts, l’avantage résidera moins dans le coût du projet que dans l’interopérabilité et la pérennité du développement.

35

Les membres des communautés compensent ces investissements, en théorie, en reversant les évolutions et en bénéficiant, en retour, des ajouts et améliorations des autres membres. Il est donc nécessaire, en amont du projet, d’étudier le fonctionnement de la communauté : est-elle dynamique et intègre-t-elle les codes de provenances diverses ? L’enjeu est d’importance : voir refuser l’intégration de ses évolutions dans les standards de la communauté conduit à l’incompatibilité. L’utilisateur reste alors seul responsable des évolutions de son logiciel sans être sûr de pouvoir, techniquement, bénéficier des mises à jour officielles de la communauté.

36

Ces précautions préalables, ainsi que la surveillance des sites et forums de la communauté, nécessaire pour suivre les évolutions du logiciel, sont des tâches spécifiques des projets de logiciels libres.

Une opportunité de croissance et de notoriété pour les éditeurs

37

L’aspect financier n’est pas le seul argument des logiciels libres, renchérit Arnaud Lelache [10][10] Directeur général de l’Agence française informatique.... Ceux-ci sont ouverts, paramétrables et leur mise à jour est continue. Les utilisateurs ne sont plus exposés à des coûts parfois importants en cas de mise à jour « majeure » non comprise dans le contrat de maintenance ou s’ils souhaitent récupérer leurs données lors d’une migration. D’un autre côté, les logiciels libres n’offrent pas de garantie de qualité, nul n’est responsable de la correction des bugs ou du suivi réglementaire.

38

Un éditeur peut donc sans dommage renoncer à ses coûts de licence tout en proposant des prestations de qualité. Le client bénéficie alors d’une garantie de service, tout en restant assuré de pouvoir reprendre son indépendance à tout moment. L’éditeur gagne en crédibilité et en notoriété grâce aux systèmes de communication du monde du libre.

39

Selon le Gartner group, « en 2012, 80 % des logiciels propriétaires contiendront du code libre ». Pour Bernard Normier [11][11] PDG de Lingway, société éditrice de solutions d’analyse..., plusieurs raisons conduisent les éditeurs à adopter ces pratiques : la rapidité d’intégration qui permet à un petit éditeur de se concentrer sur son domaine d’expertise sans réécrire les couches d’infrastructures grâce à des logiciels libres, matures et sûrs, souvent moins « buggés » que les grands logiciels propriétaires ; l’indépendance à l’égard des autres éditeurs ; la motivation et la notoriété qu’apportent aux développeurs l’interaction avec les communautés.

40

Mais ces pratiques engageront la responsabilité de l’éditeur sur l’ensemble du code composant le produit, ce qui incite à une démarche prudente et responsable : n’intégrer que du code connu et maîtrisé, le réécrire si nécessaire et collaborer avec les communautés pour maintenir une compétence sur le code.

L’argument du coût ne doit pas être au cœur du choix

41

Le choix d’un partenariat avec le système de gestion de contenus d’entreprise (ECM) Alfresco a été une évidence, explique Marc Lefebvre [12][12] Business development manager chez Sollan, spécialiste.... Entre une offre éditoriale concentrée et coûteuse mais vieillissante et présentant une ergonomie et une interopérabilité insatisfaisantes, et des logiciels libres plutôt orientés vers la gestion de contenu web, Alfresco, disponible sous double licence, a trouvé sa place de logiciel pragmatique, conforme aux standards de l’ECM et évoluant rapidement grâce à une communauté nombreuse et dynamique. Les utilisateurs ont facilement accès aux informations techniques et aux projets d’évolution, sans être liés à un éditeur, et les coûts peuvent être divisés par dix. Il n’est donc pas rare que des entreprises choisissent le libre pour des projets qui demandent des solutions rapides à installer et personnalisables.

42

Le choix du libre ne doit cependant pas reposer sur le seul argument du coût. Il faut faire ce choix pour de bonnes raisons et en fonction du contexte, insiste André Davignon [13][13] Responsable du PANDOC (Pôle d’appui national documentaire..., car le coût d’un logiciel libre peut être plus élevé que celui d’un logiciel propriétaire. La pérennité et l’interopérabilité de Notix, qui intègre des infrastructures libres et repose sur les standards XML et Java, l’adéquation du projet avec les directives de l’administration, la réactivité qu’autorise l’ouverture du code en cas de demandes d’ajouts ont été déterminants.

43

Mais toute médaille a son revers : il faut disposer des compétences techniques adéquates et des ressources humaines suffisantes pour suivre les évolutions, animer la communauté et développer les ajouts demandés par les utilisateurs. Cette situation peut ne pas convenir à toutes les structures.

44

Claire Scopsi

Quoi de neuf sur les moteurs de recherche ?

45

Atelier i-expo. Longtemps, la question de la recherche d’information n’a été abordée que sous l’angle technologique. D’autres facteurs – pratiques collaboratives, apport des ontologies et du web sémantique, création de corpus spécialisés, intégration des données internes – sont pourtant à prendre en compte. C’était l’objet du deuxième atelier organisé par l’ADBS lors du salon i-expo

46

Parmi les moteurs de recherche, dont Béatrice Foenix-Riou [14][14] Consultante Internet, FLA Consultants. a présenté un panorama, Google occupe désormais en France une position hégémonique. Lors de son lancement, en 1998, la mode est aux portails, combinant annuaire thématique et recherche en texte intégral. Prenant le contre-pied de cette tendance, l’interface sobre et simplifiée de Google se concentre sur la recherche en texte intégral, ce qui, avec son système de classement des pages et sa formidable puissance informatique, a valu à ce moteur un succès rapide. Après s’être concentré sur la seule recherche sur le web, Google va commencer à se diversifier en 2002 en lançant de nombreux produits et services. Cette politique vise à toucher de nouveaux publics, à rendre ses utilisateurs captifs et évidemment à multiplier les supports de diffusion des liens commerciaux. Dans le même temps, l’interface de recherche de Google a peu évolué et ce moteur présente des lacunes certaines.

47

Face à la position dominante de Google, la concurrence essaie de se démarquer en exploitant ces lacunes. Les voies explorées concernent la recherche, le classement ou la présentation des résultats. Ainsi Exalead reprend bon nombre des possibilités offertes par les outils documentaires traditionnels, Yahoo! joue sur la présentation, Powerset mise sur la recherche sémantique, Kartoo propose une visualisation graphique des résultats regroupés par concepts. Ces développements ne devraient pas remettre en cause le quasi-monopole de Google. Mais il ne fait pas de doute que, pour les professionnels de l’information, ces autres voies sont à suivre de près car elles pourraient bien constituer, sinon une alternative, au moins des solutions d’avenir.

Recherche collaborative

48

La notion de recherche collaborative ou sociale, a expliqué Armelle Thomas [15][15] Consultante, cabinet Inforizon., renvoie à des recherches s’appuiant sur des communautés virtuelles, privilégiant donc les interactions humaines et le partage de données.

49

L’appel à des communautés peut se faire par l’intermédiaire des listes de discussion, des forums, des services Q/R. Le problème est évidemment de trouver la « bonne » communauté, que ce soit en s’adressant à un service généraliste ou en mobilisant un réseau. Parmi les outils disponibles, on trouve les forums classiques, comme les groupes de Google, par exemple, les hubs de la plate-forme Viadeo ou le service Q/R sur le réseau social LinkedIn. On peut aussi avoir recours à des « individus pivots ». Il s’agit de personnes connues ou inconnues, sur lesquelles on peut s’appuyer ponctuellement ou que l’on préfère suivre régulièrement. Les nombreuses possibilités offertes désormais par le web 2.0 sont autant d’éléments pour essayer de vérifier la fiabilité de ces personnes pivots. Le suivi des tendances entre aussi dans le cadre de ce type de recherche. Enfin, les moteurs collaboratifs, qui n’en sont qu’à leurs débuts, offrent des perspectives intéressantes.

50

Le recours à des experts n’est certes pas une nouveauté, mais les outils récemment développés dans le cadre du web 2.0 favorisent les échanges de connaissance. Cette pratique ne remplacera sûrement pas les moteurs classiques, mais elle constitue un apport intéressant, en ce qui concerne notamment des ressources non répertoriées par ces moteurs.

L’apport du web sémantique

51

Pour Pierre Molette [16][16] Directeur associé d’Acetic, société spécialisée dans..., l’expression « web de données » serait préférable à celle de « web sémantique », afin d’éviter la confusion avec la recherche en langage naturel. Alors qu’il s’agit en fait du web, en tant que corpus, que le W3C envisage de transformer en une gigantesque ontologie (base de données structurée en concepts). Il existe des normes, RDF et OWL notamment, qui visent à rendre le web accessible et réutilisable en recourant à des métadonnées. OWL permet de construire des classifications de concepts structurées et arborescentes auxquelles il est possible d’ajouter des règles de cohérence. Pour transformer une ontologie en ressource sémantique, il est nécessaire de constituer un dictionnaire spécialisé aussi complet que possible, qui établira la correspondance entre les mots des textes et les concepts de l’ontologie ; et de disposer d’une logique permettant de résoudre les problèmes grammaticaux, sémantiques et qualitatifs.

52

Pour le W3C, les ontologies devraient constituer un socle important du web 3.0, en le structurant très fortement de façon sémantique. Mais, pour cela, il faudra faire évoluer les normes actuelles vers un modèle unifié et réellement sémantique.

Les moteurs de recherche verticaux

53

Selon la définition de Christophe Asselin [17][17] Consultant, expert veille Internet, société Digimi..., un moteur vertical est un outil de recherche, intégré ou non à un portail, qui se focalise sur un secteur d’activité ou une spécialité professionnelle. Ce marché est en plein développement, car la difficulté de percer dans le domaine des moteurs traditionnels, en raison de la prédominance de Google, pousse à la création de ce genre de niches. De plus, des études récentes montrent que moins de 50 % des professionnels trouvent ce qu’ils désirent grâce aux moteurs traditionnels ; et près de 40 % de ceux qui se tournent vers des moteurs verticaux estiment que de bons moteurs font défaut dans leur secteur d’activité.

54

Parmi les limites des moteurs classiques, on peut citer l’hétérogénéité de sources non validées, toutes mises au même niveau, le bruit inhérent à la recherche en texte intégral sur des corpus importants et variés, ainsi que des résultats généralistes livrés en vrac. D’où l’intérêt de recourir à des corpus privilégiant la qualité à la quantité, sélectionnés et validés par des experts.

55

Les nouvelles tendances de la recherche verticale se caractérisent par une offre de plus en plus nombreuse, l’intégration de sources et de formats multiples, une ergonomie accrue grâce au recours à des fonctionnalités qui ont émergé avec le web 2.0.

Le moteur de recherche comme élément de l’infrastructure des SI

56

L’intervention de Christophe Fauré [18][18] Senior manager, Atos Origin. se proposait de montrer dans quelle mesure la souplesse et la facilité de mise en œuvre de la recherche sur le web pouvaient être transposées aux infrastructures des systèmes d’information des entreprises gérant principalement de l’information interne et hétérogène. Comme avec les applications web, on retrouve une phase de stockage de l’information, précédant la création de tables d’index pour restituer l’information.

57

Les quatre aspects architecturaux à prendre en compte dans le choix d’un moteur sont l’acquisition du contenu, la création d’index, le traitement des requêtes et l’affichage des résultats. Les aspects hardware (réseau, stockage, mémoire et calcul) ne sont pas à négliger, afin de ne pas risquer d’être victime de blocages ou de ralentissements. Si les moteurs de recherche ont structuré le web et que la mise en ligne d’informations qui seront rapidement référencées par les moteurs ne nécessite pas de développements particuliers, il en va autrement dans l’entreprise du fait de l’hétérogénéité des données et de l’absence d’un paradigme du type http.

58

Le problème est donc de surmonter cette absence de liens. C’est là qu’intervient le text mining qui permet de générer automatiquement des métadonnées afin d’adopter une structure de type web. Ce que permet la ROA (ressource oriented architecture) qui offre une interface uniforme (http), un identifiant unique ((@ )et des liens reliant les différentes représentations (formats) et ressources existantes. Ce système permet de simplifier l’information et de la rendre « crawlable ».

59

Les perspectives de développement résident dans l’association de la technologie ROA, des index et du web sémantique.

60

Serge Boulier

La veille : pratiques décalées, pratiques d’avenir

61

Journée d’étude. « Mobilité » : tel pourrait être le maître mot de la journée d’étude que l’ADBS a consacrée à la veille, le 3 juin dernier. Ce mot a été martelé un peu sur tous les tons par l’ensemble des intervenants, qui venaient pourtant d’univers très différents : nécessité, pour le veilleur, de mobilité intellectuelle, spatiale, temporelle…

62

La veille est un mot valise qui nous fait voyager dans trois dimensions, a expliqué en préambule Alpha Diallo. L’espace : le veilleur défriche de nouveaux périmètres. Le temps : proactif, le veilleur devance les attentes de ses clients. L’énergie : canalisée, celle-ci ne s’épuise plus dans la collecte exhaustive de données mais se focalise sur la valeur ajoutée opérationnelle.

63

Parce qu’il existe dans l’entreprise une multiplicité de veilles, c’est une notion qui ne se laisse pas si aisément définir et qui suscite une bataille de définitions (veille / documentation / intelligence économique / service stratégique / lobbying…). Au problème de périmètre de la notion de veille correspond le problème de positionnement du professionnel de l’information et d’image de la fonction info-documentaire. L’intérêt de cette journée a justement consisté à ne pas essayer de définir la veille d’une manière abstraite, mais de l’envisager sous l’angle de l’innovation et de la pratique : il s’agit d’innover dans les processus et les produits d’information.

64

Dans un environnement mouvant, la mobilité du veilleur est requise. Les exemples sont nombreux d’entreprises soumises aux aléas, notamment capitalistiques : Emmanuelle Chazelle a évoqué l’histoire mouvementée de son entreprise, E2V, passée entre les mains d’Américains et de Grecs, pour être aujourd’hui conduite par des Anglais. Chez Rio Tinto Alcan, Anne-Marie Libmann a connu, elle aussi, une succession d’actionnaires : français avec Péchiney, américain avec Alcan, et aujourd’hui anglo-australien !

Mobilité intellectuelle

65

« Il faut savoir être ouvert à ce qu’on n’attend pas », affirme Véronique Senèze, du Service d’information du Gouvernement, qui, pour le compte de Matignon, de l’Élysée et des ministères, réalise sur Internet une veille d’opinion portant sur la façon dont sont perçus les propos du Gouvernement. Il faut être agile pour mettre en place ce type de veille : c’est une gymnastique que de se mettre sous tension rapidement, se concentrer sur l’essentiel, anticiper les demandes, croiser des indicateurs, dégager des tendances.

66

La mobilité intellectuelle s’illustre aussi dans la volonté du service de veille d’Essilor de « dynamiser la curiosité » : les chercheurs du service R&D sont encouragés dans la rédaction de notes de veille ; des réunions en interne rassemblent des personnes du marketing, de l’ingénierie, etc. ; des séminaires sont organisés autour de la science et de la technologie.

67

Le veilleur se doit d’interroger aussi ses pratiques et ses outils. Il a affaire à des médias qui évoluent très vite. Suivant une veille image, son travail pourrait même s’assimiler à un détournement des pratiques documentaires, dans la mesure où l’information collectée l’est moins pour sa fiabilité que pour l’impact qu’elle est susceptible d’avoir… Les sites qui font autorité ne sont plus les sites institutionnels officiels, mais ceux (supposés influents) sur lesquels l’information circule. Le veilleur est aussi amené, au lieu de se référer à un système d’indexation rigoureux, à utiliser les propres catégories de classement des internautes (les « tags »). En outre le paradoxe est que, selon un raccourci éloquent, le veilleur « cible du bruit » ! Il sait, certes, ce qu’il recherche, mais il lui faut aussi développer des « capteurs » pour être en mesure de trouver autre chose encore…

Repères

Cette journée d’étude s’est déroulée à Paris, le 3 juin 2008. Le programme, les textes ou supports des interventions, ainsi qu’une version plus complète de ce compte rendu, sont en ligne sur le site de l’ADBS : www. adbs. fr, rubrique « Se former et s’informer », sous-rubrique « Manifestations ADBS »

On y trouvera notamment des précisions sur les interventions, non abordées ici, de Patricia Auroy, du Groupement de compétences pour l’information et la compétitivité, qui a dressé une cartographie des compétences en intelligence économique dans le souci de stabiliser l’identité du métier ; d’Éric A. Caprioli, avocat du cabinet Caprioli&Associés, qui a rappelé que la loi protège les données personnelles ; et d’Alain Garnier, d’Inevidence, venu aborder les aspects financiers : la veille a un coût et le management d’une entreprise s’intéressera forcément au retour sur investissement.

68

La curiosité intellectuelle du veilleur et son aptitude à traiter des sujets variés ont aussi été mises en exergue par Élisabeth Gayon (Total) pour qui VTT rime avec « veille tout terrain »…

Mobilité spatiale

69

Le veilleur explore de nouveaux territoires. Il est à l’affût de nouvelles sources, et a de toute façon appris, avec Internet, à ne pas se cantonner aux sources classiques ni aux corpus de données structurés ; il est de fait confronté au web déstructuré…

70

La pratique de la veille chez Essilor passe par l’élargissement du champ de la collecte. Selon Muriel Séménéri, le professionnel de l’information se tient informé des nouvelles sources mais recourt également à l’externalisation, selon le postulat intéressant qu’« on n’externalise que ce que l’on sait faire », pour mieux se concentrer sur des domaines nouveaux et sur les recherches les plus délicates et les plus urgentes. « Faire faire » par un prestataire externe est en soi un nouveau domaine d’exploration pour le professionnel de l’I-D…

71

Les chargés d’études et de veille dans le groupe Total sont mobiles au sein même de l’entreprise : leur dextérité intellectuelle leur permet de passer d’un métier à un autre. Ils viennent et vont vers des métiers aussi différents que la stratégie, la communication, les RH, les achats, la R&D, etc.

Mobilité des compétences et des comportements

72

Le professionnel de l’information élargit aussi le champ de ses compétences. Passeur d’informations, il devient coach et formateur, il assure un support méthodologique sur les outils et les sources. Le veilleur devient « consultant en information », il transfère son savoir, il devient un animateur de cercles et rencontres de veille ou de réunions de veille technologique.

73

« Bouger » est aussi le mot d’ordre d’Anne-Marie Libmann chez Rio Tinto Alcan. Le professionnel de l’I-D a tout à gagner à se rapprocher de l’action. Si, dans la bataille pour la matière première qu’est l’information, le documentaliste se tient éloigné des enjeux stratégiques, loin du pourquoi, il ne pourra jamais transformer le minerai en or… S’il s’éloigne de l’action, il s’éloigne du sens, il éprouve des difficultés d’analyse et a le réflexe de stocker pour stocker, d’emmagasiner des données, d’extraire le minerai « au cas où », pour se rassurer, au lieu de viser la mise à disposition immédiate de l’information stratégique. Il s’agit d’engager la fonction info-documentaire vers une plus grande connivence avec les stratèges.

74

Être proche de son client, tel est aussi le leitmotiv d’Emmanuelle Chazelle. Le service info-veille d’E2V envoie du push personnalisé par courriel : une « Biz Alert » (alerte quotidienne sur les semi-conducteurs), un bulletin de veille mensuel sur les concurrents, une business newsletter bimensuelle sur les clients et partenaires, des tableaux de bord, des company profiles, etc. Attentif à l’accueil de ses prestations, il met par exemple en place dans Outlook des onglets de réponse automatique du type : « C’est un scoop », « C’est intéressant », « C’est hors sujet », pour que le destinataire des alertes réagisse en un seul clic. Une autre initiative originale est la fiche de feedback, qui permet de qualifier la pertinence des articles transmis.

75

Le veilleur assure certes déjà sa promotion par la qualité du service rendu au client, comme l’a exprimé Céline Docq de BPI. Il a aussi tout intérêt à accentuer sa communication, à tenter de nouveaux produits, à remettre en cause régulièrement ses livrables – quitte à s’exposer à des échecs sur lesquels il pourra rebondir…

76

Dans le même ordre idée – « marketer » ses produits d’information et valoriser les « capteurs d’information » (toute personne source d’information) –, le service de veille Eyewatch d’Essilor va jusqu’à lancer des objets publicitaires qui développent sa notoriété et servent aussi à remercier un contributeur particulièrement zélé, tel un chercheur ayant rédigé plusieurs notes de veille…

77

Emmanuelle Chazelle a par ailleurs insisté sur la nécessité pour un service de veille de s’intégrer dans les processus de son entreprise. Il lui faut se situer dans l’organisation générale de la société. Quand on travaille chez Essilor, qui se positionne comme un leader technologique, il paraît naturel de positionner son service de veille sous l’angle de l’innovation.

Une dynamique d’échanges et de changement

78

Le veilleur doit à la fois s’intégrer dans une organisation interne et s’inscrire dans une dynamique d’échanges avec d’autres, qui pourrait donner vie à une « communauté de pratiques », selon le vœu d’Alpha Diallo. Transverse, a rappelé Véronique Mesguich dans sa conclusion, la fonction veille se cherche encore et, par nécessité et volonté d’innovation, s’est engagée dans la mobilité et dans une dynamique de changement.

79

Corinne Dupin

80

Charles-Henry Rey

Réseaux personnels, réseaux professionnels : apports et complémentarité

81

Journée d’étude. Les bonnes pratiques des réseaux virtuels ou classiques, leurs apports sur le plan personnel et professionnel, leurs complémentarités, leurs limites aussi, étaient au cœur d’une journée d’étude proposée début juillet par l’ADBS.

82

Avec l’apparition du web 2.0, nous avons en quelque sorte basculé du lien hypertexte au lien social. En appartenant à un réseau social, l’individu devient un participant actif du web et non plus un simple visiteur de pages statiques. Quels usages fait-on de ces réseaux ? Comment y être visible ? Quels sont les apports respectifs des réseaux personnels et professionnels et leurs complémentarités ? L’objectif de cette journée était de démystifier ces réseaux, d’en comprendre les différents usages possibles et de proposer des retours d’expérience.

83

En introduction, Martine Sibertin-Blanc a insisté sur la résonance de la thématique de cette journée avec l’association. La présidente de l’ADBS a mis en exergue cette phrase de John Donne qui résume bien la problématique : « Aucun homme n’est une île, un tout, complet en soi ; tout homme est un fragment du continent, une partie de l’ensemble.[19][19] John Donne, Devotionsupon Emergent Occasions, Méditation... »

84

En présentant la matinée, Isabelle Gautheron a elle aussi souligné combien le sujet interpelle l’ADBS car il évoque la notion de partage de la connaissance. L’apparition du web 2.0 a contribué à étendre considérablement les possibilités de se mettre en réseau tant au niveau personnel que professionnel. Pour les documentalistes, ces réseaux demeurent des territoires et des espaces à investir et à maîtriser.

Les réseaux dans quels espaces ? Pour quels usages ?

85

Dominique Cardon (sociologue au laboratoire Sense) a présenté une étude qu’il a réalisée pour le laboratoire Orange Labs, qui analyse les différents types de réseaux personnels. Il examine le rapport que l’individu entretient avec un espace virtuel. Il rappelle que le web n’est pas un espace public comme les autres et qu’il y a des paramètres plus visibles que d’autres. En effet, on se cache parfois derrière un pseudonyme, dans d’autres cas on se présente sous sa véritable identité. Il dresse une typologie des modèles par lesquels on s’inscrit dans un réseau (modèle obscur, modèle clair/obscur, modèle phare) et précise que le rapport à la visibilité reste central.

86

Jérôme Delacroix (consultant), de son côté, s’est interrogé sur la notion d’expertise, question posée par le paradigme du web 2.0, et a rappelé que le rôle d’expert du documentaliste demeure décisif dans l’analyse du contenu de ces réseaux.

Les réseaux : des territoires à investir

87

Richard Collin (directeur de l’Institut de l’Enterprise 2.0 et enseignant à l’École de management de Grenoble) est revenu sur l’importance d’être visible sur ce type de réseau et d’y laisser des traces. Il propose une phrase du philosophe Michel Serres : « Les tigres pissent pour délimiter leurs niches. Ainsi font les sangliers et les chamois. Mimons-nous ces animaux ?[20][20] Michel Serres, Le Malpropre: polluer pour s’approprier?... », en précisant que l’information serait le territoire dont il est question. En effet, il décèle dans notre comportement sur les réseaux une volonté, consciente ou inconsciente, de laisser des traces.

88

Il établit une distinction entre les termes d’identité numérique (liée à la personne, objective et unique) et de réputation numérique (liée à une évaluation, subjective, non contrôlable mais gérable).

Les réseaux sociaux personnels : des outils pour recruter

89

Jean-Pascal Szerlerski (directeur des services web de l’Apec) a évoqué un récent rapprochement entre LinkedIn et l’Apec, qui vise à permettre d’activer la plate-forme LinkedIn depuis le site Apec.fr. Ainsi, dans le cadre d’une recherche d’emploi, on peut consulter une offre et chercher par son réseau LinkedIn si l’on connaît des personnes de cette entreprise.

90

Christophe Blazquez (consultant en recrutement et gestion de carrière implanté à Pau) a présenté ses pratiques de recrutement sur Internet en donnant l’exemple du site de mise en relation professionnelle Viadeo. Il évoque également l’expérience qu’il a faite d’ouvrir un cabinet de recrutement sur le réseau virtuel Second life ; mais il y a constaté un décalage trop important entre identité virtuelle et identité réelle.

Réseau virtuel ou classique ?

91

À l’origine, Facebook était un réseau social fermé animé par les étudiants de Harvard. Ce site a été ouvert à tous en septembre 2006 et depuis se déploie rapidement. On peut en relever différents usages : Éric Delcroix (directeur de Ed Productions et professeur associé à l’UFR IDIST de Lille) l’a utilisé lui-même en tant que plate-forme de travail avec des élèves ; il semble que certaines entreprises l’utilisent comme intranet lorsqu’elles ne disposent pas d’outils permettant d’en constituer ; une page Facebook peut également faire office de publicité pour une entreprise.

Repères

Cette journée destinée aux adhérents de l’ADBS s’est déroulée dans l’amphithéâtre de l’École des hautes études en sciences sociales, à Paris, le 4 juillet 2008. Le programme détaillé, ainsi que les textes ou supports des interventions, sont en ligne sur le site de l’ADBS : www. adbs. fr, rubrique « Se former et s’informer », sous-rubrique « Mani?festations ADBS ».

92

C’est un réseau plus classique que présente Agnès Melot (responsable de la bibliothèque de HEC) : l’EBSLG (Europeean Business School Librarians Group), réseau professionnel né en 1970 et qui a pour stratégie de devenir une association internationale et de maintenir des liens forts avec d’autres réseaux.

Des vecteurs de lien social

93

Les réseaux sociaux sur Internet, a affirmé Richard Collin, « remplacent les bistrots ». Ils sont vecteurs de lien social et deviennent de plus en plus courants. À preuve, un très grand nombre des membres de l’ADBS présents dans la salle font partie d’un réseau professionnel ou personnel.

94

On note aussi l’importance du réseau relationnel et des réseaux sociaux dans le cadre d’une recherche d’emploi. Aux États-Unis, on annonce la fin du CV classique. En effet, on y trouve de plus en plus souvent un emploi par le biais d’Internet et en faisant fonctionner ses réseaux relationnels.

95

Dans le cadre du e-recrutement, on fait de plus en plus appel à Internet. On pratique, par exemple, le « name googling » qui consiste à rechercher sur Google le nom d’une personne que l’on va potentiellement recruter afin d’en savoir davantage sur elle, d’observer ses profils sur les réseaux sociaux, de savoir si elle tient un blog, etc.

Apprendre à « gérer » sa réputation numérique

96

La journée s’est terminée par une table ronde sur le thème : « Les apports réels et les limites du réseau dans la vie personnelle et professionnelle, perte de temps ou retour sur investissement ? »

97

La problématique de la multiplicité des réseaux a été soulevée. En effet, comment gérer et mettre à jour ses profils, sachant que les individus sont souvent présents sur plusieurs réseaux ? Plusieurs intervenants semblent s’accorder sur le fait qu’il n’existera peut-être dans l’avenir qu’une seule plate-forme. Cependant la question de la mise à jour des profils reste centrale si l’on souhaite être visible et faire ressortir un certain dynamisme.

98

On constate également l’émergence d’un espace intermédiaire et hétérogène sur la plate-forme Facebook où, au sein du même réseau, on intègre des amis, des membres de sa famille et des collègues ; ce qui peut être parfois problématique pour l’image que l’on peut donner de soi.

99

Les intervenants semblent d’accord sur le fait qu’il faut savoir gérer son « e-réputation » et mettre des frontières entre le personnel et le professionnel, entre la sphère privée et la sphère publique. Sur Internet, on fonctionne de plus en plus par la réputation. Par exemple, Ebay et Google fondent leur mode de fonctionnement sur la réputation qui devient synonyme de confiance – et cette notion de confiance reste essentielle sur les réseaux.

100

En effet, les différents réseaux sociaux cités donnent à l’individu la possibilité de se présenter sous une multitude de facettes : on ne se présente pas toujours dans le monde virtuel comme dans la vraie vie et sur un réseau professionnel comme sur un réseau personnel. L’enjeu resterait alors stratégique, à savoir maîtriser son image et prendre des risques avec l’image de soi ainsi que passer avec aisance d’une sphère à l’autre.

101

Aline Auffret

La chronique de Dominique Cotte. Information ou communication ?

102

Autrefois clairement distinctes, l’information et la communication sont de plus en plus marquées par des convergences et des recouvrements qui en brouillent les frontières.

103

Le terme de Brouillage est employé dans plusieurs travaux de recherche en sciences de l’information et de la communication pour désigner des phénomènes de perte de repères entre des catégories ou des objets dont la distinction était autrefois solidement établie et qui étaient étudiés de manière bien distincte. Dans l’étude des médias, par exemple, le journal écrit ou la télévision ne relevaient pas des mêmes sphères d’analyse.

104

Le phénomène numérique a ceci de particulier que, à travers les notions de « multimédia » et de « convergence numérique » (même si elles sont hautement critiquables), on met en relief des manifestations de mélange, de croisement, de rapprochement d’éléments qui, jusque là, étaient bien distincts. Que dire, en effet, lorsque les sites des chaînes de télévision délivrent du texte informatif et que les journaux en ligne truffent leurs articles de vidéos complémentaires au texte ? lorsque des chaînes de télévision utilisent Internet pour rediffuser leurs sujets à la carte ? lorsqu’un opérateur de télécommunications devient éditeur de contenus ? En évoluant de manière extrêmement rapide, les objets et les technologies brouillent un nombre croissant de distinctions jusque là parfaitement établies.

105

Ainsi, dans la tradition française, l’« information » et la « communication » relèvent de logiques différentes, parfois opposées. Chaque branche de la famille des « SIC » possède ses approches théoriques et méthodologiques, ses formations, ses auteurs, ses objets de prédilection, ses associations et sociétés savantes – la SFSIC, dont le seizième congrès a eu lieu à Compiègne en juin 2008, jouant un rôle fédérateur même si, finalement, on retrouve en son sein les mêmes clivages. Des évolutions (évoquées au cours de ce congrès) devraient néanmoins forcément se produire, au fur et à mesure que les phénomènes de brouillage évoqués se généraliseront sur le terrain.

106

La direction de la communication d’une grande marque utilise des outils de veille informatisée pour scruter la blogosphère et y instiller des messages favorables à son image : « info » ou « com » ? Pour équiper d’un moteur de recherche l’intranet de cette grande compagnie d’assurances, le comité de pilotage réunit le responsable de la documentation et celui de la communication interne : « com » ou « info » ? Ce responsable éditorial d’intranet doit arbitrer entre les différents services pour gérer leur positionnement en page d’accueil et veiller à la façon dont les écrits de ces différents services sont indexés au moyen de tags dans l’outil de gestion de contenu pour permettre une recherche efficace : « info » ou « com » ?

107

Tout n’est pas dans tout, et il serait absurde de nier les spécificités qui, au sein de la société ou dans les entreprises, définissent les différentes fonctions afférentes à la communication ou au traitement de l’information. Mais force est de constater que les brouillages ont ceci de bénéfique qu’ils invitent à la réflexion. Aux professionnels, aux formateurs, aux chercheurs de saisir l’occasion !

108

Dominique Cotte

SRU et SRW en quelques mots

109

Après le protocole de communication OpenUrl, nous présentons aujourd’hui SRW et SRU, deux protocoles de recherche qui utilisent un langage standardisé permettant à deux sources distribuées de dialoguer.

110

Dans un article paru dans le numéro précédent de cette revue (pages 12-13), nous parlions de l’OpenURL, la spécification technique qui permet d’étendre une recherche à d’autres ressources ou applications que celle utilisée au départ. Mais qu’en est-il de la question elle-même qui initie le processus ?

111

C’est ici qu’entrent en lice SRW (Search/Retrieve Web Service) et SRU (Search/Retrieve via URL Web Service) [1], deux protocoles également fondés sur les technologies de l’Internet et du Web. Ces deux protocoles sont des évolutions de la norme Z 3950 et sont comme lui maintenus par la Bibliothèque du Congrès. Ils proposent un langage formel permettant à deux sources distribuées de dialoguer entre elles.

Le contexte : architecture distribuée et web service

112

La nécessité technique de normaliser une recherche (SRU et SRW) ou de l’étendre (OpenURL) tient à la conception des systèmes documentaires actuels.

113

Une architecture correspond à la façon dont des ressources sont réparties et reliées entre elles. Dans les systèmes documentaires traditionnels, cette architecture était totalement centralisée. Avec une architecture client-serveur, par exemple, un seul logiciel ou application centralisant toutes les données et toutes les fonctions permettait de produire les notices, de les interroger, de gérer les prêts des utilisateurs, de consulter les documents numériques. Outre la nécessité de faire évoluer les applications, les ressources, pour pouvoir être interrogées, devaient toutes être traitées selon un même format de description.

114

Les technologies de l’Internet sont bâties sur une architecture informatique différente : l’architecture distribuée sans nœud central, reposant sur la possibilité d’utiliser des ressources (données ou applications) qui s’exécutent sur des machines réparties sur le réseau et qui communiquent par messages. Comme précédemment, le Client émet une demande et le Serveur y répond, mais sans nœud central, ce qui offre une plus grande souplesse pour construire son offre documentaire.

115

Le programme informatique lui-même permettant l’échange de données entre applications et systèmes hétérogènes dans des environnements distribués se nomme un service web. Ces programmes fonctionnent par et pour des applications (service de prêt, utilisation d’un thésaurus, etc.) ou des machines sans intervention humaine et en temps réel.

SRW et SRU, protocoles de recherche

116

SRU et SRW sont donc tous deux des protocoles de services web pour la recherche documentaire. La distinction entre les deux vient de la technologie utilisée pour encapsuler requête et réponse. SRU encapsule les éléments des échanges à l’intérieur d’une URL en utilisant l’architecture REST (Representational State Transfer) et le protocole HTTP, alors que SRW utilise le protocole SOAP (Simple Object Access Protocol). Celui-ci est utilisable avec d’autres protocoles qu’HTTP comme e-mail, telnet, etc. Il comporte ainsi moins de restrictions, en particulier sur la longueur ou les jeux de caractères.

Protocole de recherche et langage de requête

117

En abordant ces protocoles, il est nécessaire de faire la distinction entre protocole de recherche et langage de requête. Un protocole de recherche intègre une série de messages entre Agent et Service utilisés exclusivement par les machines. La requête qui contient la question n’est qu’un des éléments de ce protocole. Pour élaborer la requête, on utilise un langage de requête, le CQL (Context Query Language, ou langage de requête contextuel, anciennement Common Query Language), qui fournit la syntaxe de formulation selon des paramètres précis et des éléments de contexte.

SRU pour le dialogue entre systèmes

118

Le protocole de recherche SRU permet de transmettre une requête embarquée dans une URL (d’où son nom), à l’instar des moteurs de recherche. Requête et réponses véhiculées dans une URL, nécessairement en XML, sont envoyées sur le réseau. Sur le plan fonctionnel, SRU n’est pas différent de Z3950 : lancement d’une requête par le client, traduction en format standard, interprétation par le serveur, traduction dans une syntaxe qu’il peut comprendre, transmission au client et affichage dans les formats requis.

119

Mais, à la différence de Z3950, SRU ne propose que trois services de base :

  • Explain (Expliquer) permet à la Cible d’indiquer au Demandeur ce qu’elle lui permet de faire. La spécification n’impose pas que ce document Explain existe, mais le recommande fortement ;

  • Search/Retrieve (Rechercher/­Récupérer). Cette fonction gère l’envoi de la requête élaborée par le Demandeur à la Cible selon les préférences indiquées, puis la réponse. La syntaxe utilisée est conforme au langage CQL ;

  • Scan (Balayer) permet au Demandeur de consulter les termes proposés par une cible autour d’un terme spécifié dans les paramètres, ainsi que le nombre d’occurrences de chacun de ces termes. Scan est utilisé pour sélectionner des termes avant une recherche, ou pour vérifier visuellement les résultats d’une recherche.

CQL, pour la formulation de la requête et l’exploitation des résultats

120

Le langage de requête CQL utilisé avec SRU permet de formuler aussi bien des requêtes simples, dans des fonds non structurés avec un ou plusieurs mots, que des requêtes plus complexes sur des fonds structurés avec plus ou moins de métadonnées. Ce langage à la fois intuitif et très expressif permet l’utilisation des valeurs d’index ou de vocabulaires contrôlés récupérées par ce mécanisme. Une synthèse entre la richesse de Z3950 et la simplicité des technologies du Web. CQL intègre aussi des informations sur le contexte comme les préférences utilisateur : forme des réponses, ordre de tri, etc.

121

L’aspect intuitif de ce langage par rapport à Z3950 va rappeler d’étranges souvenirs aux spécialistes des serveurs professionnels : booléen, tri (sort), proximité (prox), diverses relations. Des jeux d’affichage ont été développés pour des contextes différents : Dublin Core, Musique, zThes, MARC, GILS, etc. Une feuille de style XSLT peut être ajoutée en sortie pour l’affichage, et SRU permet aussi de gérer des paramètres de données supplémentaires, par exemple pour proposer à l’utilisateur des requêtes additionnelles pertinentes si sa requête initiale ne donne pas de réponse, ou pour limiter sa requête dans le cas contraire.

SRU, une spécification normalisée

122

Le langage CQL enrichit considérablement SRU par rapport à OpenSearch [3], autre protocole de recherche via les URL, développé par A9, une branche d’Amazon, qui est proposé en common licence et utilisé très largement par des sociétés comme Microsoft ou Yahoo!. Cette expressivité, associée à une diffusion par les URL, intéresse une communauté plus large.

Recherche sujet effectuée sur The European Library en utilisant le protocole SRU
123

C’est ainsi qu’un comité technique appelé « OASIS Search Web Services Technical Committee » a été constitué fin 2007 au sein d’OASIS [4a], consortium en charge d’un ensemble de protocoles et schémas de métadonnées qui s’imposent comme des normes dans le monde de l’Internet et du Web. En quelques mois, ce groupe a établi deux avant-projets de documents publiés le 30 juin 2008, l’un sur un protocole de recherche [4b], l’autre sur le langage de recherche [4c]. Ces spécifications intègrent plus complètement les caractéristiques du protocole REST et ont été enrichies d’autres fonctionnalités, comme celles implantées dans OpenSearch : le support d’ATOM pour la diffusion.

124

Le site officiel SRU [1] répertorie des outils pour la plupart en libre accès, et des applications. Mentionnons également The European Library [5] qui exploite le protocole SRU pour interroger simultanément les collections de trente-deux bibliothèques nationales d’Europe [voir la figure ci-dessus].

125

Avec un protocole et un langage de recherche standardisés et riches, le principe même de la recherche fédérée ou des métamoteurs va se trouver grandement facilité.

126

Sylvie Dalbin

127

Odile Giraud


Références

Notes

[1]

Voir, sur ce point, le support de présentation de Françoise Bourdon.

[2]

La précédente journée s’était tenue en 2006 sur le thème de l’évaluation : « Organiser, gérer, évaluer son activité ». www. bnf. fr/ pages/ infopro/ journeespro/ no-Afnor2006. htm

[3]

Sur ce point, une aide précieuse nous est venue de Catherine Dhérent qui suit de près les réalisations en cours en tant que présidente du Comité technique ISO (TC 46), « Information et Documentation » miroir international de la CG 46. www. iso. org/ iso/ fr/ iso_technical_committee. html? commid= 48750

[4]

Voir, par exemple, la présentation de la librairie Decitre, celle de la Direction générale de la modernisation de l’État et celle d’Anila Angjeli pour les bibliothèques.

[5]

Voir la présentation d’Antoine Isaac.

[6]

Voir la présentation de Sylvie Dalbin.

[7]

Voir la présentation de la Confédération internationale des sociétés d’auteurs et compositeurs.

[9]

Consultant associé au cabinet de conseil DoXulting.

[10]

Directeur général de l’Agence française informatique (AFI), éditeur de logiciels destinés aux collectivités territoriales qui propose depuis deux ans un opac web 2.0 sous licence libre, et projette de « libérer » son logiciel de bibliothéconomie Pergame.

[11]

PDG de Lingway, société éditrice de solutions d’analyse sémantique et d’extraction et catégorisation automatiques.

[12]

Business development manager chez Sollan, spécialiste de l’intégration de solutions documentaires.

[13]

Responsable du PANDOC (Pôle d’appui national documentaire du ministère de l’Écologie, de l’Énergie, du Développement durable et de l’Aménagement du Territoire) et maître d’œuvre de Notix, plate-forme de gestion de notices et de documents attachés sous licence GPL.

[14]

Consultante Internet, FLA Consultants.

[15]

Consultante, cabinet Inforizon.

[16]

Directeur associé d’Acetic, société spécialisée dans l’analyse sémantique.

[17]

Consultant, expert veille Internet, société Digimind.

[18]

Senior manager, Atos Origin.

[19]

John Donne, Devotionsupon Emergent Occasions, Méditation 17,1624.

[20]

Michel Serres, Le Malpropre: polluer pour s’approprier? Le Pommier, 2008.

Plan de l'article

  1. Référentiels, données d’autorité, thésaurus, ontologies, taxonomies... Pour en savoir plus !
    1. Comment passe-t-on des travaux de l’Afnor au web sémantique ? Quel a été le cheminement intellectuel suivi pour monter cette journée ?
    2. Les référentiels, à présent, sont partout…
    3. C’est sans doute sur ce point que l’interopérabilité entre référentiels prend tout son sens ?
    4. L’interopérabilité ne favorise-t-elle pas aussi les convergences professionnelles ?
  2. Dix bonnes raisons de choisir un opac de nouvelle génération
    1. 1 - L’usager préfère la souris
    2. 2 - Le silence est source d’angoisse
    3. 3 - Travailler dans le bruit, ce n’est pas gênant
    4. 4 - Des illustrations pour zapper la lecture de longues notices
    5. 5 - « Je ne vais quand même pas feuilleter dix pages écran de notices ! »
    6. 6 - Les concepts bibliothéconomiques sont barbants
    7. 7 - Tout doit être simple
    8. 8 - « Vous voulez savoir ce que j’en pense ? »
    9. 9 - « Qu’est-ce qu’il y a de bien dans les nouveautés ? »
    10. 10 - « Que lisent mes voisins ? »
  3. Usages concurrents et complémentaires des logiciels libres et des logiciels propriétaires
    1. Identifier les coûts et les risques spécifiques aux projets libres
    2. Une opportunité de croissance et de notoriété pour les éditeurs
    3. L’argument du coût ne doit pas être au cœur du choix
  4. Quoi de neuf sur les moteurs de recherche ?
    1. Recherche collaborative
    2. L’apport du web sémantique
    3. Les moteurs de recherche verticaux
    4. Le moteur de recherche comme élément de l’infrastructure des SI
  5. La veille : pratiques décalées, pratiques d’avenir
    1. Mobilité intellectuelle
    2. Mobilité spatiale
    3. Mobilité des compétences et des comportements
    4. Une dynamique d’échanges et de changement
  6. Réseaux personnels, réseaux professionnels : apports et complémentarité
    1. Les réseaux dans quels espaces ? Pour quels usages ?
    2. Les réseaux : des territoires à investir
    3. Les réseaux sociaux personnels : des outils pour recruter
    4. Réseau virtuel ou classique ?
    5. Des vecteurs de lien social
    6. Apprendre à « gérer » sa réputation numérique
  7. La chronique de Dominique Cotte. Information ou communication ?
  8. SRU et SRW en quelques mots
    1. Le contexte : architecture distribuée et web service
    2. SRW et SRU, protocoles de recherche
    3. Protocole de recherche et langage de requête
    4. SRU pour le dialogue entre systèmes
    5. CQL, pour la formulation de la requête et l’exploitation des résultats
    6. SRU, une spécification normalisée

Pour citer cet article

Amar Muriel, Maisonneuve Marc, Scopsi Claire, Boulier Serge, Dupin Corinne, Rey Charles-Henry, Auffret Aline, Cotte Dominique, Dalbin Sylvie, Giraud Odile, « Méthodes, techniques et outils », Documentaliste-Sciences de l'Information, 3/2008 (Vol. 45), p. 14-27.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2008-3-page-14.htm
DOI : 10.3917/docsi.453.0014


Article précédent Pages 14 - 27 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback