Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2008/4 (Vol. 45)

  • Pages : 78
  • DOI : 10.3917/docsi.454.0046
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 46 - 57 Article suivant

Les outils du veilleur sachant veiller

1

Décryptage. Collecte, traitement, analyse, diffusion et partage : à toutes les étapes de la veille, différents outils aident le professionnel à remplir ses missions. Armelle Thomas et Philippe Bonny nous guident dans l’abondance de l’offre et mettent en lumière les différentes tendances d’aujourd’hui.

2

En assistant l’acquisition d’information, son exploitation et sa diffusion, les outils logiciels apportent une aide essentielle, voire incontournable, aux organisations qui veulent mettre en place un dispositif de veille performant. Ils interviennent schématiquement sur deux modes clés, en permettant d’une part d’automatiser des processus liés à des tâches répétitives, et d’autre part de faciliter la manipulation et l’analyse humaines des données via des interfaces appropriées.

Un marché plus mature, de grandes disparités

3

Certes, la veille est aussi et peut-être même plus affaire d’intelligence humaine en réseau que d’outillage, aussi sophistiqué soit-il, et on reste encore loin aujourd’hui de l’utopique « bouton magique » générant en temps réel les informations les plus pertinentes (l’idéal apparaissant même de se passer de bouton, la « bonne information » irriguant en permanence les usagers d’un système entièrement automatisé). Néanmoins, les outils de veille ont acquis ces dernières années une maturité nouvelle grâce aux efforts en R&D sur les technologies associées : technologies informatiques et documentaires, mathématiques et statistiques, linguistiques et sémantiques, intelligence artificielle et réseaux de neurones, schématisation et cartographie, sans oublier les nouvelles approches liées au web 2.0.

4

Nous avons choisi de dresser un panorama général des outils de veille en fonction des grandes étapes du processus couvert : collecte et traitement, analyse, partage et diffusion.

Collecte et traitement : les étapes les mieux couvertes par les outils

5

Le premier champ de fonctionnalités des outils pour la veille concerne la collecte et le traitement de l’information. Ayant défini ses axes de veille, le veilleur construit une stratégie de surveillance ad hoc (sélection de sources pertinentes et élaboration des équations de recherche) ; il utilise alors des outils qui permettent de réaliser ces tâches.

6

Les outils ou modules de collecte visent à récupérer du contenu selon un sujet ou thème de recherche (par exemple, une société, un marché, une technologie, etc.). Ils peuvent « travailler » sur différents types de flux :

  • bases de données (presse, publications, brevets, appels d’offres, etc.) : ces bases peuvent être d’accès gratuit ou payant, elles peuvent avoir ou non une interface web ;

  • moteurs/métamoteurs de recherche sur Internet ;

  • sites web (ou parties de sites, ou pages web spécifiques), forums de discussion ;

  • listes de diffusion et newsletters électroniques ;

  • flux RSS.

Les bases de données et les moteurs sont interrogés avec les équations de recherche définies, les pages web sont aspirées et comparées à une version de base, en utilisant souvent des filtres par mots clés. Quant aux flux RSS, ils sont directement agrégés. Les agents peuvent être programmés pour effectuer régulièrement cette collecte de manière à exercer une surveillance ou veille effective du sujet, et à envoyer si nécessaire des alertes à échéances régulières.

7

Notons que de nombreux outils ou modules de collecte s’accompagnent d’une composante dite « de traitement de l’information ». Celle-ci peut être, par exemple, le calcul d’un indicateur de pertinence, le dédoublonnage, la génération de résumés ou d’extraits pertinents.

Retour aux sources… fiables

8

L’avènement d’Internet a profondément modifié le rapport à l’information et donc le travail des veilleurs. Un premier effet a été une volonté d’exploration la plus large possible de cette nouvelle source en mettant au second plan les aspects de fiabilité des émetteurs de contenu.

9

On a vu ainsi fleurir des outils métamoteurs ou crawleurs qui visaient à ramener le contenu « exhaustif » d’information sur un sujet donné en explorant simultanément les index de plusieurs moteurs, pour les premiers, ou en explorant des sites de lien en lien à partir d’un jeu de sites donnés.

10

Plus récemment, l’explosion de l’information et l’évolution des moteurs de recherche standards (par exemple, Google) ont parallèlement rendu contre-productives ces approches au profit de nouvelles visant plutôt à réduire le volume et à augmenter la qualité. Le choix et la sélection des sources sont redevenus des critères majeurs dans les démarches.

11

Les outils qui vont dans ce sens sont, par exemple, les lecteurs de flux RSS sur des sites qualifiés, les services de veille en ligne offerts par les grands agrégateurs de sources (Factiva, LexisNexis ou Thomson : en pay per view ou en abonnement), ou bien encore les connecteurs à ces mêmes source offerts par les grandes plates-formes de veille. On notera aussi pour ces dernières la présence de fonctionnalités permettant de gérer des sources internes (intranet)… autre source clé pour la veille, souvent négligée.

12

Si cette tendance de retour aux sources fiables classiques s’observe bien dans les organisations de veille, il reste à mentionner l’utilisation de sources plus informelles, telles les blogs ou les forums de discussion, qui peuvent s’avérer très précieuses notamment pour les veilles marketing produit, gestion d’image ou détection de désinformation.

Les solutions techniques

En fonction des besoins, on devra choisir en premier lieu entre :

  • des applications monopostes, où l’usager réalise ses réglages des paramètres de veille, sans possibilité de partage avec d’autres utilisateurs. Elles sont généralement assez bon marché, voire gratuites pour certaines ;

  • des applications client-serveur, qui permettent de travailler en réseau et de bénéficier d’applicatifs et de résultats partagés, avec aujourd’hui tous les avantages du web (client « riche »). Ces plates-formes peuvent être quant à elles très coûteuses ; l’entreprise doit acquérir des licences d’utilisation.

    Ensuite, selon les capacités des SI et la politique de l’entreprise, on choisira :

  • l’implémentation des applications dans l’entreprise : sur le poste des utilisateurs (monoposte) ou sur un serveur de l’entreprise (client-serveur) qui s’insère dans les systèmes d’information existants ;

  • l’hébergement des applications à l’extérieur de l’entreprise, qu’elles soient monopostes (par exemple, des services de veille en ligne mono-utilisateurs) ou en mode serveur sur des plates-formes dédiées accessibles à distance, formule de plus en plus proposée par les grands éditeurs de solution de veille, sous forme d’abonnement.

Multiplicité de petits outils ou services souvent gratuits

13

L’autre effet lié à l’avènement de l’Internet a été la « démocratisation » de la veille au profit des non-professionnels. L’information « à portée de clic » dans les entreprises a généré des besoins plus larges d’exploitation de cette manne informationnelle. C’est l’origine d’une pléthore d’outils simples, souvent gratuits et permettant d’automatiser la surveillance.

14

Deux acteurs emblématiques ont été, par exemple, Copernic pour la collecte à partir de moteurs prédéfinis, ou le défunt C4U pour la surveillance de pages web (des utilitaires comme Webmon existent toujours).

15

Google, avec son service d’alertes très utilisé qui génère gratuitement une surveillance en un clic, est la tendance ultime de ce mouvement. Attention cependant à la qualité des requêtes et à la largeur ainsi qu’à la fiabilité des sources associées.

16

Les technologies de fils RSS, en fort déploiement sur internet, participent elles-aussi largement à cette démocratisation. Ces outils permettent d’effectuer gratuitement une surveillance automatique de contenu sur des sites ciblés, avec en prime le rapatriement de métadonnées rares sur l’Internet telles que la date de publication et/ou le nom de l’auteur, etc.

17

Enfin, il est intéressant de mentionner ici les outils WebSite-Watcher et KB Crawl pour la surveillance de pages et de sites Internet. Le premier propose une version business à 99 euros (monoposte). Quant à KB Crawl (de la société du même nom), il occupe une position intermédiaire entre les « petits outils » et les grandes plates-formes, en offrant une solution relativement complète pour quelques milliers d’euros (voir page 55).

Des solutions avancées tout terrain (multi-utilisateurs, multisources, multilingues)

18

A l’opposé, l’explosion de l’information et la mondialisation ont poussé les éditeurs à développer des plates-formes puissantes de veille à destination des grands comptes. En France, on distingue par exemple les éditeurs suivants : Arisem (qui appartient aujourd’hui à Thales), Digimind, AMI Software, Autonomy, ou encore la plate-forme d’Iscope. Les licences sont élevées, compter plusieurs dizaines de milliers d’euros au minimum, plus les frais de consulting pour l’intégration dans les systèmes de l’entreprise.

19

Les fonctionnalités de gestion multisources permettent de collecter simultanément des informations en provenance de sources différentes (Internet, bases de publications, intranet, etc.).

20

L’environnement des entreprises s’est mondialisé et l’optimisation des capteurs passe souvent par la surveillance de sources en plusieurs langues. Les plates-formes multilingues peuvent (avec plus ou moins de bonheur) gérer plusieurs langues simultanément (européennes, arabes, asiatiques, etc.). Ainsi, il est par exemple possible de paramétrer un sujet de veille dans une langue et de ramener des documents dans une autre langue.

21

Enfin, la gestion multi-utilisateurs permet de mutualiser des ressources (des connecteurs, des bookmarks, des profils de veille), de gérer des cellules de veille ou groupes de projets veille distincts, de constituer des portails de veille destinés à des populations données, et enfin de développer en mode collaboratif l’analyse du flux courant d’information.

Aide à l’analyse : la quête du Graal

22

Le deuxième champ de fonctionnalités concerne l’analyse. Plus récents dans le domaine, ces outils ou modules dédiés apportent, par une analyse automatique du contenu informationnel rapporté et traité, des éléments d’aide à l’analyse pour le veilleur.

23

Ils offrent à la fois :

  • un gain de temps, en proposant des pistes de lecture transversale selon des thèmes extraits automatiquement (ou recherchés par l’utilisateur) et ce quel que soit le volume à traiter ;

  • un gain en intelligence en mettant en évidence des tendances de discours ou des liens entre des documents, et ce sur de très larges corpus, en permettant d’aider à l’identification, certes délicate, des fameux « signaux faibles », ces indicateurs fragmentaires précurseurs de l’évolution d’une situation.

Ces éléments peuvent être simplement des composantes de sens (« entités nommées ») automatiquement extraites, telles que des noms de sociétés ou de personnes, des lieux, des dates, ou bien encore des thématiques récurrentes ou plus émergentes dans les textes.

24

Les outils proposent aussi de « typer » les relations entre ces éléments (par exemple, telle société a acquis telle autre) ou bien encore de décrire les grandes masses des relations entre ces éléments ou clusters. Enfin, ils proposent de représenter visuellement telle ou telle caractéristique d’un corpus : réseaux sociaux, par exemple, projection géographique ou temporelle, etc.

Des fournisseurs de contenu qui aident à l’analyse

25

Au départ réservées aux seuls grands comptes via des plates-formes avancées, (parmi les éditeurs français, citons par exemple Temis ou Lingway), ces technologies d’analyse sont aujourd’hui accessibles (certes partiellement) à davantage de veilleurs, via les grands serveurs de bases de données comme les sociétés déjà mentionnées Factiva, LexisNexis ou Thomson.

26

Par exemple, dans la nouvelle version 2.0 du moteur de Factiva, on dispose d’une série d’éléments extraits (noms de sociétés cités, thématiques, etc.) statistiquement classés. LexisNexis, qui a acquis fin 2006 un des fleurons du text mining français, la société Datops, développe de nouveaux services d’analyse automatique de ses sources qu’il destine à des types de clients cibles.

Le couplage des données structurées et non structurées

27

L’analyse ne se limite plus aux données structurées d’un côté (par exemple, les champs auteur dans les brevets) et aux données non structurées de l’autre (par exemple, le texte intégral du brevet). Une tendance assez franche s’observe aujourd’hui qui consiste à croiser ces éléments, et particulièrement pour la veille clients.

28

Des éditeurs de solutions de business intelligence tels SPSS croisent pour les mêmes clients des comportements d’achat (enregistrés classiquement dans des bases de données structurées : nombre, typologie des achats, etc.) avec des données non structurées issues de centres d’appels. L’analyse combinée de ces données permet d’établir assez finement des profils à risque de perte ou de non-loyauté des clients.

29

Dans un autre registre, un outil comme Intellixir permet de croiser des analyses statistiques sur les champs structurés des bases de publications ou de brevets avec des analyses des résumés des articles, et d’étudier l’évolution d’un domaine dans le temps (comparaisons et corrélations).

Visualiser l’analyse ?

30

Un ensemble d’outils graphiques d’analyse ont été lancés pour visualiser des grandes masses d’information, tels Kvisu (Kartoo), ARAK (Pikko), Analyst Note Book (I2), etc. On retiendra aussi les modules de représentation en graphes de co-occurrences ou sous forme de clusters offerts par les logiciels de text mining ; voir, par exemple, l’éditeur Temis, Tropes ou encore Wordmapper.

Langage naturel, text mining et outils de veille

La veille est un processus qui, faut-il le rappeler ? s’appuie essentiellement sur de l’information : que celle-ci soit formelle, informelle, interne ou externe à l’entreprise, qu’elle soit multimédia ou bien uniquement textuelle, c’est bien le sens de cette information qui est attendu par les acteurs à des fins d’action dans leur business. Cette confrontation entre l’input informationnel et la finalité de veille renvoie directement à la question de l’analyse automatisée et donc à la compréhension du langage naturel (textes, image et sons) par les outils.

Contrairement à ce que l’on pourrait imaginer, de nombreux outils de veille semblent actuellement faire l’impasse partielle ou complète sur cette question. On peut s’interroger sur les raisons de ce manque dans la réalité industrielle actuelle et sur les tendances observables sur les étapes de collecte, traitement et analyse du processus de veille.

La collecte : une disparition du besoin de filtre fort

La collecte est le processus qui a sans doute le plus changé ces dernières années. Après une phase ou les sources étaient difficiles d’accès et donc fortement choisies, Internet est venu inonder le marché et a obligé les éditeurs à ajouter de puissants filtres sémantiques dans l’extraction d’information afin de réduire le bruit. Puis, depuis un ou deux ans, on constate à nouveau une « préférence » pour un choix en amont de sources validées, ce qui a conduit les outils à plutôt privilégier une approche par le choix des sources (les exemples les plus parlants sont ceux de Digimind sur le web et de Factiva sur les bases) plutôt que par un filtrage du contenu.

Gageons en revanche que cette « doxa » des sources en vigueur aujourd’hui va être mise à mal par leur multiplication et leur profusion, ce qui conduira à nouveau à un besoin de filtrage « méta » des sources par leur contenu.

Le traitement : la fulgurance du moteur de recherche

Aujourd’hui, la formidable capacité des moteurs de recherche en terme de volume a balayé l’approche en amont du traitement linguistique de l’information dans les systèmes. Et c’est le moteur qui intègre plus ou moins finement des traitements d’analyse de la langue qui ne sont pas visibles par l’utilisateur final : lemmatisation (rechercher avec ou sans ‘s’ est identique), synonymies et corrections des fautes d’orthographe sont monnaie courante.

Notons qu’on a bien une évolution vers une approche linguistique mais à coût zéro.

L’analyse : passer un cap fonctionnel

C’est dans l’analyse que toutes les capacités de compréhension de la langue promettent de nouveaux apports fonctionnels et d’usage. En extrayant des documents les « entités nommées » (nom de personnes, lieux, événements, etc.), l’analyse linguistique ou text mining hisse l’information au niveau attendu par le décideur. Avec une prise en compte du temps comme variable centrale, et en utilisant les techniques et les usages de la business intelligence (agglomérats de données, graphes visuels, projection sur des axes, etc.), le text mining permetune autre approche de la veille, en la rendant à la fois automatisée et quantifiable.

On le constate aujourd’hui dans les outils de veille qui vont de plus en plus vers de véritables tableaux de bord (AMI Software ou Digimind).

Toujours plus de sens

Alors qu’on pourrait croire les technologies sémantiques ou de text-mining endormies, elles sont au contraire plus que jamais à l’œuvre au sein des systèmes de veilles. C’est leur visibilité qui a changé. Naguère en frontal de l’application, elles sont désormais au service de fonctions beaucoup plus « end user » sous des formes de représentations visuelles et chiffrées. C’est une étape. La prochaine va sans doute voir l’interaction entre la machine et l’utilisateur, augmentée dans une dimension de dialogue qui reste à construire.

Alain Garnier a fondé Arisem en 1996, revendu en 2004 au groupe Thalès. En 2005, il a créé Evalimage et est aussi directeur associé du cabinet Inévidence, avec Philippe Bonny.

aalain. garnier@ jamespot.com

31

Un autre courant d’outils qui peuvent être utilisés par les veilleurs dans leurs séances d’analyse sont les outils de cartes mentales tels MindMapper ou MindManager. Ces outils permettent une structuration progressive et visuelle de l’analyse et assurent une connexion simple et facteur de productivité avec les outils de bureautique classique (documents téléchargés, tâches, réunion, etc.).

Diffusion et partage : des outils incontournables, mais moins spécifiques

32

Le dernier champ de fonctionnalités concerne la diffusion, le partage et la capitalisation des informations clés. Couvrant un spectre aussi large qu’hétérogène, ces outils ou modules dédiés vont permettre, en pull ou en push, d’irriguer l’entreprise avec les produits de la veille, qu’ils soient bruts (alertes issues d’un agent de collecte, par exemple) ou à valeur ajoutée (confrontation/présentation des informations, synthèse, analyse). Ils vont aussi, via un système de bases de données, permettre aux veilleurs de confronter leurs données et leurs interprétations des informations, et de réagir aux commentaires de leurs collègues.

33

Ces outils, qui utilisent largement des technologies non spécifiques à la veille, s’inscrivent donc dans les incontournables de cette démarche.

La bonne information, à la bonne personne, au bon moment…

34

Si la diffusion des informations en temps quasi réel aux personnes concernées est un des aspects clés de tout système de veille, la mise en œuvre optimale de cette transmission est loin d’être évidente, vu la fréquente surcharge informationnelle des clients potentiels.

35

• L’indispensable push

36

Diffuser l’information directement aux usagers n’a rien de nouveau, les grands serveurs de bases de données pratiquant depuis fort longtemps (et bien avant le web) la DSI ou diffusion sélective d’information à partir des équations de recherche mises sous surveillance.

37

Deux techniques de diffusion cohabitent actuellement, les très traditionnels courriels et les déjà classiques flux RSS. Les envois peuvent être déclenchés soit par l’usager en direct ou via la cellule de veille (création de profils, définition de filtres, etc.), soit par la direction (critère métier, communauté, etc.).

38

L’outil le plus utilisé reste la messagerie électronique ; par sa simplicité et son omniprésence dans la vie professionnelle, cette technologie conserve la préférence des utilisateurs, qui peuvent facilement paramétrer la réception de leurs messages de veille.

39

Quant aux flux RSS, ils se sont rapidement installés dans le paysage, grâce à des lecteurs souvent gratuits et performants, qu’ils soient en ligne ou monopostes (comme Bloglines et Feedreader). Les outils de collecte vus plus haut intègrent aussi pour la plupart un module RSS. Pour les inconditionnels du mail, la plupart des éditeurs de messagerie électronique intègrent de plus en plus les flux RSS.

40

• Le non moins indispensable pull

41

Diffuser l’information de veille, c’est aussi la rendre disponible via un système d’information, qu’il s’agisse d’une simple base Access, d’un intranet, d’une base de connaissances dédiée ou du module spécifique d’une plate-forme de veille. L’envoi d’alertes ou de documents par courriel n’empêche bien entendu pas la mise à jour en temps réel du système d’information veille ; rappelons toutefois que la veille travaille avant tout sur des flux et de l’information sélectionnée, et qu’il ne s’agit donc pas de transformer le système de veille en applicatif documentaire !

Trois conseils pour bien choisir ses outils

L’étape du choix des outils est souvent difficile dans les entreprises. D’un côté, la difficulté de se repérer dans le foisonnement des offres et de l’autre le risque de non-appropriation des outils par les veilleurs et autres bénéficiaires potentiels en interne.

1. Partir du besoin, de ses « clients » et… de la culture de son entreprise. Le recueil des attentes à satisfaire et sa traduction en fonctionnalités attendues est une étape clé qui passe par un travail approfondi en interne : une démarche projet classique et pragmatique qui doit aboutir à un cahier des charges.

2. Faire preuve de discernement (ne pas consulter trop d’éditeurs…), consulter ses pairs (benchmarking d’autres entreprises) et tester la (ou les deux) solution(s) arrivant en tête de la consultation : pour un projet lourd, prévoir la mise en œuvre d’un « pilote » sur un périmètre limité dans un délai défini.

3. Effectuer sereinement le choix final en intégrant les futurs utilisateurs le plus tôt possible dans le processus.

42

Dans cette optique, le principe le plus performant consiste à prévoir un « portail personnalisé » par veilleur : celui-ci dispose alors en permanence d’un tableau de bord à base d’onglets, où il peut visualiser et gérer ses alertes et nouvelles informations. Notons que les technologies liées au web 2 ont révolutionné ces pages personnalisées (on connaît, par exemple, le succès en France du service Netvibes).

Des outils de partage aux outils collaboratifs

43

La veille sera d’autant plus productive qu’elle bénéficiera de « l’effet réseau », et qu’elle traitera parallèlement du formel et de l’informel : C’est en confrontant les informations collectées par un outil ou module ad hoc, avec les informations rapportées par un capteur humain, que l’on gagnera en pertinence ; c’est en favorisant les commentaires sur les nouveaux apports que l’on enrichira vraiment le système.

44

Ce postulat implique de lier le processus de collecte, voire de traitement, avec le processus de capitalisation humain. Les plates-formes comme, par exemple, celles de Digiming ou de AMI Sofware facilitent le travail en intégrant au système d’information un module d’acquisition : le veilleur peut très simplement « rentrer une information » (souvent informelle), en justifiant de son intérêt et en l’indexant directement selon les champs disponibles et souhaitables (axes de veille concernés, source, appréciation de la fiabilité, tags, etc.). Il peut tout aussi simplement commenter les informations de ses collègues, et ainsi interagir parfaitement avec le système pour plus de valeur ajoutée.

45

Mais les nouvelles applications web collaboratives en pleine explosion (le collaboratif 2.0, par exemple les wikis) permettent aux organisations de partager à peu de frais et de manière efficace les informations de veille. À l’autre bout de la chaîne, on trouve ainsi le blog, qui voit dans la veille l’un de ses nombreux développements !

46

Reste à réfléchir à l’intelligence globale du système, pour le rendre le plus homogène possible et ne pas multiplier les outils différents. •

Focus. Comment bien utiliser agrégateurs de flux RSS et agents de surveillance ?

47

Méthode. Agents de surveillance et agrégateurs de flux RSS font partie de la « panoplie de base » du veilleur bien outillé… Christophe Deschamps nous livre quelques conseils pour exploiter au mieux ces deux techniques complémentaires.

48

DEUX SOLUTIONS COMPLEMENTAIRES. Il y a peu, la veille Internet était encore presque entièrement dévolue à des solutions (logiciels et services en ligne) permettant de surveiller des pages web, qui vous alertaient, par un courriel ou un signal visuel sur votre bureau, lorsque l’une d’elles venait à changer.

49

À ces solutions vient maintenant s’ajouter un autre moyen, plus « élégant », de surveiller le web : les flux RSS. Impressionnant dans les possibilités de mixage et de filtrage de l’information qu’il offre, le RSS est toutefois insuffisant lorsqu’il s’agit de mener une veille à 360 degrés. Il ne permet en effet que de surveiller ce qui est « autorisé » par l’auteur du flux d’informations diffusé. Or, lorsque l’on mène une veille avancée sur un concurrent, on aura besoin de « faire feu de tout bois ». Tout ce qui change sur son site web aura de l’intérêt et sera susceptible d’être interprété : charte graphique, plan du site, ajout de vidéos, de photos, etc. Autant de signaux faibles qui, agrégés à d’autres, peuvent aider à mieux comprendre la stratégie d’un concurrent.

50

QUELLES SOLUTIONS POUR QUELS USAGES ? Il faut donc se résoudre à utiliser en parallèle les deux solutions :

  • les agrégateurs de flux RSS que l’on réservera au traitement et au filtrage de gros volumes de données de type news et billets de blogs ;

  • les agents de surveillance qui permettront de se focaliser sur tel ou tel site web de concurrents, fournisseurs, etc.

Une fois encore, le choix des bons outils dépendra des objectifs que vous vous êtes fixés. Le schéma ci-contre a pour but de vous aider à faire ces choix.

51

Que l’on ait besoin d’un agrégateur de flux RSS ou d’un agent de surveillance, on voit qu’il y a toujours un second choix à effectuer entre un logiciel à installer sur son poste ou sur un serveur et un service en ligne accessible après identification. Le tableau ci-dessous indique les avantages et les inconvénients de chaque solution.

52

Il faut insister sur l’importance du stockage des pages modifiées sur un serveur local, car c’est à partir de l’historique qu’elles créent que l’on sera en mesure de discerner, par exemple, d’éventuels changements de stratégie. Par ailleurs, il rendra possible la réalisation d’opérations de traitement automatique du langage sur le corpus constitué (catégorisation, émergence de thématiques, détection de tendances, etc.). •

Logiciel ou serveur : comparatif
Choisir un type d’outil en fonction de son objectif
Mise en place d’une surveillance : mode d’emploi

Deux agents très spéciaux

53

Tour d’horizon. Eux, ce sont les « agents de surveillance » ou « agents d’alerte ». Leurs missions : radiographier le web et alerter le veilleur au moindre « signal faible »… Christophe Deschamps nous explique leurs valeurs ajoutées avant de donner la parole à Marina Cherbonnier et Mathieu Cottave, deux utilisateurs d’agents parmi les plus répandus en France, KB Crawl et WebSite-Watcher.

54

Veiller c’est d’abord surveiller. Surveiller ce qui est nouveau, ce qui change, ce qui émerge et peut être interprété comme un « signal faible » à valider ou infirmer par des hypothèses qui déclencheront elles-mêmes de nouvelles mises sous surveillance : le fameux cycle du renseignement.

55

Pour cela il existe des outils spécifiques que l’on appelle agents de surveillance ou agents d’alerte : des sortes d’appareils photos évolués qui prendraient chaque jour le cliché d’une page web donnée, le compareraient à celui pris la veille et vous alerteraient en cas de changements.

56

Du plugin gratuit à intégrer à votre navigateur à la solution à quelques milliers d’euros en passant par le service en ligne à 60 euros par an, les agents d’alertes sont nombreux et offrent des fonctionnalités forcément très différentes. Toutefois, ils permettent tous de surveiller des pages web statiques, les résultats d’équations de recherche dans des bases de données publiques, et les résultats de requêtes dans des moteurs de recherche.

57

La différence se fait ensuite à plusieurs niveaux dont voici les plus significatifs : fréquence de la surveillance des pages (tous les jours, heures, minutes, etc.) ; possibilité de filtrer les pages modifiées en fonction de mots clés ou requêtes spécifiques (réduction du « bruit ») ; surveillance de pages nécessitant une identification par login et mot de passe ; reporting.

58

Les deux témoignages qui suivent concernent deux outils de surveillance bien utilisés en France, dans deux gammes de prix différentes : KB Crawl, solution à quelques milliers d’euros (selon les modules optionnels choisis), et WebSite-Watcher, logiciel monoposte à 99 euros (version business).

59

Si, comme nous le confirme le témoignage de Marina Cherbonnier, les agents d’alerte sont l’apanage des veilleurs et documentalistes, on remarque qu’il commencent à être utilisés dans d’autres secteurs des entreprises. Ainsi, Mathieu Cottave nous explique comment il les a intégrés à ses activités de responsable des études marketing.

60

Nul doute d’ailleurs que cette banalisation de la mise sous surveillance du web ira croissant, notamment grâce aux flux RSS que les générations montantes utilisent pour suivre l’actualité, une pratique qu’ils importent dans les organisations qui les embauchent. De fait, il est souhaitable qu’à terme chaque travailleur du savoir soit capable de surveiller ce qui l’intéresse au quotidien. Cela déchargera les veilleurs d’une tâche souvent pénible et peu gratifiante et leur permettra de se concentrer sur ce qui doit constituer leur cœur de compétence : l’analyse de l’information stratégique, qu’elle soit interne ou externe, issue de sources numériques ou de sources humaines, à des fins décisionnelles. •

Deux outils en vedette : KB Crawl et WebSite-Watcher

KB Crawl

Logiciel de veille sur Internet, KB Crawl est développé depuis 2002 par l’éditeur français KB Crawl SAS (18 personnes). Il est installé sur 500 sites en France et à l’étranger, notamment au Maroc, au Canada, en Suisse et en Belgique. En 2008, la société poursuit son développement international avec l’ouverture d’un bureau à Londres. Deux produits principaux sont pro­pppppppppPposés : KB Crawl Suite, logiciel de veille monoposte et ses modules, et KB Platform, plate-forme de veille sur Internet. www. kbcrawl. fr

WebSite-Watcher

Agent de surveillance d’information sur Internet (logiciel monoposte), WebSite-Watcher est créé par l’Autrichien Martin Aignesberger en 2000. Début 2008, la société Aignesberger Software GmbH a vu le jour, ce qui annonce un développement plus commercial. Il s’est bien implanté en Europe, notamment en France, ces dernières années (chiffres précis non disponibles). http:// aignes. com

KB Crawl : un bon rapport qualité-prix, et une grande variété de paramétrages

61

Témoignage. Marina Cherbonnier, responsable d’un dispositif de veille au CTA (Centre technique de coopération agricole et rurale) aux Pays-Bas

62

Le CTA fournit notamment des produits et services d’information (publications, formations, etc.) pour le développement agricole et rural dans les pays d’Afrique, Caraïbes et Pacifique. Dans le cadre d’une réflexion sur les pratiques informationnelles au CTA pour assurer la valeur ajoutée de ses activités, j’ai été chargée de la mise en place d’un dispositif de veille.

63

Après étude de marché des logiciels de veille et différents tests opérationnels, notre choix s’est porté sur KB Crawl. Situé entre les outils d’entrée de gamme et les plateformes de veille, il apparaît d’un bon rapport qualité prix, et j’ai été intéressée par la variété des paramétrages possibles. Retenons les systèmes permettant la détection immédiate de l’information nouvelle sur la page, et les systèmes de surveillance en profondeur et de filtrage, utiles pour la diffusion sélective des résultats en temps réel. Par ailleurs, les pages crawlées sont stockées dans une base de données consultable pour des recherches ponctuelles via un moteur performant. Par exemple, à partir du dispositif de surveillance sur les publications dans notre domaine, une recherche approfondie sur l’hydroponie nous a aidés à cibler précisément le contenu adéquat pour un atelier sur ce thème.

64

La prise en main de KB Crawl, bien que ludique, reste laborieuse, car l’adaptation du logiciel à ses besoins propres passe par la mise en œuvre d’un paramétrage exigeant. Pour assurer la pertinence de la veille, j’ai ainsi dû procéder page par page. La sélection des sources à surveiller elle-même, a également constitué un travail manuel de longue haleine : au total, j’ai étudié plus de cinq cents sources, sur une durée de deux à trois mois. Que l’on soit administrateur de l’outil ou utilisateur final de l’information, il faut donc investir de son temps pour adopter KB Crawl.

65

Le concept de veille a été très bien accueilli au sein de la structure. En revanche, il est difficile d’assurer dans la pratique l’adhésion et le feedback du destinataire, nécessaires pour mesurer l’exploitation des informations et leur intégration dans les projets. Cet aspect est pourtant capital pour l’évaluation du dispositif et sa pérennité même.

À la recherche d’un outil simple, accessible, léger : WebSite-Watcher répond à mes critères

66

Témoignage. Mathieu Cottave, responsable des études marketing chez Lectra

67

Avec un CA de 217 millions d’euros en 2007, 20 000 clients dans 100 pays au travers de 31 filiales, Lectra est le numéro un mondial des solutions technologiques intégrées (logiciels et équipements de CFAO, services associés) dédiées aux industries utilisatrices de matériaux souples : textiles, cuir, tissus industriels et matériaux composites. La société est présente sur différents marchés : la mode (habillement, accessoires, chaussure), l’automobile (sièges et intérieurs de véhicules, airbags), l’ameublement, l’aéronautique ou l’industrie nautique.

68

Face à une telle diversité de segments de marché, sur une échelle réellement internationale, le besoin de connaissance de notre environnement concurrentiel est très important. Et le grand volume d’information à surveiller et à traiter rendait impératif l’acquisition d’un outil d’aide au recueil de l’information.

69

Non veilleur de formation, j’étais surtout à la recherche d’un outil simple, accessible, léger, et ne nécessitant pas un processus d’implantation ni une prise en main complexes. WebSite-Watcher répondait en tous points à mes critères, avec en plus un prix lui aussi accessible.

70

Cette solution nous permet de nous décharger du travail fastidieux et répétitif de revue systématique de nos sources d’information, en surveillant de façon automatique les évolutions d’un nombre toujours croissant de sources – sites web (avec ou sans abonnement), blogs, bases de données en ligne (avec ou sans souscription), forums, etc. Les résultats de cette surveillance viennent alimenter une base interne de connaissances et un système d’alertes et de newsletters, tous deux destinés aux équipes opérationnelles.

71

Bien évidemment, la solution n’est pas exempte de défauts : la surveillance renvoie du bruit ou parfois des erreurs. Une utilisation optimale nécessite de faire des essais, d’explorer la nature des sources pour y adapter la méthode de surveillance. Mais le caractère « artisanal » de WebSite-Watcher n’est pas pour me déplaire. Et nous ne sommes jamais seuls : on y découvre l’entraide d’une communauté d’utilisateurs grandissante ou encore la disponibilité du créateur du logiciel pour répondre aux questions, voire pour améliorer la solution en fonction de nos besoins… Website-Watcher promet de surveiller automatiquement des pages web et il le fait à mon avis très bien, de façon simple et accessible. Que demander de plus pour gagner en temps et en pertinence ? Et, pour Lectra, c’est l’assurance de se tenir informé des évolutions de son environnement concurrentiel au plus près de l’actualité.

Interview. AMI Software, Digimind : deux éditeurs commentent leur offre

72

AMI Software, Digimind… Deux éditeurs de plateformes qui proposent les solutions les plus complètes et les plus sophistiquées aux veilleurs d’aujourd’hui. Pour tenter, au-delà du discours marketing, de voir plus clair sur les positionnements respectifs des deux sociétés, nous avons croisé leurs points de vue à partir d’un jeu de quatre questions identiques.

1 - Comment définiriez-vous votre positionnement sur le marché ?

73

ALAIN BEAUVIEUX (AMI SOFTAWARE) / Nous avons développé le concept d’« Intelligence d’entreprise », à savoir offrir un système (outil et processus) qui permet à une organisation (entreprise ou service public) d’accroître son périmètre informationnel et de valoriser les informations capitalisées.

74

Ce concept, en apparence simple, est pourtant très novateur : accroître son périmètre informationnel fait appel aux techniques de veille alors que la valorisation des informations capitalisées est du ressort de la gestion de connaissances. Beaucoup séparent les deux, limitant, par exemple, la veille à des simples techniques d’alerte. En les réconciliant, nous mettons en évidence des corrélations entre informations qui deviennent essentielles alors que, prises isolément, elles n’avaient que peu de valeur.

75

De même, les informations internes et externes sont traitées ensemble : un utilisateur aura une vision globale sur un sujet donné, que ces informations soient produites par un collaborateur ou qu’elles aient été collectées sur Internet. Bien évidemment, le niveau de confiance, qui est une propriété de chaque information gérée par les logiciels AMI, ne sera pas nécessairement le même.

76

PATRICE FRANÇOIS (DIGIMIND) / La plateforme intégrée de veille stratégique de Digimind est orientée sur l’intelligence décisionnelle, c’est-à-dire l’analyse visuelle et en temps réel de millions d’informations provenant de centaines de milliers de sources qualifiées.

2 - Quelle « philosophie de la veille », ou tout au moins, quel « modèle de veille », pensez-vous voir se profiler au travers de votre solution logicielle ?

77

A.B. / Il s’agit d’une veille qui intègre de nombreux outils de travail collaboratif et qui n’est pas uniquement fondée sur l’alerte bien que les newsletters aient aussi leur importance. Nous pensons que le veilleur et le décideur qui vont tirer profit des informations mais aussi l’ensemble des utilisateurs concernés doivent collaborer facilement.

78

Une deuxième caractéristique est notre capacité à gérer tout type de sources (y compris le « web invisible » et des bases de données avec des accès très complexes) ou plus exactement à laisser un utilisateur le faire, ce qui signifie qu’il n’est pas tributaire d’un fournisseur ou d’un catalogue prédéfini de sources.

79

P.F. / La veille est une activité de plus en plus décentralisée dans les entreprises. Elle prend différentes formes en fonction des départements auxquels elle s’adresse. Notre philosophie est que chaque département, chaque collaborateur doit pouvoir trouver des réponses individuelles à ses préoccupations quotidiennes, tout en bénéficiant de la puissance d’une architecture mutualisée pour l’entreprise.

80

Pour autant, nous constatons que les modèles de veille dé­ployés par nos clients sont très hétérogènes : dispositifs centralisés, dispositifs mixtes avec des utilisateurs au siège et des utilisateurs décentralisés, ou encore dispositifs décentralisés où chacun fait de la veille sans cellule d’animation centrale.

81

L’application de veille doit pouvoir s’appliquer à ces différentes organisations, en laissant la capacité à l’entreprise de choisir son modèle et de le faire évoluer librement. Nous pensons que le modèle qui prédominera sera un modèle mixte, basé sur des dispositifs d’animation centraux et des usages décentralisés variés.

3 - Comment votre solution influence-t-elle les modes de travail dans l’entreprise et les métiers concernés ?

82

A.B. / D’une part, par les informations qu’elle permet de mettre en avant : celles-ci concernent un marché, des concurrents, et de fait amènent souvent à remettre en cause des décisions antérieures. Il n’est jamais simple d’admettre que son concurrent est meilleur et de chercher à en comprendre les raisons. D’autre part, la transversalité induite par les outils que nous proposons oblige à un travail d’équipe et donc à un partage d’informations. C’est un point sensible dans l’entreprise où certains pensent encore que l’information, c’est le pouvoir. Là aussi, les mentalités ont beaucoup évolué ces dernières années, notamment dans des secteurs économiques où la concurrence est rude comme le secteur industriel.

83

P.F. / En effet, une application de veille a un rôle structurant pour les entreprises et les personnes et il n’est pas rare de voir se créer ou se modifier des postes pour prendre en compte la dimension veille stratégique. Trois profils clés concernés par la mise en place d’une solution de veille :

  • l’animateur de la veille stratégique, qui est un poste qui se crée chaque année dans des dizaines d’entreprises : sorte un consultant interne doté de compétences relationnelles, il aide chaque département à définir ses besoins et à exploiter les résultats de la veille ;

  • l’analyste : grâce à la puissance des outils de veille stratégique, les analystes en stratégie voient leur métier évoluer comme celui des analystes financiers avec les plateformes d’information financière ;

  • les opérationnels (chefs de produit, commerciaux, ingénieurs R&D) : ils vont également modifier leur manière de travailler grâce à la prise en compte de tableaux de bord informationnels leur apportant des signaux externes pour mieux piloter leur activité. Un chercheur, par exemple, n’aura pas vocation à travailler de la même manière s’il se tient informé des dernières avancées de ses concurrents et des universités dans ses domaines de recherche.

4 - Quels types d’analyse proposez-vous ?

84

A.B. / Notre technologie brevetée de « signature de documents » permet de construire des modèles d’analyses originaux proposant des fonctionnalités de découverte. Beaucoup de systèmes reposent sur une modélisation préalable, notamment linguistique, approche très adaptée au suivi (« Je veux connaître les prises de participation de telle société »). Dans un projet de veille, on sait rarement avec précision ce que l’on cherche ; il est donc difficile de modéliser à l’avance. La technologie AMI, qui au contraire ne nécessite pas de modélisation, permet de mettre en avant de nouvelles tendances, de découvrir des concepts associés à des sujets, de cartographier des domaines d’activité. Nos outils regroupés dans le module AMI Analyse sont totalement orientés vers les projets d’Intelligence d’entreprise et d’investigation.

AMI Software
  • Naissance : mai 2001

  • Effectifs : 24 personnes

  • Produits : AMI Enterprise Intelligence (pour l’Intelligence économique et la veille), AMI Knowledge Discovery (pour la recherche et la valorisation d’informations), AMI Opinion Tracker (pour suivre et analyser les opinions exprimées par les internautes).

  • Références : plus de cent clients utilisent les logiciels AMI en France, Suisse et Angleterre, notamment Air France, GDF Suez, SNCF, LH2, LVMH, SGDN, CEDOCAR, Ministère de l’Économie et des Finances, Mutualité française, ANR, BNP Paribas, Postcom, Université de Londres, Nespresso, etc.

  • Site : www. amisw. com

Digimind
  • Naissance : juillet 1998

  • Effectifs : 60 personnes

  • Produit : Digimind 7, plateforme intégrée couvrant la recherche temps réel, la surveillance, la capitalisation, l’analyse, la diffusion de l’information, ainsi que des bases de données de contenu.

  • Références : plus de deux cents références en Europe, aux États-Unis et en Afrique : Microsoft, BNP Paribas, Schneider Electric, SFR, Véolia, Sanofi-Aventis, Orange, EDF, GSK, Groupama, Unilever, ministère de l’Intérieur, ministère des Affaires étrangères, Burson Marsteller, Maroc Telecom, Tanger Med, etc.

  • Site : www. digimind. fr

85

P.F. / Digimind 7 propose une large palette d’outils d’analyse permettant de croiser en temps réel plusieurs millions d’informations par seconde. Voici quelques exemples d’analyses que nous mettons en œuvre pour des groupes industriels ou de services :

  • la mesure d’impact des campagnes de communication : pour chaque campagne, nous suivons en temps réel le cheminement et la reprise de l’information sur les médias. Les graphes de tendance donnent la possibilité de comparer chaque campagne et d’optimiser ses budgets ;

  • l’analyse des stratégies d’acteurs : Nous construisons à la volée des matrices permettant de visualiser qui fait quoi en termes de fusion/acquisition, de partenariats, d’ouvertures d’usine, de signatures de contrats. Ceci donne aux directions de la stratégie des instruments très concrets pour comprendre les mouvements d’acteurs ;

  • le suivi d’opinion sur des produits ou services : en exploitant les blogs et réseaux sociaux, nous sommes capables de positionner automatiquement les produits ou services en fonction de ce qu’en disent les consommateurs. Ceci permet aux directions marketing d’optimiser leurs actions et de réagir à d’éventuelles mauvaises interprétations de leurs arguments.

Résumé

English

Collecting, processing, analyzing, disseminating, sharing - each step of intelligence tracking has its professional toolkit. The authors take us through the marketplace, focusing on current trends.

Español

Recolección, tratamiento, análisis, difusión y repartición : en cada etapa de la vigilancia, varias herramientas ayudan al profesional a cumplir con sus misiones. Armelle Thomas y Philippe Bonny nos guían en la abundancia de la oferta y ponen de realce las diferentes tendencias actuales.

Deutsch

Sammlung, Aufbereitung, Analyse, Vertrieb und Teilung: Bei allen Etappen der Beobachtung helfen diverse Werkzeuge dem Professional, seine Aufgabe zu erfüllen. Armelle Thomas und Philippe Bonny führen uns durch das vielfältige Angebot und beleuchten die verschiedenen aktuellen Tendenzen.

Plan de l'article

  1. Les outils du veilleur sachant veiller
    1. Un marché plus mature, de grandes disparités
    2. Collecte et traitement : les étapes les mieux couvertes par les outils
      1. Retour aux sources… fiables
      2. Multiplicité de petits outils ou services souvent gratuits
      3. Des solutions avancées tout terrain (multi-utilisateurs, multisources, multilingues)
    3. Aide à l’analyse : la quête du Graal
      1. Des fournisseurs de contenu qui aident à l’analyse
      2. Le couplage des données structurées et non structurées
      3. Visualiser l’analyse ?
    4. Diffusion et partage : des outils incontournables, mais moins spécifiques
      1. La bonne information, à la bonne personne, au bon moment…
      2. Des outils de partage aux outils collaboratifs
  2. Focus. Comment bien utiliser agrégateurs de flux RSS et agents de surveillance ?
  3. Deux agents très spéciaux
  4. KB Crawl : un bon rapport qualité-prix, et une grande variété de paramétrages
  5. À la recherche d’un outil simple, accessible, léger : WebSite-Watcher répond à mes critères
  6. Interview. AMI Software, Digimind : deux éditeurs commentent leur offre
    1. 1 - Comment définiriez-vous votre positionnement sur le marché ?
    2. 2 - Quelle « philosophie de la veille », ou tout au moins, quel « modèle de veille », pensez-vous voir se profiler au travers de votre solution logicielle ?
    3. 3 - Comment votre solution influence-t-elle les modes de travail dans l’entreprise et les métiers concernés ?
    4. 4 - Quels types d’analyse proposez-vous ?

Pour citer cet article

Thomas Armelle, Bonny Philippe, Deschamps Christophe, Cherbonnier Marina, Cottave Mathieu, Beauvieux Alain, François Patrice, « Les outils de la veille », Documentaliste-Sciences de l'Information 4/2008 (Vol. 45) , p. 46-57
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2008-4-page-46.htm.
DOI : 10.3917/docsi.454.0046.


Article précédent Pages 46 - 57 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback