Accueil Revue Numéro Article

Revue française de gestion

2003/5 (no 146)

  • Pages : 230
  • DOI : 10.3166/rfg.146.59-79
  • Éditeur : Lavoisier


Article précédent Pages 59 - 79 Article suivant
1

De nos jours, les nouvelles technologies de l’information et de la communication (NTIC) fournissent aux entreprises une « gabegie » de don nées, support primaire de l’information. De ce foisonnement sont nées de nouvelles approches méthodologiques tentant d’en extraire non seulement une information valide et fiable, mais plus généralement des connaissances permettant d’étayer la décision. Deux grands types d’approches peuvent être distinguées aux analyses des données : l’une est décisionnelle et s’attache le plus souvent à la modélisation, l’autre est exploratoire et a pour objectif de synthétiser un ensemble d’informations plus ou moins hétérogènes (l’approche est alors essentiellement descriptive). De plus, la logique même de l’analyse des données évolue et change de perspective : d’une gestion des stocks on passe à une gestion des flux. Les nouveaux outils d’extraction des connaissances à partir des données (ECD) s’inscrivent clairement dans le versant exploratoire des études statistiques mais s’enracinent également dans ce second type de logique. Certaines de ces méthodes sont récentes, le concept d’ECD apparaît pour la première fois en 1989 mais il faudra attendre 1995 pour assister aux premières conférences internationales sur le sujet et 1997 pour des séminaires européens. L’une des branches de l’ECD concerne plus particulièrement le texte, il s’agit alors de l’extraction des connaissances à partir de textes (ECT) ou Text Mining. Et comme l’internet offre, pour un temps encore, un gigantesque espace textuel cette dernière technique s’applique avec bonheur sur ce terrain notamment grâce à la facilité d’accès aux données. Néanmoins l’exploration du cyberespace requiert également d’autres approches : le Web Mining est encore une technologie émergente mais pleine d’un avenir prometteur.

2

De nouvelles logiques de gestion des connaissances apparaissent alors et de multiples implications managériales en dérivent naturellement. Cet article se propose d’en faire le point et de parcourir divers aspects et enjeux qui s’offrent aux managers dans le cadre du Knowledge Management.

I. – L’EXTRACTION DE CONNAISSANCES À PARTIR DES DONNÉES

3

L’extraction de connaissances à partir des données (ECD) se définit comme « l’acquisition de connaissances nouvelles, intelligibles et potentiellement utiles à partir de faits cachés au sein de grandes quantités de données » (Fayyad et al., 1996). En fait, on cherche surtout à isoler des traits structuraux (patterns) qui soient valides, non triviaux, nouveaux, utilisables et si possible compréhensibles ou explicables.

4

Deux dénominations courantes, mais pas tout à fait équivalentes, se rencontrent habituellement dans la littérature anglosaxonne : le Knowledge Discovery in Databases (KDD) et le Data Mining (DM). La différenciation entre ces deux désignations réside dans le type d’approche utilisée : intelligence artificielle pour le KDD avec utilisation d’heuristiques provenant de l’apprentissage symbolique, statistique pour le DM considéré comme une industrialisation des techniques d’analyse des données. Pour certains auteurs les outils de Data Mining se résument aux réseaux de neurones et aux arbres de décision autorisant la prédiction d’une variable qualitative (arbres de classification) ou quantitative (arbre de régression). Néanmoins, les méthodes les plus novatrices concernent la recherche de règles d’associations (Agrawal et al., 1993) pouvant conduire à des observations de type « composition du panier d’achat du consommateur », et l’étude des séquences fréquentes permettant d’appréhender le comportement des clients dans le temps (Agrawal et Srikant, 1995). Deux grands types méthodologiques président aux techniques de DM : le mode supervisé qui nécessite la définition d’une variable dépendante (donc certaines hypothèses) et le mode non supervisé où toutes les variables sont considérées sur le même plan (détection des associations, classification, partition, etc.).

5

Quoi qu’il en soit, KDD et DM ont en commun l’utilisation de mégabases ou Data Warehouses (DW), entrepôts de données orientés utilisateurs. Et bien que dans l’esprit, le KDD assimile le cycle complet de traitement des données (le DM faisant plutôt référence à leur analyse statistique), leur finalité reste cependant sur le fond strictement identique, l’objectif étant de fournir une aide décisionnelle aux managers à partir de bases de données souvent volumineuses.

6

Discipline émergente et multifocale, rassemblant les travaux des chercheurs en statistiques, intelligence artificielle, apprentissage automatique, reconnaissance de formes, bases de données, visualisation des données et linguistique, l’ECD génère des techniques et des outils permettant la révélation de connaissances enfouies dans d’énormes quantités de données hétérogènes et protéiformes.

7

L’outil informatique est ici naturellement essentiel; il est au cœur de l’évolution allant d’un traitement classique de caractères a priori sans signification, vers une métadimension, au-delà des données, pour manipuler des connaissances : c’est l’informatique décisionnelle (ou SIAD [1]  Système informatique d’aide à la décision. [1]  ). L’entrepôt de données (Data Wharehouse) constitue la pierre angulaire du système d’information de l’entreprise. Sa définition la plus couramment admise s’articule autour de quatre caractéristiques principales :

  1. l’intégration de données issues de multiples sources hétérogènes,

  2. l’orientation « objet » des données (client, produit, période, région, etc.),

  3. la gestion de leur dimension temporelle,

  4. leur non-volatilité, et enfin, d’un objectif : l’aide à la décision (Inmon, 1996).

8

Un DW est en général composé de plusieurs Data Marts (magasins de données), contenant chacun des données relatives à un domaine particulier afin de ne pas mobiliser, à chaque requête, l’intégralité du DW pour retrouver des éléments spécifiques d’usage courant.

II. – DE L’INFORMATION À LA CONNAISSANCE

9

Une information est fondamentalement une action en devenir pour qui sait la mettre en perspective, elle procure la capacité à mettre en œuvre des actions en vue d’influer sur l’environnement. Néanmoins, l’information est périssable, sa valeur diminue avec le temps et globalement plus la source est formalisée, plus l’information est obsolète. Se pose alors le problème de cette valeur. Quelles sont les dimensions de la définition de la valeur de l’information ? A priori, une information a d’autant plus de valeur qu’elle est précise, spécifique, utile, interprétable, finalisée et non diffusée. La valorisation de l’information s’inscrit dans un processus temporel, spatial et dynamique non linéaire, d’une grande hétérogénéité en fonction du récepteur (Mayère, 1990).

10

Une vue traditionnelle de la connaissance se confond avec celle de son cycle de production. À l’origine se trouvent les données brutes non traitées, puis collectées et formatées, elles sont explorées de façon à ce que leurs relations deviennent manifestes. Les données sont ainsi transformées en information qui peut être utilisée à des fins commerciales ou industrielles. Plus grand est le nombre d’informations révélées, plus grande est l’intelligence du domaine, jusqu’à ce qu’un certain niveau de profonde compréhension soit atteint : la connaissance. Grâce à cette connaissance, il devient plus aisé d’extraire des données une information plus riche et de meilleure qualité. Pour d’autres, la connaissance n’est que de l’information dans un contexte (par exemple, Grover et Davenport, 2001).

11

La connaissance est donc le résultat d’un assemblage d’informations traitées auquel l’esprit humain a pu assigner un sens (Malhotra, 2000). C’est une manière de comprendre, de percevoir, elle régit les rapports entre les afférences cognitives de l’individu et le monde extérieur. Ce qui est typique de la connaissance, c’est qu’elle résulte d’un processus complexe, et non pas qu’elle soit utile à un agent donné, bien que la capacité de transformation de données brutes en connaissance constitue une valeur ajoutée incontestable pour l’entreprise. Mais c’est en fait l’individu qui applique son intelligence pour apporter signification et pertinence à l’information, transformant ainsi l’information en connaissance. Connaissance et information sont deux notions souvent confondues dans la perspective de l’ECD, l’information n’étant qu’un élément de connaissance susceptible d’être codé, mémorisé et traité (Kodratoff, 1999). Dans ce contexte et de façon préliminaire, le processus d’extraction des connaissances comprend, quelle que soit la matière étudiée, un certain nombre d’étapes des « données brutes » stockées dans la base à l’extraction d’arbres de décision, de règles ou de représentations spatiales des données. Les principales étapes de la chaîne de découverte des connaissances, que nous qualifierons de logistique de l’ECD, peuvent schématiquement être représentées par la figure 1.

III. – DE L’ECD À L’EXTRACTION DES CONNAISSANCES À PARTIR DE TEXTES

12

L’une des branches de l’ECD concerne plus particulièrement le texte, il s’agit alors de l’extraction des connaissances à partir de textes (ECT) ou Text Mining (TM) qui se réfère au processus d’extraction de connaissances à partir de documents non structurés. Une définition en est donnée par Wilks (1997) comme suit : « étant donné un ensemble de traits structuraux représenté par des formes graphiques, comment l’organiser de façon à ce qu’il s’ajuste le mieux au texte ? ». D’un point de vue applicatif, l’ECT a pour but de fournir à l’utilisateur une connaissance implicite, enfouie dans une collection de textes et construite à partir des trames structurelles isolées.

Figure 1  - LA LOGISTIQUE DE L’ECD <image id="im1" typeimage="figure" typemime="image:png" xlink:href="RFG_idPAS_D_ISBN_pu2003-05s_pa01-da16_sa05_art04_img001.png" xlink:actuate="onRequest" xlink:title="Figure 1 "/>
13

Bien qu’en matière d’analyse textuelle, le domaine soit primitivement celui des linguistes, deux grands courants de recherche, issus notamment de la « communauté apprentissage », peuvent être distingués : la recherche d’informations spécifiques (RI) ou recherche documentaire et l’extraction de connaissances où l’objectif est d’analyser le contenu d’une collection de documents afin de répondre à un besoin, a priori non défini, d’information. Dans la logique plus traditionnelle de recherche d’information (Information Retrieval), le moteur de recherche permet l’extraction de documents à partir d’un univers lexical considéré comme non structuré, parfois indexé par des mots-clés; il suffit simplement d’indiquer dans la requête le contenu que l’on souhaite observer dans les documents sélectionnés. La seconde approche, plus récente, consiste en l’extraction de connaissances représentées par un ensemble de traits structuraux caractéristiques de la collection de documents analysée (figure 2). Néanmoins ces deux types d’approches sont le plus souvent complémentaires et finalement peu dissociables. Par exemple, la recherche de documents (ou recherche d’informations : RI) bénéficie des techniques d’extraction des connaissances pour retrouver des textes au sein d’un corpus à partir d’exemples, de produits ou de marques données, ou encore de dates limites ou de montants. En plus d’apporter une vision claire de leur contenu le TM en accélère la recherche par l’idée ou le concept, libérant l’utilisateur des mots-clés.

14

Ainsi la philosophie de l’utilisation des moteurs de recherche nécessite que l’on sache peu ou prou ce que l’on recherche, celle des moteurs d’extraction permet de découvrir un ensemble d’informations cachées au sein de grandes quantités de textes. L’utilisateur devient alors un récepteur d’informations plutôt qu’un « requêteur » de documents.

Figure 2  - ECD ET RI: DEUX LOGIQUES DIFFÉRENTES <image id="im2" typeimage="figure" typemime="image:png" xlink:href="RFG_idPAS_D_ISBN_pu2003-05s_pa01-da16_sa05_art04_img002.png" xlink:actuate="onRequest" xlink:title="Figure 2 "/>
15

Ces deux courants de recherche, aujourd’hui clairement orientés vers l’internet, essaient de s’affranchir au maximum des contraintes linguistiques arguant de la structure grammaticale souvent frustre du contenu textuel du web et de l’apparition de nouveaux standards de documents plus structurés (par exemple : XML, eXtensible Markup Langage). Dans le champ de l’intelligence artificielle, les méthodes d’apprentissage utilisées sont de type symbolique ou numérique. Dans le domaine de l’extraction d’information, on utilise plus spécifiquement des algorithmes issus des méthodes de traitement automatique du langage naturel (TALN) qui extraient les concepts-clés des textes puis représentent graphiquement les interrelations entre ces concepts au sein de la collection de documents. Cette analyse se situe donc à un niveau interdocument, afin de repérer la répartition de ces concepts et leurs rapports au niveau de la totalité du corpus analysé, considéré comme un tout (Tan, 1999). Il en résulte une partition des textes ayant une similarité de contenu. De plus, l’analyse linguistique des documents permet d’en extraire des éléments objectifs mais également subjectifs. Plusieurs techniques permettent le traitement du langage naturel. Des systèmes basés sur des approches traditionnelles l’analysent au niveau des phrases prises individuellement. L’objectif est alors d’en créer une représentation sémantique sous la forme de relations structurées entre les mots représentatifs de la phrase. Pour résoudre cette tache, diverses structures linguistiques sont comparées avec la phrase et ses composants. Quand il y a adéquation, une construction sémantique lui est associée. Les résultats sont présentés sous la forme d’un réseau sémantique représentant les mots les plus importants du texte et les relations qu’ils entretiennent. Cependant, un ensemble de règles linguistiques ne fonctionne réellement bien qu’avec les textes pour lesquels il a été édicté, dépendant ainsi de la connaissance a priori du domaine analysé. L’analyse de textes issus de domaines variés requiert l’utilisation d’autres algorithmes plus généraux.

16

L’une des origines de ces méthodologies peut être trouvée dans les travaux de Callon et al. (1983) sur les mots associés ou co-occurrences de termes dont l’application a surtout bénéficié à l’analyse des mots-clés indexant les bases de données bibliographiques, dans un contexte d’infométrie. Une classification hiérarchique ascendante, dont les premiers niveaux de regroupement assemblent les mots les plus fortement liés alors que les derniers restituent la structure du réseau d’association (carte thématique; Grivel et François, 1995), permet de structurer le sujet en identifiant les concepts les plus importants à partir du réseau sémantique et en en dressant une liste par sujet d’importance décroissante. Cette transformation révèle la hiérarchie des thèmes abordés dans le texte étudié. L’analyse des co-occurrences permet également d’agréger les documents selon leur contenu. Cette étape de regroupement permet d’associer les textes traitant d’un même thème. Par exemple, l’analyse sémantique latente (LSA) développée par Deerwester et al. (1990) classe les documents sur la teneur sémantique des mots qu’ils contiennent, plutôt que sur leur seul appariement. Son intérêt réside dans sa capacité à représenter des atomes textuels (tels que des mots, des phrases, des paragraphes ou des documents) dans un espace sémantique multidimensionnel. Cette représentation utilise les corrélations entre les mots, les documents et autres unités lexicales à l’aide d’une matrice de co-occurrence, enregistrant le nombre d’apparitions de chaque mot dans chaque unité lexicale (ou contexte) analysée.

17

In fine, l’outil de Text Mining doit être capable d’identifier et d’indexer automatiquement des données non structurées. Il doit également permettre une représentation graphique et topologique de ces données ainsi que la possibilité de voyager au sein des documents dont elles sont issues. Les objectifs du Text Mining sont :

  1. d’extraire l’information-clé du texte,

  2. d’organiser les documents par sujet,

  3. de trouver les thèmes dominants dans une collection de documents,

  4. de rechercher les documents pertinents à l’aide de requêtes flexibles et puissantes.

IV. – DE L’ECT AU WEB MINING

18

Les techniques de Text Mining s’appliquent tout naturellement au contenu du cyberespace. Jamais autant d’écrits numérisés n’ont été à notre portée et on estime que la quantité d’informations stockée de par le monde double tous les vingt mois (Raghavan et al., 1998). L’internet, univers infini mais hétéroclite d’informations, riche de plus de 500 millions de pages, est encore pour quelque temps un formidable vecteur de textes de diverses origines. Même si le contenu des sites évolue clairement vers le multimédia encore limité par les capacités de transfert du réseau actuel, l’écrit reste ici l’un des supports privilégiés de l’information et de la communication.

19

L’exploration de cet espace requiert le développement spécifique de nouveaux algorithmes de recherche et d’extraction d’information car les données sont ici moins structurées que dans les bases traditionnelles mais offrent plus de richesse de par leur caractère hypermédia. La notion de Web Mining fait son apparition sans que ses contours en soient clairement précisés. Domaine de recherche émergent le Web Mining n’admet pas encore de nomenclature et de terminologie bien définies. Cooley et al. (1997) proposent néanmoins une taxinomie des techniques de Web Miningen deux grands champs :

  1. l’analyse de contenu fait référence à la recherche automatique et à l’extraction de connaissances à partir du web (cf. Kumar et al., 1999);

  2. l’analyse de l’usage du web s’attache à la découverte des schémas d’accès et de navigation des utilisateurs au sein des serveurs.

20

Le premier type d’analyse se conçoit comme une extension des fonctions des traditionnels moteurs de recherche mais s’appuie sur le TM afin de révéler une information structurelle et implicite des documents du web en les catégorisant, les filtrant et les interprétant. Le second type se confond avec un Data Mining de l’utilisation du web, collectant une information sur les habitudes de navigation des clients ou clients potentiels et sur l’efficacité du site en lui-même. Les fichiers « logs » des serveurs sont alors explorés aux fins d’appréhension des schémas de navigation des internautes et de leurs transactions d’ecommerce. D’autres moyens d’exploration du web peuvent également être individualisés. La méta-information contenue dans les balises du langage de programmation des pages du web peut faire, par exemple, l’objet de recherches. Cette exploration sera rendue encore plus aisée par l’adoption de la norme XML qui structure et précise clairement la nature des objets contenus dans chaque page. Ici les métadonnées sont directement contingentes du système lui-même et ne dépendent donc pas du webmaster comme c’est le cas pour le contenu textuel d’une page HTML. Une autre information latente peut également se trouver dans la structure des liens hypertextes de l’espace cybernétique. Deux grands types de méthodes d’analyse topologique du web ou des liens sont ici couramment utilisés :

  1. Les algorithmes de rang produisent des indices basés sur l’analyse des citations. Page (1997), par exemple, propose un index hors de portée des manipulations commerciales qui donne une forte valeur aux pages destinataires de nombreux liens et à celles qui, bien que relativement peu citées, le sont par des pages à fort index.

  2. Les algorithmes d’agrégation dérivés de la théorie des graphes, associent les pages sémantiquement similaires en utilisant des métriques classiques (Botafogo et Schneiderman, 1991). L’objectif est de distinguer, dans un système d’hypertexte, les nœudsindex ayant pour but de faciliter la navigation et les nœuds de référence fournissant l’information. Ce type d’algorithme peut, par exemple, être utilisé pour déterminer quelles pages sont les plus fréquemment visitées à partir d’une page donnée.

21

Bien que ces informations puissent paraître plus structurelles qu’opérationnelles elles permettent néanmoins d’agir sur l’environnement. Par exemple, une tendance générale des créateurs de sites commerciaux est d’incorporer aussi peu de liens sortants que possible dans le sens où ils sont susceptibles de conduire aux sites concurrents.

22

Le Multimedia-Mining représente encore un autre aspect du Web Mining. Le concept de bases de données multimédias dans lesquelles sont stockées images, graphiques, audio et vidéo n’est plus utopique, grâce encore à l’augmentation des capacités de stockage et de puissance de calcul des processeurs ainsi qu’aux techniques de compression. L’extraction des connaissances à partir des images et des BDD multimédias peut être assimilée à un cas de DM spatial. Sur ce plan, l’analyse du contenu graphique des sites n’en est apparemment qu’à ses balbutiements. Enfin, d’autres technologies, comme celle des arbres hyperboliques (cf. Inxight.com) permettent d’extraire une information concernant la structure d’un site donné en en produisant une cartographie dynamique. Ceci offre la possibilité d’analyser et de comprendre le fonctionnement des sites concurrents.

23

Cet accès soudain et rapide à de vastes champs de connaissances nouvelles ne reste pas sans questionnements. Les applications managériales évoluent parallèlement aux progrès et à la maîtrise de ces nouveaux outils. Certaines deviennent courantes tandis que d’autres n’en sont qu’à un stade expérimental et d’autres encore ne sont qu’hypothétiques. Les différentes logiques de « manipulation » des connaissances peuvent être reliées à leurs outils dans le cadre d’une vision orientée processus d’information comme le présente la figure 3.

V. – DE L’EXTRACTION DES CONNAISSANCES AU KNOWLEDGE MANAGEMENT

24

Les différentes applications de ces nouvelles technologies se positionnent naturellement dans un nouveau champ de compétences et d’appréhension de la connaissance organisationnelle. La gestion des connaissances ou Knowledge Management (KM) se définit comme le processus de capture et d’enregistrement de l’expertise collective d’une entreprise quel que soit l’endroit où cette dernière réside (les bases de données internes ou externes, les documents de toute nature et format ainsi que dans la « tête des individus ») puis de sa redistribution là où elle est susceptible de produire les meilleurs profits. Apparue au début des années 1990, la notion de KM se décompose en un ensemble de processus organisationnels et culturels qui cherche à organiser une combinaison synergique entre données puis informations et la capacité créative et innovatrice des individus à l’aide de supports technologiques. Bien qu’il existe une multitude de définitions différentes du KM, le concept peut être approché sommairement dans ses aspects et enjeux par la figure 4, en positionnant simultanément ses éléments de résistance.

Figure 3  - OUTILS ET CONNAISSANCES <image id="im3" typeimage="figure" typemime="image:png" xlink:href="RFG_idPAS_D_ISBN_pu2003-05s_pa01-da16_sa05_art04_img003.png" xlink:actuate="onRequest" xlink:title="Figure 3 "/>
Figure 4  - LE CADRE GÉNÉRAL DU MANAGEMENT DES CONNAISSANCES <image id="im4" typeimage="figure" typemime="image:png" xlink:href="RFG_idPAS_D_ISBN_pu2003-05s_pa01-da16_sa05_art04_img004.png" xlink:actuate="onRequest" xlink:title="Figure 4 "/>
25

De plus, les bases de données traditionnelles ne constituent pas exclusivement le réservoir de la connaissance, on peut également la trouver dans tous les documents écrits accessibles par les réseaux internes ou externes, mais aussi dans les pratiques, savoir-faire et connaissances des ressources humaines.

26

D’un point de vue interne à l’entreprise et dans le cadre du KM, le Text Mining, d’une part, facilite l’étude et l’évaluation organisationnelle en traquant la connaissance au sein des intranets et des portails d’entreprise. D’autre part, il constitue l’ultime étape de la gestion électronique des documents (GED), provenant de différentes sources : du client par l’intermédiaire des systèmes de gestion de la relation client (CRM, Customer Relationship Management), du marché au travers de l’intelligence économique et de l’entreprise elle-même. Les éléments plus structurés émanant de ces mêmes sources sont stockés dans l’entrepôt de données puis analysés et visualisés grâce au Data Mining et aux moteurs OLAP [2]  One Line Analytical Process. [2] . Ainsi, si l’on se place du point de vue de l’information processing, l’ensemble peut être résumé sous la forme de la figure 5 comme les sources et les moyens d’extraction des connaissances.

1. Les différents aspects du Knowledge Management

27

La gestion des connaissances soulève de nombreux problèmes polymorphes et complexes, tant organisationnels qu’humains, culturels ou techniques. Bien qu’il semble que les dernières révolutions technologiques aient initialement favorisé le développement du KM, il est encore trop aisément assimilé à ses techniques et outils alors qu’il mobilise l’ensemble des ressources élargies de l’entreprise : personnel, organisation, réseau, clients, fournisseurs, concurrents, marché et environnement. Les « pivots » substantiels du KM sont donc à rechercher dans la dynamique organisationnelle, les ressources humaines et culturelles, l’ingénierie des procédés et la technologie (Gold et al., 2001).

Figure 5  - SOURCES ET MOYENS D’EXTRACTION DES CONNAISSANCES <image id="im5" typeimage="figure" typemime="image:png" xlink:href="RFG_idPAS_D_ISBN_pu2003-05s_pa01-da16_sa05_art04_img005.png" xlink:actuate="onRequest" xlink:title="Figure 5 "/>
MOYENS D’EXTRACTION DES CONNAISSANCES
28

Le premier type de connaissances individualisé par Nonaka et Takeuchi (1995) est qualifié de tacite et fait référence au constat que nous savons plus que ce que nous pouvons dire (Polanyi, 1967) ou que ce que nous avons appris (paradoxe de Platon [3]  Cf. Landauer et Dumais (1997). [3]  ), il est enraciné dans l’individu. L’addition de ces connaissances difficilement formalisables et non structurées constitue le noyau des compétences cognitives de l’entreprise. Le partage de ce type de connaissances est l’un des enjeux du KM. Il nécessite aujourd’hui la mise en place d’outils de travail partagé (workflow, groupeware), mais également des modalités plus traditionnelles de diffusion du savoir par l’apprentissage ou le compagnonnage…

29

Les connaissances explicites se juxtaposent aux connaissances tacites. Elles ont un caractère plus formalisable, mais ne sont par pour autant déjà structurées. La tâche du KM est alors de favoriser l’explicitation de ces connaissances, de façon toujours incomplète car elles contiennent un substrat tacite, puis de les transcrire au sein de documents ou de systèmes normatifs (procédés de gestion électronique des documents, bases de données, etc.) et enfin de les représenter ou de les modéliser soit de façon mathématique (édiction de règles et de modèles), soit de façon graphique (flow chart, blueprint), soit encore sur un mode verbal. Le système est récursif et s’enrichit grâce aux retours d’expériences.

30

Une première taxinomie des connaissances peut donc être réalisée à partir du support qui les contient : capacités cognitives de l’homme ou système formalisé. À partir de cette taxinomie il est aisé de replacer la nature même des connaissances dont il est question selon les préceptes de Nonaka et Takeuchi (1995). Les connaissances tacites sont essentiellement détenues par l’esprit humain, les connaissances explicites peuvent être pour partie transférées dans un système d’information. De façon transversale on replace également les étapes de création, capitalisation et transfert des connaissances ainsi que les différentes phases du modèle SECI [4]  Socialization, Externalization, Combination, Inter... [4] de Nonaka et Takeuchi (1995). Parallèlement, il est clair qu’il existe une dualité de contexte entre les connaissances disponibles à l’intérieur de l’entreprise et celles qui peuvent lui être accessibles à l’extérieur. Une dernière taxinomie est proposée par Senge (1990) et différencie les connaissances résultant d’un apprentissage adaptatif de celles issues d’un apprentissage « génératif ». Le premier contexte est tourné vers le passé et les affaires courantes alors que le second est résolument orienté vers le futur et l’innovation.

31

Le KM peut naturellement être regardé au travers du paradigme du traitement de l’information, souvent essentiellement caractérisé par l’approche technologique (Earl, 2001). C’est ici la démarche que nous avons suivie dans la première partie de cet article. Néanmoins, cette conception ignore complètement la dimension humaine du processus de création des connaissances et les mécanismes interprétatifs mobilisés en fonction du vécu de chaque être. Le même assemblage de données ou d’informations peut aboutir à une connaissance ou un comportement différents selon les individus mais également pour le même individu à des moments différents. D’autre part, l’assurance du stockage des informations ou des connaissances ne garantit nullement qu’elles seront exploitées. Or la connaissance réside dans l’utilisateur et non dans la collection de données (Malhotra, 2000). La différence d’approche entre système d’information et KM stigmatise l’opposition fondamentale entre processus automatisé et processus cognitif.

32

Bien qu’il n’existe actuellement aucune méthode de gestion des connaissances qui ne soit formellement éprouvée, l’un des objectifs du KM est de relier des informations structurées (explicites) et non structurées (tacites, implicites) à un certain nombre de règles d’utilisation insérées dans le processus même d’élaboration des connaissances.

Les aspects organisationnels

33

En lui-même, ce processus porte le germe de bouleversements organisationnels conséquents, qui prennent trop souvent la forme limitée de la mise en place, autour d’un intranet, d’un certain nombre d’outils spécifiques alors que l’exercice et la répartition du pouvoir sont en jeu.

34

Les structures organisationnelles doivent émerger des vieux principes pour répondre aux nouveaux défis. À l’instar des firmes de haute technologie, les entreprises doivent s’organiser par projet, en créant des groupes de travail dans un climat de coopération, de confiance et de coordination horizontale (Schoonhoven et Jelinek, 1997). L’éclatement des barrières internes voit l’émergence de nouvelles formes collaboratives telles le management par les projets, les structures matricielles ou les workflows. Manager une activité et/ou un projet équivaut à piloter des ressources humaines en dehors de tout lien de subordination hiérarchique. C’est apporter une réponse nouvelle à la question de l’exercice et de la répartition du pouvoir en stimulant la créativité par un meilleur accès à la connaissance. De la même manière, la globalisation des territoires élargit les périmètres de coopération par l’intermédiaire des intranets, des groupewares… (Blanchot et alii, 2000), tout comme les nouvelles formes de partenariat, coopération, « concourance » ou de réseaux d’entreprises. La réalité physique s’efface, les équipes virtuelles émergent de nulle part et abolissent les frontières spatiotemporelles en se nourrissant de substance informationnelle. Dans ce contexte général, Milliot (1999) recense trois modes de fonctionnement particulièrement adaptés à l’organisation informationnelle : organique, réticulaire et pluriculturel, tandis que Nonaka et Takeuchi (1995) proposent l’organisation « hypertexte ».

35

Tout comme le management par la qualité (Mayère, 1995), le KM s’inscrit dans une perspective de transversalité et comme un processus, vecteur d’optimisation des interfaces interfonctionnelles et porteur d’une pluralité culturelle. L’organisation du savoir a jusqu’alors eu tendance à épouser la forme pyramidale : plus l’information est riche, condensée et valorisée, plus elle prend la forme de connaissances et plus elle est détenue par un nombre limité d’individus. Tout projet de KM suppose une organisation transversale ou matricielle facilitant la diffusion des connaissances; les travaux de Nonaka et Johansson (1985) montrent notamment l’importance du contexte organisationnel sur la capacité d’apprentissage organisationnel.

36

L’environnement économique actuel, dans cette ère de l’information qui devient la principale ressource de l’entreprise et où les actifs changent fondamentalement de nature (Drucker, 1999), est caractérisé non seulement par des mutations rapides, mais également par leur nature discontinue nourrie de ruptures. Les schémas organisationnels traditionnels à la stratégie planifiée souffrent d’une trop grande rigidité adaptative aux ruptures des modèles économiques (Malhotra,2000). Le débat sur la nécessaire adaptation de l’organisation à la stratégie ou de la stratégie à l’organisation apparaît, de nos jours, désuet dans le sens où la « part émergente » de la stratégie tend à dominer la « part délibérée » du fait de l’accumulation et de la découverte de connaissances au fil du temps. La flexibilité doit donc se conjuguer autant dans les structures que dans la stratégie.

37

Parallèlement, si l’on considère que l’acquisition et le transfert des connaissances sont profondément subordonnés à la volonté des individus, il faut que la structure organisationnelle puisse leur offrir autant d’épanouissement que de modalités de reconnaissance. Son changement a pour volonté de faciliter puis de garantir l’adhésion et la participation des acteurs. L’un des objectifs subséquent étant d’obtenir un consensus sur l’importance stratégique des connaissances. Il faut placer l’information au centre du dispositif organisationnel et redéfinir les facteurs de contrôle du travail. De plus, la dynamique organisationnelle devra répondre aux freins liés au partage des connaissances et entraîner une attitude novatrice.

38

Les modes de fonctionnement classiques de l’entreprise ne favorisent pas la création des connaissances mais s’inscrivent davantage dans une logique d’économie afférente aux limitations des capacités cognitives des individus (Duizabo et Guillaume, 1997). Le schéma organisationnel doit construire un environnement physique du travail propice à la création et au partage des connaissances (Davenport et al., 1998; Davenport et Prusak, 2000), sans forcément en fixer les objectifs, car ils risquent de dénaturer la créativité, l’innovation et l’émergence de nouveaux concepts non forcément congruents aux objectifs assignés et pouvant résulter de développements aléatoires ou d’informations opportunistes. Corrélativement, il faut insister sur l’importance des métadonnées (documentation sur les données) pour obtenir une compréhension universelle des données, considérer l’information comme une ressource voire comme une infrastructure, responsabiliser une personne chargée de l’information comme dans le cadre de la gestion de la qualité, amender la culture générale de l’entreprise et celle des groupements professionnels qui la structurent. Beaucoup de processus internes doivent être repensés mais également les relations externes doivent être améliorées. Enfin, l’information et les connaissances ont pareillement des impacts sur l’organisation de la production comme par exemple la personnalisation des produits et services en fonction de la connaissance du client.

39

Les aspects organisationnels du KM sous-tendent naturellement les autres aspects, ci-dessous évoqués, qui lui sont imbriqués.

Les aspects humains

40

C’est une évidence, la connaissance nécessite l’intervention humaine. Elle comporte de ce fait une connotation éminemment culturelle voire affective ou émotionnelle. Cette notion et celle de compétence sont naturellement consubstantielles. Or, à l’âge de l’information, le travail réclame de nouvelles compétences : rapidité d’adaptation, qualité des individus, ouverture à l’autre, aptitude à collaborer, discipline et rigueur, capacités d’intégration et de gestion du contenu, orientation client…

41

Le KM doit donc ériger l’individu au cœur du système. Certains courants de recherche, notamment en GRH, y positionnent l’employé ou le travailleur du savoir, d’autres en marketing, le client. Ces deux points de vue sont à la fois opposés et convergents. Le client est une source primordiale d’information pour l’entreprise, c’est un input, le salarié de l’entreprise doit assimiler et traiter cette information dans l’objectif d’un output pour l’organisation. Néanmoins il reste que le KM trouve ses racines dans les ressources humaines et dans la révolution des pratiques qu’il contient, en notant bien que c’est avant tout, à l’instar de la qualité, une fonction transversale. Cette dernière constatation marque en fait l’intime liaison qu’il peut exister entre la performance globale des employés et leur tendance à un comportement orienté vers la connaissance (Knowledgeoriented Behavior) (Davenport et Prusak, 2000). Le défi de la gestion des ressources humaines s’attache ainsi au recrutement, à la rétention et à l’accroissement de la productivité des « travailleursclés du savoir » dans la perspective d’implémenter le capital humain, source d’avantage concurrentiel à moyen et long terme.

42

L’essence même de la connaissance lui confère un statut particulier différent de celui qui régit habituellement les forces de travail. L’acquisition des connaissances n’a pas comme cadre strict les horaires ou le lieu de travail, une partie de son processus d’assimilation pouvant se faire en dehors. Il convient également de considérer le niveau d’implication personnelle des individus comme stimulant relationnel donc favorisant le partage et l’utilisation des connaissances. Or actuellement, il semble que peu d’entre eux soient vraiment intéressés par le système. D’un point de vue opérationnel, il apparaît que des mécanismes de récompense doivent être instaurés afin de stimuler les travailleurs du savoir (Dixon, 2000).

43

Parallèlement, les NTIC, dans une acception large, sont susceptibles de faciliter l’adoption de nouvelles logiques de communication et de pouvoir, ou encore d’inciter à l’instauration de procédures de management participatif (Barthe, 2001). La mobilisation de l’intelligence des salariés et la reconnaissance de leurs compétences se traduit par des responsabilités et une autonomie accrues (empowerment) favorisant la qualité et l’innovation, le partage et le travail en réseau.

Les aspects culturels

44

La culture organisationnelle trouve classiquement ses fondements dans les valeurs, les normes et les pratiques. Il faut ainsi impérativement favoriser l’émergence d’une culture générale commune de la connaissance, où chaque individu participe à sa production et à son partage. C’est en effet la culture de l’apprentissage et de l’interapprentissage qui favorise l’échange des connaissances (De Long et Fahey, 2000). La question qui se pose reste comment une organisation peut au mieux engendrer une culture qui valorise le partage de créativité et l’utilisation des connaissances ? Davenport et Prusak (2000) pensent qu’il faut stimuler les salariés par la récompense sur la base des contributions à la création et au partage des connaissances, favoriser l’émulation des cadres, encourager l’évaluation des décisions et de leur processus d’élaboration à partir des connaissances mobilisées, recruter le personnel sur la base des potentialités cognitives des individus, enfin former tous les employés au management par la connaissance. Parallèlement il est judicieux de développer la pluriculturalité ainsi que la transculturalité qui, en stimulant la créativité, facilitent le développement de l’entreprise apprenante.

Les aspects technologiques

45

Comme nous venons de le souligner, la gestion du capital de savoirs ne se résume pas exclusivement à extraire ou diffuser les informations par la mise en place de nouvelles technologies. Néanmoins, et bien que la technologie ne modifie pas de façon sub-stantielle les connaissances, par définition latentes, elle en facilite l’extraction, la structuration, l’appréhension, la capitalisation, la diffusion, le partage et l’utilisation. Elle permet plus aisément de formaliser l’intelligence et l’expérience des individus afin de rendre accessible la bonne information à la bonne personne au bon moment.

46

Comme il ne peut y avoir de connaissances qu’associées à l’esprit humain, le courant de l’ECD usurpe quelque peu son appellation, mais des outils récents, producteurs de sens ( LEXIMANCER, WEBSOM-cartes de Kohonen, SEMIOMAP, NEWSMAP, VISUAL TEXT MINING, etc.), issus des recherches en intelligence artificielle, proposent déjà une certaine préinterprétation des données ou une synthèse des informations avec une composante sémantique (Crié, 2001). Ces outils, de par leur convivialité et la simplicité des résultats qu’ils fournissent, sont un atout pour le partage des connaissances, bien que la nouvelle logique d’extraction des connaissances supprime l’objectif clairement identifié de la recherche. Les « connaissances » extraites s’imposent au récepteur qui doit alors en opérer une sélection aux fins d’identifier celles potentiellement utiles à l’organisation, dans un contexte et un espace temps.

2. Les enjeux du Knowledge Management

47

Les outputs et enjeux du KM sont, entre autres, à rechercher dans une plus grande maîtrise du développement de produits et services innovants, un accroissement de la valeur délivrée, une meilleure gestion de la relation client et de résolution de leurs problèmes, une plus grande compétence des employés, une meilleure efficience, une dynamique culturelle plus adaptative, une réduction des coûts, procurant in fine un avantage compétitif.

48

Plusieurs étapes se conjuguent et concourent à la réalisation de cet objectif fondamental. La première consiste à organiser la capitalisation des connaissances dont trois processus d’apprentissage ont été individualisés : la collecte de nouvelles connaissances, la codification des connaissances et la combinaison de connaissances acquises (Schulz, 2001). Dans ce qu’il a de rapports avec les savoirs tacites, le KM a pour objectifs d’améliorer l’apprentissage, d’intégrer les différentes compétences et d’éviter leur perte par la transmission des savoirs, la capitalisation des expériences et connaissances passées. La mémoire organisationnelle est donc d’une importance capitale (Levitt et March, 1998), elle s’ancre dans les mémoires individuelles, les systèmes d’archivage, les procédés d’exécution et les structures (Koenig, 1997).

49

La capitalisation ainsi que l’acquisition de connaissances nouvelles sont de puissants moteurs d’innovation. L’entreprise apprenante est à l’écoute du marché, elle anticipe les besoins et désirs exprimés ou latents des clients et leur propose les produits adaptés; les marchés potentiels émergents sont ainsi rapidement détectés et appropriés (Slater et Narver, 1995). L’orientation marché (Jaworski et Kohli, 1993), notamment induite pas les capacités de l’entreprise à intégrer les connaissances externes dans le processus de développement de produits nouveaux, ainsi que la combinaison d’une culture et d’un climat propices à l’apprentissage (dans le sens de l’intégration et de l’utilisation des connaissances) conduisent à la création de valeur supplémentaire non seulement pour le client, mais également pour l’ensemble des partenaires de l’entreprise (Slater et Narver, 1995; Hurley et Hult,1998). Plusieurs mécanismes peuvent, par exemple, contribuer à construire la valeur délivrée au client comme l’innovation des processus, qui permet soit une baisse des coûts, soit une augmentation des avantages procurés, ou l’innovation produit, facteur de valeur au travers l’utilité et les externalités qu’il procure, mais encore l’innovation dans le cadre du Business Model.

50

Il en résulte ainsi globalement une augmentation de la performance de l’entreprise par la modification des comportements tant humains qu’organisationnels grâce aux connaissances. De l’extraction, l’assimilation, la capitalisation, la diffusion, l’utilisation, la modélisation et l’action, il s’agit de créer une dynamique d’apprentissage continue afin d’anticiper le futur et bénéficier en conséquence d’une meilleure position concurrentielle et donc d’une meilleure place sur le marché. C’est de la capacité à apprendre plus vite que les concurrents que l’entreprise retire un avantage compétitif (Slater et Narver, 1995). Enfin, à un niveau stratégique, c’est l’analyse de la valeur du capital de connaissances qui doit éclairer les objectifs d’extraction, de formalisation, de structuration, de capitalisation et de partage des connaissances. Cette évaluation souligne le corpus des connaissances indispensables, désigne le réseau à mobiliser (travailleurs du savoir), puis identifie les sources potentielles d’information (Ermine, 2000).

3. Les freins au Knowledge Management

51

Dans le contexte actuel de transition et surtout au sein des organisations aux structures pétrifiées, la gestion de la connaissance collective supporte de nombreux freins contingents de facteurs organisationnels, des acteurs et des jeux de pouvoir qui lui sont intimement liés, sans oublier les dimensions culturelle et de coût d’accès aux technologies.

52

Les résistances organisationnelles semblent être pour Slater et Narver (1995) ou Hurley et Hult (1998) déterminantes dans l’échec de la mise en place de logiques de KM. Par exemple, l’une des conséquences du bouleversement de structure ou de leur caractère éphémère (groupe de projets) peut engendrer une certaine frustration liée à l’ambiguïté et l’incertitude de l’environnement de travail (Slater et Narver, 1995). D’autres freins résultent du fait que beaucoup d’entreprises s’acharnent à collecter et à stocker de l’information sans pour autant se donner les moyens pour l’assimiler et l’utiliser dans un but stratégique, ce qui est pourtant son ultime destin. Par exemple, nombreuses sont encore les enseignes de grande distribution qui collectent et stockent des quantités prodigieuses d’informations sur le client sans pour autant produire d’analyses régulières et systématiques des comportements d’achat. Le processus de capitalisation nécessaire à la pérennisation des connaissances est consommateur de temps, si des ressources spécifiques n’y sont pas affectées, l’enrichissement risque de n’être que très partiel. Dans le même sens, leur excès de formalisation peut également être néfaste au désir naturel de connaissance et à la curiosité des individus. Notons également que les connaissances formalisées sont certes plus faciles à utiliser mais corrélativement plus difficiles à protéger. C’est une évidence, l’accumulation et l’accès à l’information nécessitent d’être pour le moins régulés et contrôlés. Enfin, pour Becker (2001), des entraves à la gestion des connaissances peuvent résulter de leur dispersion et de leur caractère ubiquitaire ainsi que de la perception du risque contingent à toute innovation.

53

Les capacités créative et novatrice impliquent clairement les individus au plus profond de leur être. Les connaissances étant perçues comme une source de pouvoir et de différenciation, elles se prêtent mal au partage et des systèmes de récompense mal conçus peuvent renforcer cette attitude puis générer un climat de méfiance. Dans ce domaine la transparence semble illusoire, parallèlement la confidentialité de certaines connaissances ajoute de la complexité aux règles de diffusion. De plus, le KM trouve l’une de ses origines dans l’évolution fulgurante des NTIC : l’afflux de données et d’informations ainsi générées submerge complètement les capacités de traitement cognitif de l’individu. Récepteur d’informations multiples, il est contraint de traiter intellectuellement plus d’afférences et l’accélération des processus d’acquisition des connaissances diminue sa faculté de contrôle. Enfin, les outils puissants d’analyse et de traitement des données lui font pareillement perdre du pouvoir, leur ergonomie et convivialité d’utilisation les rendant accessibles au plus grand nombre.

54

D’aucuns considèrent l’absence de culture orientée connaissances comme une barrière primordiale au développement du KM (De Long et Fahey, 2000). Il en est pareillement de la diversité et de la prégnance des « sous-cultures » car de mêmes connaissances peuvent être exprimées de façon différentes par différents spécialistes. Le formalisme du vocabulaire inhérent par exemple au marketing ou à l’informatique peut être un frein à l’assimilation et au partage des connaissances. De façon plus générale la culture du partage n’est pas enracinée naturellement au sein du monde du travail : partager le fruit de ses efforts fait courir le risque d’en perdre la reconnaissance. Conjointement la hiérarchie à tendance à dévaloriser les modes de fonctionnement qu’elle n’a pas lancés (Koenig, 1997). Enfin, l’irruption de cet environnement hautement technologique et cognitif risque également d’ébranler les fondements des pratiques et routines profondément ancrées dans l’inconscient collectif. Les risques de fracture « cognitive » et d’exclusion au sein de l’entreprise sont patents et doivent donc être évalués.

55

De plus, les freins technologiques se super-posent aux difficultés d’assimilation et d’appréhension de technologies qui peuvent parfois être lourdes à manipuler. En outre, les investissements matériels et immatériels sont assez conséquents, certaines technologies sont encore émergentes, et incitent à la procrastination.

CONCLUSION

56

Pour l’entreprise la révolution induite par les NTIC est loin d’être achevée. Non seulement les flux d’information circulante vont s’accélérer et s’amplifier mais les technologies d’analyse de ce type de données vont se développer puis se généraliser. De plus l’essor du recours à l’intelligence économique autorisé par ces outils permet l’anticipation des choix et orientations stratégiques devenue nécessaire sur un marché planétaire. Parallèlement, les évolutions récentes du Web Mining, notamment en matière de multimédia, devraient permettre une assimilation quasi totale d’un univers informationnel externe. Néanmoins, même si les bases de données, les intranets, les SIAD et les progiciels y afférents sont clairement des outils permettant l’acquisition, la capitalisation puis la diffusion des connaissances, ils ne s’attachent qu’à une partie de la connaissance explicite formalisable et sont généralement focalisés sur le marché servi (i.e. actuel) pouvant devenir alors une rigidité pour l’innovation des produits ou des Business Models (Slater et Narver, 1995).

57

Enfin, c’est encore tout récemment que le KM s’est imposé aux entreprises comme un enjeu majeur d’ordre stratégique. La connaissance acquiert une valeur économique et s’analyse comme une ressource stratégique, facteur d’innovation et de créativité, permettant à l’entreprise de s’ancrer dans l’univers concurrentiel. Le KM, en dehors de ses aspects technologiques, convoque les ressources organisationnelles, culturelles et humaines de l’entreprise, représentant autant de freins à sa mise en œuvre : l’inadaptation de la structure aux flux informationnels, la révolution dans l’exercice, le partage et la localisation du pouvoir, le manque de culture orientée connaissances en sont des exemples significatifs.


BIBLIOGRAPHIE

  • R. Agrawal, T. Imielinski, A. Swami, “Mining Associations between Sets of Items in Massive Databases”, International Conference on Management of Data (ACM SIGMOD’93), Washington D.C., 1993.
  • R. Agrawal, R. Srikant, “Mining Sequential Patterns”, 11th International Conference on Data Engineering (DE’95), Taipei, Taiwan, 1995.
  • S. Barthe, « L’impact des technologies du Web sur la gestion des Ressources Humaines »,
  • Les notes du LIRHE, n° 34, Université des Sciences sociales de Toulouse, 2001.
  • M.C. Becker, “Managing dispersed knowledge : Organizational problems, managerial strategies, and their effectiveness”, The Journal of Management Studies, vol. 38, n° 7,2001, p. 1037-1051.
  • F. Blanchot, H. Isaac, E. Josserand, M. Kalika, B. de Montmorillon, P. Romelaer, « Décloisonnée et transversale, l’organisation change », Expansion Management Review, n° 98, septembre 2000.
  • R.A., Botafogo, B. Schneiderman, “Identyfing aggregates in hypertext structures”, third ACM Conference on Hypertext, 1991.
  • M. Callon, J.P. Courtial, W.A. Turner, S. Bauin, “From Translation to Problematic Networks :
  • An Introduction to Co-Word Analysis”, Social Science Information, vol. 22,1983, p. 191-235.
  • R. Cooley, B. Mobasher, J. Srivastava, “Web Mining : Information and Pattern Discovery on the World Wide Web”, 9th IEEE International Conference on Tools with Artificial Intelligence (ICTAI’97), novembre 1997.
  • D. Crié, « NTIC et extraction des connaissances », Cahiers de la Recherche, IAE Lille, n° 8, 2001.
  • T.H. Davenport, D.W. De Log, M.C. Beers, “Successful Knowledge Management Projects”, Sloan Management Review, Winter, p. 43-57,1998.
  • T.H. Davenport, L. Prusak, Working Knowledge : How Organizations Manage What They Know, Harvard Business School Press, 2000.
  • S. Deerwester, S.T. Dumais, G.W. Furnas, T.K. Landauer, R. Harshman, “Indexing By Latent
  • Semantic Analysis”, Journal of the American Society For Information Science, vol. 41, 1990, p. 391-407.
  • D.W. De Long, L. Fahey, “Diagnosing Cultural Barriers to Knowledge Management”, Academy of Management Executive, vol. 14, n° 4, p. 113-127,2000.
  • N. Dixon, Common Knowledge : How Companies Thrive by Sharing What They Know. Harvard Business School Press, 2000.
  • P. Drucker, L’avenir du management, Ed. Village Mondial Paris, 1999.
  • S. Duizabo, N. Guillaume, « Les problématiques de gestion des connaissances dans les entreprises », Centre DMSP, Cahier 252, février 1997.
  • M. Earl, “Knowledge Management Startegies : Toward a Toxonomy”, Journal of Management Information Systems, vol. 18, n° 1, p. 215-233,2001.
  • J.L. Ermine, Les systèmes de connaissances, Hermès science publications, 2000.
  • U.M. Fayyad, G. Piatesky-Shapiro, P. Smyth, R. Uthurusamy, From Data Mining to Knowledge Discovery : An Overview Advances in Knowledge Discovery and Data Mining, janvier 34 AAAI Press MIT Press, 1996.
  • A.H. Gold, A. Malhotra, A.H. Segars, “Knowledge Management : An Organizational Capabilities Perspective”, Journal of Management Information Systems, vol. 18, n° 1,2001, p. 185-214.
  • L. Grivel, C. François, « Une station de travail pour classer, cartographier et analyser l’information bibliographique dans une perspective de veille scientifique et technique », Solaris
  • Les sciences de l’information, bibliométrie, scientométrie, infométrie, n° 2, Presses Universitaires de Rennes, 1995.
  • V. Grover, T.H. Davenport, “General Perspectives on Knowledge Management : Forstering a
  • Research Agenda”, Journal of Management Information Systems, vol. 18, n° 1,2001, p. 5-21.
  • R.F. Hurley, G.T.M. Hult, “Innovation, Market Orientation, and Organizational Learning : an
  • Integration and Empirical Examination”, Journal of Marketing, vol. 62, n° 3,1998, p. 42-54.
  • W.H. Inmom, Building the data warehouse, Prentice Hall, 1996.
  • B.J. Jaworski, A.K. Kohli, “Market Orientation :Antecedents and Consequences”, Journal of Marketing, vol. 57, n° 3,1993, p. 53-70.
  • Y. Kodratoff, “Knowledge Discovery in Texts : A Definition, and Applications”, Foundation of Intelligent Systems, Ras et Skowron (eds.), LNAI 1609,1999.
  • G. Koenig, « Apprentissage organisationnel », Encyclopédie de Gestion, 2nd édition,
  • Simon Y. et Joffre P., Economica, Paris, 1997, p. 171-187.
  • R. Kumar, P. Raghavan, S. Rajagopalan, A. Tomkins, Extracting large-scale knowledge bases from the web, 25th VLDB Conference, 1999.
  • Landauer, T.K. et Dumais, S.T., “A solution to Plato’s problem : The latent semantic analysis theory of acquisition, induction, and representation of knowledge”, Psychological Review, vol. 104,1997, p. 211-240.
  • B. Levitt, J.G. March, “Organizational Learning”, Annual Review of Sociology, vol. 14, 1988, p. 319-340.
  • Y. Malhotra, “Knowledge Management & New Organization Forms :A Framework for Business Model Innovation”, Information Resources Management Journal, vol. 13, n° 1,2000, p. 5-14.
  • A. Mayère, Pour une économie de l’information, édition du CNRS, Paris, 1990.
  • A. Mayère, « La gestion des savoirs face au nouveau modèle industriel », Revue française de gestion, n° 105, septembre-octobre, 1995, p. 8-16.
  • E. Milliot, « Les modes de fonctionnement de l’organisation informationnelle », Revue française de Gestion, n° 125, septembre-octobre 1999, p. 5-18.
  • I. Nonaka, J.K. Johansson, “Japanese Management : What about the ‘Hard’Skills ?” Academy of Management Review, vol. 10, n° 2, p. 181-191,1985.
  • I. Nonaka, “A dynamic theory of organizational knowledge creation”, Organization Science, vol. 5, n° 1,1994, p. 14-38.
  • I. Nonaka, H. Takeuchi, The Knowledge-creating Company-How Japanese Companies
  • Create the Dynamics of Innovation, Oxford University Press, 1995.
  • L. Page, S. Brin R. Motwani, T. Winograd, The Page Rank Citation Ranking : Bringing order to the Web”, WebDB Workshop at 6th International Conference on Extending Database Technology, EDBT, 1998.
  • M. Polanyi, “The Tacit Dimension”, Garden City, N.Y., Doubleday, 1967 cité par R. Madhavan et R. Grover, “From Embedded Knowledge to Embodied Knowledge : New Product Devlopment as Knowledge Management”, Journal of Marketing, vol. 62, n° 4,1998, p. 1-12.
  • V.V. Raghavan, J.S. Deogun, H. Sever (eds.), Introduction (In special topic issue : Knowledge discovery and data mining), Journal of the American Society for Information Science, vol. 49, n° 5,1998, p. 397-402.
  • C.B. Schoonhoven, M. Jelinek, “Dynamic tension in innovative, high technology firms :
  • Managing rapid technological change through organizational structure”, Managing Complexity In High Technology Organizations, M.A.Von Glinow and S.A. Mohrman (eds.), Oxford University Press, p. 90-118,1990.
  • M. Schulz, “The uncertain relevance of newness : Organizational learning and knowledge flows”, Academy of Management Journal, vol. 44, n° 4,2001, p. 661-681.
  • P. Senge, The Fith Discipline, Doubleday, New York, 1990, cité par Slater et Narver, 1995.
  • S.F. Slater, J.C. Narver, “Market Orientation and the Learning Organization”, Journal of Marketing, vol. 59, n° 3,1995, p. 63-74.
  • A. Tan, “Text mining : The state of the art and the challenges”, PAKDD’99 Workshop on
  • Knowledge Discovery from Advanced Databases, Beijing, 1999, p. 65-70.
  • Y. Wilks, Information Extraction as a Core Language Technology, Information Extraction, Paziensa M.T. (ed.), Springer, 1997, p. 1-9.

Notes

[1]

Système informatique d’aide à la décision.

[2]

One Line Analytical Process.

[3]

Cf. Landauer et Dumais (1997).

[4]

Socialization, Externalization, Combination, Internalization.

Résumé

Français

Les NTIC s’inscrivent dans le vaste courant de l’assimilation et du traitement des données. En ce sens le concept d’extraction des connaissances à partir des données s’y intègre parfaitement. La profusion d’informations peut être néfaste à sa compréhension, se sont alors développés des outils en permettant la synthèse dans un souci d’économie cognitive. Le Data Mining, le Text Mining ou encore le Web Mining apportent des solutions à des problèmes nouveaux de gestion des connaissances. Plusieurs implications managériales encore émergentes dans le cadre du Knowledge Management sont ensuite évoquées.

Plan de l'article

  1. I. – L’EXTRACTION DE CONNAISSANCES À PARTIR DES DONNÉES
  2. II. – DE L’INFORMATION À LA CONNAISSANCE
  3. III. – DE L’ECD À L’EXTRACTION DES CONNAISSANCES À PARTIR DE TEXTES
  4. IV. – DE L’ECT AU WEB MINING
  5. V. – DE L’EXTRACTION DES CONNAISSANCES AU KNOWLEDGE MANAGEMENT
    1. 1. Les différents aspects du Knowledge Management
      1. Les aspects organisationnels
      2. Les aspects humains
      3. Les aspects culturels
      4. Les aspects technologiques
    2. 2. Les enjeux du Knowledge Management
    3. 3. Les freins au Knowledge Management
  6. CONCLUSION

Pour citer cet article

Crié Dominique, « De l'extraction des connaissances au Knowledge Management », Revue française de gestion 5/ 2003 (no 146), p. 59-79
URL : www.cairn.info/revue-francaise-de-gestion-2003-5-page-59.htm.
DOI : 10.3166/rfg.146.59-79


Article précédent Pages 59 - 79 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback