Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2001/3 (Vol. 38)

  • Pages : 60
  • DOI : 10.3917/docsi.383.0210
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 210 - 219 Article suivant

Vers une nouvelle génération de services d’information électroniques

1

TOUTE ORGANISATION A BESOIN POUR FONCTIONNER, aujourd’hui plus que jamais, d’une architecture informationnelle adaptée à ses objectifs. L’arrivée de nouveaux médias (internet/intranet, téléphonie mobile) modifie considérablement le paysage informationnel des entreprises en donnant des possibilités nouvelles dans la gestion de l’information ; et elle entraîne une certaine exigence de la part des usagers. Nombreux sont les acteurs de l’industrie de l’information qui saisissent cette opportunité de développer de nouveaux services d’information électroniques spécifiquement conçus pour répondre aux attentes des usagers professionnels.

2

Ils se caractérisent, on va le constater, par une attention toute particulière au contenu. En effet, la technologie et les infrastructures qui en découlent sont largement au point, mais l’industrie du contenu est encore à développer et est promise à un bel avenir. Cette conférence a donc permis de découvrir la nouvelle offre professionnelle de certains d’entre eux.

Des portails d’entreprise

3

Yahoo !, qui se présente comme le premier portail Internet avec plus de 192 millions d’utilisateurs par mois, diversifie son offre depuis 1998 en direction des entreprises en leur proposant des portails d’entreprise. L’accent est mis sur la personnalisation (l’usager crée sa propre page, son propre environnement) avec une approche qui se veut différente : centrer l’application sur l’usager, rationaliser l’accès aux applications, véhiculer l’information rapidement et de façon ciblée afin de la valoriser. Fort de son expérience auprès du grand public, Yahoo ! veut relier l’information du Web au monde de l’entreprise, en fournissant une information locale adaptée au public du pays concerné. Son ambition : que le service aux entreprises représente, d’ici la fin de l’année 2001, 15 % de son chiffre d’affaires.

Des services pour animer les communautés d’affaires

4

L’offre de la société VirComOnline repose sur une idée intéressante et originale à la fois : la conviction que tout individu est membre de communautés sur le plan professionnel ou personnel, mais de communautés rarement formalisées et sans structure physique. Internet est alors le support idéal pour créer ces communautés d’affaires, fondées sur des intérêts communs.

Une nouvelle génération de services électroniques d’information

L’arrivée d’un nouveau média, en l’occurrence celle d’Internet, entraîne-t-elle nécessairement la création de nouveaux services ? L’exigence d’une architecture informationnelle adaptée aux objectifs de l’entreprise amène à s’interroger sur l’opportunité de développer de nouveaux services d’information électroniques spécifiquement conçus pour de nouvelles catégories d’usagers. Qu’ils soient agrégateurs de contenus (Qwam), infomédiaires (Presse+, Factiva) ou fournisseurs d’infrastructures (VirComOnline, Yahoo !), les intervenants de cette conférence présidée par Philippe Micouleau, président de l’AGEFI, sont convaincus qu’un tel média génère de nouveaux besoins et de nouveaux usages, et que leur offre de services peut répondre à cette nouvelle demande des entreprises.

5

L’entreprise apporte son savoir-faire en matière d’infrastructures (outils informatiques et de gestion des communautés), mais elle fournit également les contenus à ses clients qui se composent d’entreprises, d’associations, de salons… Plusieurs constatations peuvent déjà se dégager de cette expérience : le client est prêt à payer l’information à condition qu’elle ait une valeur ajoutée ; le prix n’est pas un critère différenciateur en soi mais c’est le principe même du prix qui est une barrière ; les réflexes ASP (application server provider) ne sont pas encore entrés dans les mœurs ; la communauté suppose un échange, mais le public français a ce travers de prendre l’information sans réellement apporter sa contribution et il préfère soumettre une question à un intermédiaire plutôt qu’à la communauté.

6

Ces communautés professionnelles, qui se font connaître essentiellement par le « marketing viral » (bouche à oreille), fonctionnent sur le mode de l’abonnement payant, modèle économique plus sain qui, selon le fondateur de VirComOnline, permet de construire l’avenir. Il préconise le développement de communautés de niche avec le courrier électronique comme critère de qualification, et le souci de marier virtuel et réel en provoquant des rencontres physiques entre les membres.

Des intégrateurs de contenus pour intranets d’entreprises

7

Pour asseoir sa notoriété et son succès, Qwam, intégrateur de contenus, mise complètement sur cette spécificité : l’alimentation en contenus des intranets d’entreprise. Le constat que la surabondance d’informations, aussi bien internes qu’externes à l’entreprise, structurées ou non, noie l’utilisateur et donc nuit à son efficacité, a amené Qwam à proposer la solution du portail d’entreprise avec point d’accès unique grâce à une couche logicielle spécifique. Les facteurs clés de succès d’un tel projet se déclinent ainsi : personnalisation en fonction des besoins de l’usager plus évolutivité ; intégration des technologies et des contenus (fonder les applications sur des outils standards du marché pour assurer évolution et pérennisation) ; qualité du contenu avec forte valeur ajoutée dans le respect des droits d’auteur.

Fourniture de contenus et d’applications de gestion de l’information

8

À travers une application métier – le projet d’un nouveau service d’information intégré pour l’intranet de la direction de la communication de l’Oréal – la société Presse+, infomédiaire, a présenté son offre professionnelle globale fondée sur la fourniture de contenu presse et sur des applications de gestion de l’information. Celles-ci intègrent à la fois les sources internes et externes de l’entreprise, auxquelles s’ajoute le service de Presse+ qui propose une base d’articles de presse, un panorama de presse (défini spécifiquement pour le client), la veille audiovisuelle, l’analyse de la médiatisation de la société (présence de l’entreprise dans la presse), le module de recherche, la diffusion selon profil et la gestion des droits de diffusion. À ce propos, Presse+ souhaite un business model qui réponde aux contraintes à la fois des éditeurs et des entreprises, avec des tarifs supportables par celles-ci et un retour sur investissement positif.

9

Factiva, joint venture entre Reuters et Dow Jones, et qui remplace le produit équivalent des deux partenaires, est fournisseur d’informations mondiales (la base se compose de plus de sept mille sources) dans le domaine financier. Sa devise : « avoir la bonne information au bon moment » se concrétise par le système Factiva Intelligent Service, modèle de catégorisation des documents à l’aide de codes (entreprise, industrie, géographique) qui simplifient la recherche. Cette tâche d’indexation (attribution des codes) est automatisée et permet une classification plus aisée des documents.

Diversification et complémentarité

10

On le constate, tous les acteurs diversifient leur offre en direction des entreprises et élargissent leur métier d’origine en l’enrichissant par de nouveaux services. Les métiers se rejoignent et les différents acteurs jouent la carte de la complémentarité. Les niveaux de valeur ajoutée (dont l’importance a été soulignée par tous les participants), différents, se singularisent dans les sources et les formes qu’ils prennent dans une logique d’intégration qui semble irréversible.

La communication scientifique dans l’environnement numérique

Cette session, présidée par Philippe Lazar, président de l’Institut de recherche pour le développement (IRD), et coordonnée par Jean-Claude Le Moal, du service d’information et de communication scientifique de l’INRIA, proposait de considérer les mutations apportées au monde de la communication scientifique par l’environnement numérique. Différents aspects de cette question ont été abordés :

- Publication, édition, accès, quel modèle économique pour les médiateurs ? par Jean-Michel Salaün, professeur à l’ENSSIB ;

- Synergies entre la littérature grise et les journaux électroniques, par Corrado Pettenati, directeur de la bibliothèque du CERN, à Genève ;

- La communication scientifique directe et les archives ouvertes, par Franck Laloë, directeur du Centre pour la communication scientifique directe (CCSD) du CNRS ;

- Vers le monopole de l’information ? par Modane Marchand, directrice commerciale de l’agence d’abonnements EBSCO France ;

- Le rôle des éditeurs dans un marché en évolution, par Catherine Duval, de la direction de la communication d’EDP Sciences.

11

Bernadette Ferchaud

La communication scientifique électronique

12

AVEC LE DEVELOPPEMENT de l’environnement numérique, les bibliothèques ne correspondent plus à un modèle unique, souligne Jean-Michel Salaün, de l’École nationale supérieure des sciences de l’information et des bibliothèques (ENSSIB).

Quel modèle économique pour les bibliothèques ?

13

L’ouverture vers l’extérieur est désormais acquise au niveau des collections, constituées également à présent de fonds numérisés par les bibliothèques elles-mêmes, ce qui fait d’elles des éditeurs, et de fonds extérieurs dont l’accès est négocié ou libre, ce qui pose des problèmes juridiques et économiques nouveaux. Aux techniques classiques de signalement s’ajoutent des moteurs et des portails, conçus souvent par des organismes extérieurs. Mais la multiplication des délégations, souvent tacites d’ailleurs, est un enjeu pour la maîtrise de l’information, susceptible d’échapper aux bibliothèques.

14

Quant à l’ouverture potentielle à l’ensemble des « lecteurs » de la planète, elle pose de manière cruciale le problème du financement d’une institution dont la vocation n’est pas internationale. L’évolution est en cours, et il est difficile d’envisager aujourd’hui de présenter un modèle figé pour les médiateurs que sont les bibliothèques.

Littérature grise et journaux électroniques

15

Le modèle développé depuis plusieurs années dans le domaine de la physique, où la recherche fondamentale est prédominante, a conduit à une libre circulation de l’information. Séduisant, ce modèle peut difficilement, en revanche, être transposé tel quel dans toutes les disciplines, ou permettre un accès aisé à un public plus large que celui de la communauté des chercheurs. De nombreuses expériences se poursuivent dans ce cadre.

16

Grand utilisateur et producteur de littérature grise, le CERN (Centre européen de recherche nucléaire), représenté par Corrado Pettenati, a mené un travail sur la synergie entre la littérature grise et les journaux électroniques. Après s’être penché d’abord sur les prépublications, fondamentales en raison des délais importants, toujours incompressibles, avant toute publication, puis sur les thèses, l’étude a permis de déterminer les règles d’uniformisation des notices de descriptions, et les bases d’accords avec différents éditeurs. La réflexion se porte à présent sur le format xml, la préparation des métadonnées fournies directement par les auteurs, la mise au point de moteurs spécialisés.

La communication scientifique directe et les archives ouvertes

17

Le centre pour la communication scientifique directe (CSD), créé au sein du CNRS, est présenté ensuite par Franck Laloë. Il se fonde sur l’expérience des archives ouvertes permettant à un chercheur d’archiver les articles soumis à des journaux scientifiques dans une base de prépublications disponible gratuitement dans le monde entier. Le système est « bousculé « par le droit de la propriété intellectuelle, qu’il aurait d’ailleurs également fait évoluer, puisque des consensus sur de nouvelles bases avec certains éditeurs ont déjà été atteints. Ce centre rend largement disponible un gisement considérable d’informations, ce qui permet une meilleure connaissance du processus de création et un accès à un large public.

18

En revanche, il est difficile de maintenir sous sa forme classique le système d’évaluation par les pairs. Or, la qualité de ce dernier doit être préservée car il capital pour les scientifiques, en termes de notoriété et de financement des laboratoires. Cela met d’ailleurs en évidence le problème d’une relation à établir entre deux économies qui s’articulent plus ou moins harmonieusement. Le CSD souhaite agir sur la consolidation technique et l’internationalisation du système, et obtenir un impact dans d’autres disciplines.

Vers un monopole de l’information ?

19

Quelle place reste-t-il pour les agences d’abonnements dans ce système ? Modane Marchand, d’EBSCO France, nous a laissés dubitatifs. Elle a rappelé que les marges de ces dernières s’effritent sous la pression des éditeurs et des bibliothèques, et sous le poids des investissements nécessaires à la création de portails électroniques. En outre, certains éditeurs préfèrent négocier directement avec leurs clients. Ces éditeurs privilégiant la négociation avec les consortiums, les bibliothèques isolées seraient écartées du système. Les autres qui y perdraient des services d’aides à la facturation et les effets de volumes gérés par les agences d’abonnement, auraient des frais de gestion supplémentaires. Ceci poserait des problèmes de gestion de contrat lors des rachats de maisons d’édition, très fréquents à l’heure actuelle.

Éthique, technologies et conservation de l’information

La conservation de l’information à court terme, mais plus encore à long terme, pose des problèmes techniques et en même temps doit s’ordonner selon des normes, des principes juridiques et des comportements moraux et éthiques. En explicitant les NTCI (nouvelles technologies de conservation de l’information), cette session présidée par Jean-Pierre Bernat, consultant, et coordonnée par Jacques Portevin, de la société Saint-Gobain et président de l’Association des archivistes français, visait à définir les principes et les méthodes d’une archivistique moderne :

  • Les archives historiques face aux technologies de conservation, par Thibaut Girard, responsable de la mission archives d’EDF-GDF ;

  • Préserver l’existence et la qualité de l’information : une exigence morale, par Marie-Anne Chabin, présidente d’Archive 17 ; - Possibilités et contraintes des technologies de conservation de l’information : des NTIC aux NTCI, par Bruno Couderc, directeur de BJC Consultants ;

  • L’éthique et le droit dans la conservation de l’information, par maître Thierry Piette-Coudol, avocat à la cour ;

  • Les stratégies pour la conservation à long terme des documents électroniques, par Hans Hofman, Ministry of the interior and kingdom relations, Pays-Bas.

20

Le modèle de l’édition scientifique, rappelle-t-elle, tend à diminuer le nombre des intervenants et à créer des monopoles. Les agences tendent à disparaître, ajoute-t-elle. Devons-nous en conclure qu’elles n’auraient pas su s’adapter à un nouveau contexte ?

Les éditeurs dans un marché en évolution

21

L’exposé de Catherine Duval, EDP Science, en revanche, met l’accent sur l’adaptation réussie d’un éditeur aux nouvelles règles de la communication scientifique, plus complexes certes, mais offrant de multiples possibilités plus ou moins sophistiquées d’accès à l’information. Des défis sont prêts à être relevés par l’éditeur qui est à l’écoute de son public. On les trouve dans le domaine économique où la notion d’abonnement est remise en cause par l’accès libre et gratuit à l’information et implique de nouveaux types d’accords, permettant de survivre à côté des gisements à accès gratuits. On les trouve également dans le domaine technique qui implique des compétences nouvelles afin de pouvoir proposer une information sur mesure par le biais de divers outils qui restent à développer.

22

Le métier d’éditeur évolue, et cette évolution varie considérablement selon le type d’éditeur et le contexte dans lequel il opère ; mais il se fonde toujours sur des pratiques traditionnelles, liées à une éthique et à un savoir-faire.

23

Michèle Battisti

Éthique et technologies de conservation de l’information

24

BIEN QUE LA PROBLEMATIQUE traditionnelle de l’archive reste fondamentalement la même, les technologies de conservation de l’information, qui ouvrent des perspectives nouvelles de mise en valeur des supports traditionnels et de communication à un public éloigné et potentiellement illimité, lancent aux professionnels plusieurs défis. Outre les arbitrages qu’il faut faire sur les critères de choix des documents à numériser et des types de publics à privilégier, Thibaut Girard a choisi d’évoquer les conséquences de certaines questions juridiques et techniques.

Les archives historiques face aux techniques de conservation

25

Dans l’environnement numérique, il est difficile de garder un contrôle sur l’usage des documents, ce qui implique de nouvelles responsabilités. La solution qui consiste à produire une image de médiocre qualité pose évidemment un problème moral, impose un calcul du rapport coût/efficacité et soulève des problèmes de crédibilité des services d’archives – d’où la nécessité d’agir avec beaucoup de circonspection dans un cadre juridique et éthique encore peu sûr. Les archives sont, en outre, plus que jamais tributaires d’infrastructures techniques, imposant une préservation active qui consiste à intervenir dès la constitution des systèmes afin de pouvoir conserver des clés d’accès pérennes ; cela implique de nouvelles méthodes de travail et l’établissement de règles permettant de réaliser un archivage numérique dans de bonnes conditions. L’archiviste doit songer également à se positionner face à un nouveau métier, celui de tiers certificateur, aux contours encore flous, mais amené à avoir un poids croissant avec le recours généralisé au document et à la signature électroniques.

Préserver l’existence et la qualité de l’information

26

C’est sur la nécessité croissante pour l’archiviste de faire preuve de capacité d’anticipation que Marie-Anne Chabin a choisi de mettre l’accent, ainsi que sur celle d’opérer un contrôle permanent sur l’accessibilité des contenus (de l’information brute, et des outils qu’il lui incombe souvent de créer) et des contenants (support, locaux et outils), en fonction d’un rapport entre coûts et objectifs qui soit supportable. Des risques nouveaux sont apparus avec la volatilité des supports numériques et la prolifération d’une information de plus en plus souvent dénuée de tout caractère formel. L’instabilité des documents et des producteurs d’information rend la tâche de collecte difficile, ce qui implique un surcoût nécessaire pour pouvoir la récupérer, des responsabilités accrues mais diffuses, d’où des hésitations et certain malaise face aux exigences morales de conservation pérenne qui subsistent.

27

Marie-Anne Chabin insiste également sur la notion de « préservation active « qui consiste à opérer en amont, dès la création et la conception de l’information, en assurant aide et conseil, seul moyen de générer une information utile dans la continuité et de répondre aux nouvelles exigences du « saut technologique « actuel.

Les nouvelles technologies de conservation de l’information

28

L’approche de Bruno Couderc, plus technique, est articulée en trois parties relatives à la conservation, à la norme d’archivage électronique et à la mise en œuvre de l’archivage. Après que l’on a défini ce qui doit être conservé et l’objectif de la restitution, la solution qui peut être adoptée doit obéir aux critères de pérennité, d’intégrité, de fidélité et de sécurité. Elle implique un choix dans le degré de granularité de l’information, dans sa codification et dans sa structuration. Avec la généralisation proche du document et de la signature électroniques, l’importance des choix techniques - dont certains aspects sont difficilement réversibles – est plus que jamais prédominante.

29

L’information doit être organisée et fixée pour pouvoir être restituée de manière lisible et compréhensible. Une norme AFNOR Z 42-013 [1][1] Norme NF Z 42-013 - Archivage électronique : recommandations... permet de concevoir et d’exploiter au mieux les systèmes de gestion de documents et d’archivage électronique, en vue d’assurer la conservation et l’intégrité des documents stockés dans ces systèmes. Dans ce cadre aussi, une veille doit être envisagée pour effectuer une vérification périodique de la lisibilité et opérer d’éventuelles migrations vers d’autres formats et d’autres supports, dans le respect des règles légales limitant parfois les traitements autorisés. En raison des difficultés techniques et des obligations légales sous-jacentes, ces tâches sont susceptibles d’incomber à des professionnels spécialisés, les tiers de confiance.

L’éthique et le droit dans la conservation de l’information

30

La loi du 13 mars 2000 sur la signature électronique représente une véritable révolution car désormais l’écrit peut être conçu sous deux modalités différentes : le papier et l’électronique. Mais le support numérique doit toujours permettre d’identifier la personne dont il émane, et de s’assurer de l’intégrité du document établi pour sa conservation, voire sa restitution. Ces deux conditions renvoient à un instrument technique, la signature électronique – simple condensé chiffré – que le destinataire doit pouvoir déchiffrer grâce à un système de clés cryptographiques, décrit de manière précise par maître Thierry Piette-Coudol.

31

Celui-ci souligne que tous les documents ne sont pas concernés (les actes authentiques [2][2] Acte authentique : tout document établi par un officier..., par exemple) et qu’en outre, dans certains cas, le contrat doit être envisagé, pour régler, par exemple, certains aspects qui demandent des garanties plus fortes. Quoi qu’il en soit, les besoins de certification et d’archivage sécurisés sont appelés à croître, suscitant la création de nouveaux métiers, comme les tiers certificateurs ou les tiers archiveurs, qui permettent de mettre en œuvre la gestion électronique de documents [3][3] Voir Le guide de l’archivage électronique sur le site....

Les stratégies pour la conservation à long terme des documents électroniques

32

Tous les gouvernements souhaitent favoriser l’usage de documents électroniques alors que l’environnement de ces derniers n’est pas encore fixé, en particulier tous les aspects relatifs à la conservation à long terme. C’est ce que nous rappelle Hans Hartman, du ministère hollandais de l’intérieur. Il ajoute pourtant que diverses actions sont menées au niveau international, comme le « modèle de référence d’un système d’archivage ouvert » (Open Archive Information System, ou OAIS [4][4] Reference Model for an Open Archival Information System...), norme développée pour garantir l’interconnexion des bases de données et des documents numérisés, et susceptible de minimiser les effets de l’obsolescence de technologies. Ce modèle inciterait à rechercher des formats de représentation des documents et des données qui soient indépendants des systèmes et des logiciels utilisés, concept clé permettant de remédier à la volatilité de l’environnement technologique, sur lequel Hans Hartman a mis l’accent dans son exposé.

33

Une intervention qui s’est avérée très technique puisque l’orateur a évoqué tous les aspects liés à l’utilisation des métadonnées, ainsi que différentes stratégies oscillant entre migration – transfert sur une autre plate-forme et dans un autre format – ou émulation – restauration virtuellement, sur une machine récente, de l’environnement obsolète dans lequel le document a été créé - et d’évoquer plusieurs initiatives récentes. Il conclut en mettant l’accent sur le fait qu’il ne peut y avoir de stratégie unique, sur la nécessité d’adopter une approche pro-active, de connaître les modèles de référence et de collaborer à différentes initiatives dans une perspective pluridisciplinaire.

Droit de la propriété intellectuelle et économie de l’information

l’ère du développement de la culture de la gratuité, usagers et nombre d’intermédiaires souhaiteraient s’affranchir du poids des droits. Ils les regardent comme un frein, voire comme un obstacle à l’accès, au traitement et à la circulation de l’information. Assurer la compatibilité du modèle du droit de la propriété intellectuelle et de la gestion de ces droits dans l’économie de l’information est un objectif majeur, mais faut-il réélaborer le système ou procéder à des adaptations ? Cette session, présidée par maître Jean Martin, avocat au barreau de Paris et chargé d’enseignement à l’université Paris-Dauphine, entendait apporter des éléments de réponses aux questions d’ordre juridique que se posent de plus enplus les professionnels de l’information : les « nouveaux » métiers de l’information devront-ils être hors la loi ou hors de l’économie ? (Jérôme Flament, de la société Mediapps) ; y a-t-il exclusion ou convergence entre les modèles américain et européen ? (Laurent Cohen-Tanugi, avocat aux barreaux de Paris et New-York, Associé SCP Cleary-Gottlieb-Steen-Hamilton Avocats)…

M. B.

L’économie des droits de propriété intellectuelle et l’économie de l’information

34

L’EVOLUTION ACTUELLE des techniques et des acteurs, souligne en introduction maître Jean Martin, avocat au Barreau de Paris, implique à terme un nouvel équilibre des droits ; mais la société de l’information, qui s’est construite sur des matériels de communication qu’elle accepte de payer, hésite, en revanche, à rémunérer les auteurs de contenus dont la valeur est pourtant reconnue. Il est vrai que les technologies permettent une plus grande liberté, voire la gratuité ; mais mépriser sur une longue période l’investissement et la créativité mettrait en difficulté l’équilibre très menacé du système actuel. Le modèle traditionnel fondé sur la propriété littéraire et artistique, autrement dit sur les beaux-arts et les belles-lettres, peut-il néanmoins subsister dans ce nouveau contexte ?

Les liens et la loi

35

C’est la problématique du lien qui est abordée dans un premier temps par Jérôme Flament, représentant la société Mediapps qui conçoit des portails d’entreprise. Tout lien établi implique, en effet, une autorisation des ayants droit, qui l’accordent encore souvent par de simples courriers électroniques, fax ou courriers qui offrent des garanties juridiques moins fiables que le contrat. Ce dernier est davantage utilisé pour obtenir le droit de reproduire l’information et de la stocker. La publicité sur Internet étant moins rentable, les éditeurs tentent de percevoir des droits en accordant des licences de reproduction ; mais certains peuvent refuser de voir des sites tiers utiliser leur réputation. S’il est reconnu maintenant que le framing, source de concurrence déloyale et de parasitisme, est totalement interdit, une clarification juridique du statut du lien reste encore nécessaire, comme le prouve la discussion qui a suivi cette intervention.

36

En effet, le lien donnant accès à l’information utile à divers publics est une technique indispensable pour les professionnels de l’information. Or, la demande d’autorisation, voire la négociation des droits, est une procédure lourde. Il semble, en outre, que nombre de sites, n’obéissant pas à des objectifs commerciaux, n’auraient aucune réticence à l’accorder. Jean Martin suggère alors que l’on s’appuie sur le principe de réciprocité des apports, principe sur lequel le législateur s’est fondé pour accorder une exception à la revue de presse journalistique ; il rappelle que l’intégration d’une nouvelle œuvre dans une œuvre seconde implique une réécriture et que, pour être toléré, l’emprunt doit être bref.

37

Pour les professionnels, une différence doit être faite entre une captation de l’information et un simple signalement n’impliquant pas un transfert de contenu. Mais il s’agit d’une question d’échelle : si seul le caractère systématique était répréhensible, ajoute Jean Martin, se poserait toujours le problème du fondement même d’un métier ciblé sur l’accès, puisque dans ce cas les signets n’auraient plus aucune légalité.

38

Le débat n’a pu se conclure mais, quoi qu’il en soit, il semble définitivement acquis que toute analogie avec le papier pose les plus grandes difficultés.

Le sceau « Adhérent au code de déontologie du GFII »

Dès 1997, le GFII a estimé nécessaire de définir des principes éthiques qui puissent servir de référence à tous les professionnels de l’industrie de l’information électronique. L’adhésion à un tel code de déontologie montre que les organismes adhérents sont dignes de confiance, puisqu’ils se sont engagés à respecter ces dispositions. Lors d’Idt/Net 2001, une nouvelle étape a été franchie avec la création d’un sceau « Adhérent au code de déontologie du GFII « et la mise à jour de ce code, rendue nécessaire par l’évolution rapide des technologies et l’apparition de nouveaux acteurs. Cette demi-journée a été l’occasion de présenter le sceau et la nouvelle version du code, autour des thèmes suivants : les données personnelles, la rediffusion d’information, les bases de liens, les chiffres de fréquentation des sites Internet, la facturation des services…

Participaient à ce débat, animé par Michel Vajou (MV Études et Conseil), des représentants des associations suivantes :

- ACSEL : Association pour le commerce et les services en ligne, <wwww. afcee. asso. fr/ acsel/ accueil.htm>

- ADBS : Association des professionnels de l’information

et de la documentation, <www. adbs. fr>

- ADIJ : Association pour le développement de l’informatique juridique, <www. adij. asso. fr>

- AFA : Association des fournisseurs d’accès et de services Internet, <www. afa-france. com>

- APROGED : Association des professionnels de la gestion électronique de l’information et des documents pour l’entreprise, <www. aproged. org>

- FIGEC : Fédération nationale de l’information d’entreprises et de la gestion de créance, <www. figec. com>

- GESTE : Groupement des éditeurs de services en ligne, <www. geste. fr>

- GFII : Groupement français de l’industrie de l’information, www. gfii. asso. fr

Les modèles américain et européen : exclusion ou convergence ?

39

Est-il fondé de présenter les modèles américain et européen comme des systèmes antagonistes ? C’est ce qu’examine ensuite Laurent Cohen-Tanugi, avocat des barreaux de Paris et New York, à partir de l’analyse du statut juridique des logiciels et de la propriété littéraire et artistique sur les deux continents.

40

Le logiciel [5][5] Voir aussi : La brevetabilité des logiciels, Actualités..., au départ, était protégé uniquement par le droit d’auteur ou le copyright. Aux États-Unis, il est devenu rapidement brevetable mais, en Europe, les logiciels ayant une incidence technique ont pu l’être très rapidement aussi. Le nombre global des logiciels brevetés a donc considérablement augmenté. Néanmoins, aux États-Unis, on est très laxiste sur le nombre de brevets accordés, la recherche d’antériorité y est plus complexe et la contrefaçon plus facile à alléguer dans le cas des brevets. La question, complexe, oppose toujours, sur les deux continents, les grandes entreprises et les conseillers de propriété intellectuelle aux tenants du logiciel libre.

41

Le copyright serait-il mieux adapté à la société de l’information que le droit d’auteur, en permettant davantage de flexibilité quand l’œuvre se collectivise et s’industrialise ? Sans doute, mais les États-Unis n’échappent pas aux procès liés à la rémunération des droits, comme le prouvent, par exemple, les actions des majors du disque contre Napster et les sanctions prises contre tous les systèmes gratuits. En outre, lorsque l’on examine deux textes conçus pour ratifier les traités de l’Organisation mondiale de la propriété intellectuelle (OMPI) [6][6] <www. wipo. int> : le Digital Millenium Copyright Act (DMCA) pour les États-Unis et la directive communautaire sur le droit d’auteur pour l’Europe, on s’aperçoit que de part et d’autre de l’Atlantique on ne poursuit pas les même objectifs. L’Europe, qui doit harmoniser diverses législations, produit des textes plus généraux, facilitant tout type d’adaptation ultérieure, alors que les États-Unis ont une approche plus procédurale mais très rigide et très protectrice qui incite à multiplier les systèmes de contrôle, à proposer des paiements à l’acte, pour des œuvres présentées quelquefois à un niveau de granularité très fin.

42

On est sans doute parvenu aujourd’hui à un niveau excessif aux États-Unis, d’où ces délais très longs dans les procès, ces allers et retours infinis pour « affûter ses armes et prendre position «, qui prouvent que l’on assiste en ce moment à une redéfinition de l’équilibre juridique et économique dans ce processus large de convergence visant à intégrer le réseau Internet.

43

M. B.

Adhérent au Code de déontologie du GFII : un label de confiance sur Internet

44

LA PRESENTATION D’UN CODE DE DEONTOLOGIE publié par le Groupement français de l’industrie de l’information (GFII) [7][7] Code de déontologie, GFII, mai 2001, <www. gfii. asso.... a permis à plusieurs associations représentant divers métiers de la chaîne de l’information de présenter les réflexions et les actions qu’elles mènent en la matière.

45

Chacune d’entre elles, bien évidemment, met plus particulièrement l’accent sur certains aspects : la transparence des règles pour favoriser le commerce électronique (ACSEL) ; la sensibilisation et la formation aux règles du droit d’auteur ainsi que la recherche d’un équilibre entre protection des ayants droit et circulation de l’information par un dialogue avec les pouvoirs publics et les acteurs, un meilleur accès aux données publiques (ADBS) ; les modalités de l’accès au droit et l’anonymisation des décisions de justice (ADIJ) ; la responsabilité des acteurs, la protection des données personnelles et un système favorisant la corégulation (AFA) ; la normalisation et la reconnaissance des métiers liés à la certification et, de manière plus ponctuelle, en ce moment, une campagne à mener pour éviter la taxation des supports numériques pour des usages professionnels (APROGED) ; la protection des données personnelles et l’accès aux données publiques (FIGEC) ; une clarification des règles pour l’utilisation des contenus (GESTE) ; un label de qualité pour l’information diffusée sur les réseaux (GFII).

46

Très rapidement, un débat s’est engagé sur le statut des liens profonds, à propos duquel des dissensions subsistent entre les usagers et les producteurs : pour les premiers, ces liens représentent de simples instruments de signalement et des moyens de valorisation de l’information ; les seconds craignent une captation de l’information et ils souhaitent voir ces liens garantis par des contrats et divers moyens de protection technique. Si l’on peut envisager effectivement qu’ils soient encadrés, en échange d’assurance sur leur fiabilité et sur leur stabilité, le principe d’une demande d’autorisation systématique est un processus trop lourd, qui remet en cause le principe même du réseau et les pratiques inhérentes à plusieurs métiers. Ces liens ne sont pas susceptibles de menacer davantage les producteurs que dans l’environnement traditionnel. Le débat est resté ouvert.

47

Aucune prise de position très nette sur l’autorégulation ni la norme de droit – autre question posée par Michel Vajou –, considérées généralement comme étant complémentaires et devant être articulées harmonieusement. Beaucoup de flou également sur les modes de contrôle et les sanctions, indispensables pour créer la confiance : une simple déclaration des usages et un contrat pour fixer les règles de contrôle et un recours éventuel à un médiateur (ADBS) ; un accord contractuel systématique (GESTE) ; un simple code de conduite, mais avec exclusion des membres qui ne le respectent pas (FIGEC, ACSEL, AFA). Il a été également rappelé que l’autorégulation n’est pas ancrée dans nos traditions, mais aussi qu’une évolution pourrait être envisagée sur ce plan, comme le prouve, par exemple, la création récente du Forum des droits de l’Internet fondé sur cette logique.

48

Michel Vajou conclut en constatant, entre autre, qu’il existe encore une géopolitique de la déontologie et que les bases macro-économiques, permettant par exemple de connaître l’impact réel des pratiques illicites en matière de droit d’auteur au niveau international et d’alimenter le débat de manière constructive, font toujours cruellement défaut.

49

M.B.

La téléphonie mobile, nouveau moyen de diffusion de l’information

50

DEJA PLUS DE 32 MILLIONS DE FRANÇAIS sont équipés d’un téléphone mobile en France ! Ce marché encore naissant, qui ouvre de nouvelles perspectives pour la diffusion de l’information électronique, est-il l’occasion de nouvelles opportunités pour les producteurs et diffuseurs d’information ? L’infrastructure, déjà existante, implique nécessairement la création de services à valeur ajoutée pour répondre à la demande potentielle. Cette conférence entendait faire le point sur l’évolution technologique concernant la téléphonie mobile, sur les services déjà en place ou en projet proposés par les opérateurs, sur les possibilités qu’offre ce nouveau canal de diffusion. Inévitablement, se posent les problèmes de tarification, toujours difficiles à résoudre pour satisfaire à la fois les opérateurs et les usagers, mais également les enjeux liés au contenu, sans quoi la technologie est vide de sens.

51

Malgré la défection des congressistes d’IDT à cette session, dont le sujet éminemment actuel et pointu aurait dû intéresser les professionnels de l’information, les orateurs ont fait preuve de beaucoup de respect pour les auditeurs présents, tout d’abord en maintenant leur présence mais également en leur offrant des interventions de très haute qualité.

Perspectives de la téléphonie mobile

L’explosion de la téléphonie mobile a permis à des millions de personnes de disposer d’un nouveau type de terminal, personnel, mobile et sécurisé. Les technologies évoluant, les données s’ajoutent à la voix. Comment peut-on tirer profit de ce nouveau canal pour diffuser et vendre de l’information ? L’expérience des éditeurs français avec le Minitel est-elle un avantage pour ce média ? Est-il possible de facturer cette information ?

À cette session présidée par Frédéric Spagnou (Gemplus international) participaient D. Sainthorant (Fimms), V. Gerfaud (Cegetel), J. Jacob (ZD Net), J.-L. Lievin (Alcatel) et C. de Mersan (Yahoo!).

La technologie

52

Quelques repères sur les différentes technologies en jeu dans le monde du mobile.

53

Texto, de France Télécom, s’appuie sur la technologie SMS (short messaging service), technique simple à utiliser et parfaitement maîtrisée par ses concepteurs, notamment sur le plan de la facturation. Elle permet l’envoi de petits messages de portable à portable. Commun à tous les réseaux et à tous les terminaux, le SMS révèle un potentiel de croissance important. Les services, déjà nombreux et variés, ont rencontré un véritable succès auprès des usagers.

54

WAP (Wireless Application Protocol) permet de consulter du contenu Internet à partir de son portable. Orange, la filiale téléphonie mobile de France Télécom, a été la première à l’adopter et a lancé ses services en mai 2000. Considéré par certains comme un échec commercial, on lui a reproché notamment son ergonomie, totalement insuffisante, une tarification inadaptée, mais surtout des contenus peu nombreux et pas suffisamment spécifiques à la mobilité. Pourtant, certains opérateurs croient en cette technologie qui pourrait décoller avec le GPRS et l’UMTS.

55

Avec GPRS (General Packet Radio Service), le mobile devient multimédia. Cette technologie permet de recevoir des textes, des graphiques, de la vidéo et du son, mais aussi de relier ordinateurs et mobiles. La transmission des données se fait en mode « paquets » et permet de s’affranchir de la tarification à la durée. Celle-ci est calculée en fonction du volume des données transmises. La connexion est permanente avec des débits accrus.

56

Véritable rupture technologique, UMTS (Universal Mobile Telecommunication System) utilise les réseaux à larges bandes. Cette innovation va permettre la naissance de la troisième génération de téléphonie mobile en résolvant les problèmes de capacité, de débit et de qualité de service. L’image devient animée, avec possibilité de visioconférence, vidéoclip, etc. L’utilisation du MMS (multimédia message service), évolution du SMS, consacre le passage de la téléphonie vocale mobile à celle de la communication visuelle mobile.

57

Chez Orange (France Télécom), le GPRS est toujours prévu pour l’automne 2001 (entreprises et particuliers), et les offres UMTS pour le second semestre 2002 (professionnels) et le premier semestre 2003 (particuliers). Les premières offres GPRS (tous publics) de Bouygues Télécom sont toujours programmées pour le premier semestre 2002. Chez SFR, le GPRS est déjà disponible pour les entreprises depuis juin 2001, et les offres grand public sont attendues début 2002 (horizon 2003 pour l’UMTS).

58

L’évolution des terminaux mobiles doit aller de pair avec ces nouvelles possibilités technologiques et l’on assiste à une véritable spirale continue d’enrichissement des terminaux. Le support est en effet essentiel dans la restitution de l’information et le niveau d’exigence des consommateurs augmente. La disponibilité de terminaux et de cartes SIM significativement enrichis (taille des écrans, par exemple) et adaptés aux différents usages est donc une priorité des différents constructeurs et opérateurs.

La facturation

59

Après l’expérience de la gratuité des contenus sur Internet, les différents professionnels sont unanimes à considérer que les services à valeur ajoutée doivent être rémunérés, que ce soit sur le Web ou sur le mobile. Mais comment ? Bien que la question de la facturation soit loin d’être résolue, plusieurs possibilités peuvent être envisagées : le producteur d’informations peut établir sa facture directement ; le bouquet de services peut le faire pour son propre compte au moyen du forfait, de l’abonnement ou encore du pay per view, en établissant un contrat avec le fournisseur de contenus ; le fournisseur d’accès pour le compte du fournisseur de contenus et services ; l’opérateur de télécommunications, lui, facture à l’usager et reverse au service concerné.

60

Le casse-tête des micropaiements électroniques semble plus facile à résoudre pour la téléphonie mobile que sur Internet, principalement grâce au support. Sur le portable, en effet, il suffit de taper sur la touche « OK » lorsque l’opérateur demande à l’usager son accord pour un paiement. La somme est ensuite facturée directement sur la facture téléphonique mensuelle, puis l’opérateur redistribue les recettes au prestataire concerné. Ce modèle a rencontré un grand succès auprès du public japonais. L’opérateur de télécoms NTT DoCoMo propose sur ses mobiles avec accès à Internet un abonnement d’un coût modique, d’environ 15 francs par mois (en sus de l’abonnement au téléphone), qui permet de se connecter à de nombreux services gratuits. L’accès à d’autres services, payants cette fois, se fait toujours sur le mode de l’abonnement mais toujours à des tarifs bas (5, 10, 15 francs par mois), variables selon la valeur ajoutée.

61

Ce nouveau modèle mobile des micropaiements devrait exploser en Europe avec l’arrivée des nouvelles générations de portables. La comparaison avec le Minitel est évidemment inévitable, à l’avantage de ce dernier car ce mode de facturation est apprécié par les éditeurs : l’opérateur se charge de la facturation et reverse ensuite à l’éditeur. En tout état de cause, l’émergence de modèles économiques équilibrés favorisera le développement de services nombreux et de qualité.

62

Chez ZD Net, qui propose essentiellement de l’information sur les nouvelles technologies, le modèle économique est fondé sur la publicité ; tout est construit autour des services d’informations basés sur la localisation. Le mobile devient un relais entre consultation sur Internet et achat dans un magasin. Chez Yahoo !, une offre minimum est gratuite. Les services « plus » sont payants, avec tarif à l’acte ou sur abonnement. Ce modèle, considéré comme pertinent par l’entreprise, permet de coupler un service de base gratuit avec une prestation optimisée payante, dans le même secteur (par exemple information sur le trafic routier plus conseil d’itinéraire). Le financement est assuré également par la publicité et le marketing direct. Ce modèle paraît viable, mais on regrette ici le peu d’adaptabilité des supports mobiles qui se révèlent des outils plus transactionnels que publicitaires. Faire l’économie d’une coopération avec les opérateurs serait une erreur, car ils apportent une vraie maîtrise, notamment de la facturation, estime Yahoo! qui a engagé, en septembre 2000, un partenariat avec Orange.

Les contenus

63

Tous les acteurs concernés s’accordent à dire que les contenus destinés à la téléphonie mobile doivent impérativement être adaptés et valorisés (services intelligents et personnalisés). Parallèlement, le mobile réclame des applications simples à utiliser et rapides à délivrer l’information. L’approche unitaire et verticale des services, trop souvent fragmentés, doit céder la place à la notion transversale d’« environnement de services » qui favorise le passage rapide d’un service à l’autre en mettant l’accent sur leur complémentarité (et leur proximité). L’intégration de fonctionnalités clés comme la localisation (services liés à la situation géographique fluctuante de la personne qui se déplace avec son portable) et la sécurisation est également un gage de succès auprès des usagers, en même temps que la qualité de service doit être irréprochable sur les services de base comme la messagerie ou l’accès Internet/Intranet…

64

Les opérateurs mettent en place ou révisent leurs stratégies sur le mobile. France Télécom joue la continuité avec la migration de ses services micro vers le mobile sous forme de bouquets de services, tout en privilégiant les services de localisation (Pages jaunes, Mappy, Visiocity, etc.). Chez ZD Net, on a établi une typologie des services prometteurs : services de news, services d’alerte (besoin à un moment donné), services de localisation (besoin à un endroit donné), services de météo (besoin permanent). Ainsi que des pièges à éviter sur le mobile : immobilité avec obligation de saisie, interfaces complexes, republication du contenu tel quel sans l’adapter au support, services sans utilité réelle… Ici, le mobile est considéré comme complémentaire du Web et comme son prolongement. Les technologies utilisées sont le SMS, le WAP et le PDA.

65

Yahoo ! dispose déjà d’une centaine d’applications et de services dans le monde du mobile, tous interconnectés et personnalisés. Sa stratégie consiste à utiliser tous les terminaux : PC, téléphone, téléphone mobile, télématique embarquée (en direction des automobilistes), TV interactive… Son partenariat avec Orange avait pour objectif de développer les usages du WAP et de fournir des contenus personnalisés pour les abonnés à Itinéris. Malgré le relatif échec du WAP, cette expérience est reconduite dans le cadre d’un partenariat étendu au monde du GPRS.

Perspectives

66

Le mobile va engendrer une nouvelle audience, différente de celle du Web, avec de nouveaux usagers en termes d’âge et de localisation géographique, avec un essor des communautés virtuelles et des groupes d’affinités. Le « m-commerce » va se développer (transactions commerciales via mobile), à condition que les quatre acteurs en jeu (l’usagers, l’opérateur, le fournisseur de biens ou de services, l’institution financière) trouvent un terrain d’entente. Dans l’état actuel des choses, l’interaction entre eux n’est pas assurée. Les services vont s’orienter comme suit : messagerie ; divertissements, le marché se développant autour des deux pôles jeux et loisirs ; services d’information professionnelle ; localisation (marché de niche). Mais ce qui reste un des éléments déterminants pour la pénétration de ce marché, d’un potentiel énorme, sera le contenu, ce qui sera proposé aux consommateurs. Il est donc urgent d’anticiper les usages et besoins des futurs clients, sans attendre que ce nouveau support de diffusion de l’information soit investi par le grand public.

67

Tous les acteurs du marché doivent réunir leurs efforts pour assurer la maturité des usagers-clients (pédagogie, sensibilisation, etc.), de la technologie (terminaux, infrastructures, etc.), des services (nombre, ergonomie, contenu, etc.), des modèles économiques (partage de valeur, reversements industriels). Tout un ensemble à considérer…

68

À la question de savoir si à ce marché correspond un réel besoin, il faut se rappeler que les mêmes interrogations avaient surgi à propos du Minitel… qui a généré depuis des bénéfices non négligeables.

69

B. F.

Notes

[1]

Norme NF Z 42-013 - Archivage électronique : recommandations relatives à la conception et à l’exploitation de systèmes informatiques en vue d’assurer la conservation et l’intégrité des documents stockés dans ces systèmes.

[2]

Acte authentique : tout document établi par un officier ministériel et public comme un notaire ; sa date est certaine. Acte sous seing privé : écrit rédigé et signé par les parties, ne faisant pas appel à un officier public ; sa date n’est pas certaine. Source : <www. huissiersdejustice-hp. com/ ssp. html>

[3]

Voir Le guide de l’archivage électronique sur le site IALTA France, association pour une Infrastructure Apte à Lier les Tiers certificateurs et autres Autorités. <www. ialtafrance. org/ arcelec/ guide-archivage. htm>

[4]

Reference Model for an Open Archival Information System (OAIS), soit 140 pages accessibles, par exemple, à partir du document suivant : ISO Archiving Standards - Overview, <ssdoo.gsfc.nasa.gov/nost/isoas/overview.html>

[5]

Voir aussi : La brevetabilité des logiciels, Actualités du droit de l’information, juin 2001, n° 15.

[7]

Code de déontologie, GFII, mai 2001, <www. gfii. asso. fr/ deonto. htm>

Résumé

Français

Dans l’impossibilité de rendre compte intégralement et en une livraison de toutes les conférences, journées d’information, présentations, ateliers et autres rencontres qui composent un congrès IDT/NET, nous proposons ici quelques aperçus sur des sessions dont les sujets sont particulièrement en prise avec les préoccupations actuelles des professionnels de l’information. Des informations générales sur ce dix-huitième congrès ont été publiées dans notre dernier numéro (page 86), et les nouveaux produits et services présentés lors du congrès sont évoqués dans les pages Bloc-Doc de celui-ci.

Plan de l'article

  1. Vers une nouvelle génération de services d’information électroniques
    1. Des portails d’entreprise
      1. Des services pour animer les communautés d’affaires
      2. Des intégrateurs de contenus pour intranets d’entreprises
      3. Fourniture de contenus et d’applications de gestion de l’information
      4. Diversification et complémentarité
  2. La communication scientifique électronique
    1. Quel modèle économique pour les bibliothèques ?
      1. Littérature grise et journaux électroniques
      2. La communication scientifique directe et les archives ouvertes
      3. Vers un monopole de l’information ?
      4. Les éditeurs dans un marché en évolution
  3. Éthique et technologies de conservation de l’information
    1. Les archives historiques face aux techniques de conservation
      1. Préserver l’existence et la qualité de l’information
      2. Les nouvelles technologies de conservation de l’information
      3. L’éthique et le droit dans la conservation de l’information
      4. Les stratégies pour la conservation à long terme des documents électroniques
  4. L’économie des droits de propriété intellectuelle et l’économie de l’information
    1. Les liens et la loi
      1. Les modèles américain et européen : exclusion ou convergence ?
  5. Adhérent au Code de déontologie du GFII : un label de confiance sur Internet
  6. La téléphonie mobile, nouveau moyen de diffusion de l’information
    1. La technologie
      1. La facturation
      2. Les contenus
      3. Perspectives

Pour citer cet article

Ferchaud Bernadette, Battisti Michèle, « IDT/NET 2001. Des conférences toujours en prise sur les questions de l'heure», Documentaliste-Sciences de l'Information 3/2001 (Vol. 38) , p. 210-219
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2001-3-page-210.htm.
DOI : 10.3917/docsi.383.0210.


Article précédent Pages 210 - 219 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback