Accueil Revues Revue Numéro Article

Réseaux

2010/2 (n° 160-161)

  • Pages : 344
  • Affiliation : Revue précédemment éditée par Lavoisier

    Revue soutenue par l'Institut des Sciences Humaines et Sociales du CNRS

    Numéros antérieurs disponibles sur www.persee.fr

  • ISBN : 9782707160171
  • DOI : 10.3917/res.160.0163
  • Éditeur : La Découverte

ALERTES EMAIL - REVUE Réseaux

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 163 - 194 Article suivant
1

Les industries culturelles et médiatiques sont caractérisées par une surproduction de contenus, et conséquemment par un goulet d’étranglement au niveau de la distribution-diffusion (Hesmondhalgh, 2007). Avec l’internet, ce phénomène de suproduction des contenus s’accentue en raison des coûts réduits de publication sur le web. Il se double en outre d’une composante nouvelle, liée au caractère archivable et semi-public des échanges informels entre internautes. Tous ces éléments s’additionnent pour former au final un vaste ensemble de productions discursives numérisées, en s’inscrivant plus largement dans un procès d’informationnalisation (Miège, 2007) qui rend d’autant plus nécessaires des dispositifs de repérage dans ces volumes considérables et hétérogènes de données. Il en résulte une situation où, sur l’internet, une offre élargie et gratuite de matériaux numériques doit être mise en relation avec une demande éclatée et individualisée. Un tel appariement (matching) devient dès lors une intermédiation décisive et renouvelée au sein des filières des industries culturelles et médiatiques basculant sur l’internet (Gensollen et al., 2004).

2

La filière de l’information en ligne [1][1] Pour des raisons de commodité de la lecture, nous privilégierons... n’échappe pas à ce mouvement général. Elle a vu croître en son sein l’importance de la fonction d’infomédiation, consistant à extraire et classer des contenus d’actualité particulièrement nombreux et dispersés afin de proposer aux internautes une information à la fois exhaustive et personnalisable. Le présent article vise à mieux identifier cette fonction d’infomédiation et son rôle dans la constitution de la filière de l’information en ligne, sur un plan théorique autant qu’empirique. L’infomédiation sera ainsi abordée sur le plan théorique à la lumière des acquis concernant la socio-économie des industries médiatiques et des connaissances plus récentes concernant les logiques sociotechniques de l’internet. Le pendant empirique de cette démarche résidera dans la présentation d’études de cas sur des infomédiaires français (Google Actualités, Wikio, Paperblog) en s’attachant principalement à la nature des relations socio-économiques que ces derniers entretiennent avec les autres acteurs de la filière, et en particulier les fournisseurs de contenus (éditeurs de presse et pure players de l’internet).

3

Cette analyse des relations entre infomédiaires et fournisseurs de contenus aide à mieux comprendre l’organisation socio-économique de la filière. Elle permet aussi de soulever des enjeux plus fondamentaux en termes d’économie politique comme ceux du financement de la création, ou du pluralisme de l’information : dans quelle mesure les infomédiaires contribuent-ils à rémunérer la production de l’information vers laquelle ils renvoient ? Vers quel type de sources – mainstream ou alternatives – les internautes sont-ils orientés ? L’étude de l’infomédiation est ainsi susceptible de renouveler des sujets d’interrogation majeurs pour les industries culturelles et médiatiques.

Qualifier l’infomédiation dans la filière de l’information en ligne

4

Historiquement, la notion d’infomédiation a été introduite en 1981 par Kimon Valaskakis lors d’un des premiers colloques organisés sur le thème de la « société de l’information » (Valaskakis, 1982). L’auteur, qui a probablement forgé le néologisme infomediation en anglais en combinant les mots information et intermediation, lui a donné un sens large puisqu’il l’a défini comme « the process by which an increasing number of human activities in all fields (…) are being either mediated or taken over by high technology information machines » [2][2] « le processus par lequel un nombre croissant d’activités... (ibid., p. 23-24). Par la suite, la notion d’infomédiation a été utilisée d’abord aux États-Unis puis en Europe pour désigner le métier de courtier en information ou broker (Cutajar, 1997). C’est dans le contexte de la montée en puissance des acteurs du courtage en information qu’a été fondée en 1985 une revue professionnelle canadienne sous le nom de Infomediary, définie comme « the journal of information entrepreneurship ».

5

Avec l’apparition et le développement de l’internet grand public, la notion d’infomédiation a été reprise et adaptée par des économistes américains dans la seconde moitié des années 1990. Dans la Harvard Business Review, Hagel et Rayport (1997) ont défini les infomédiaires comme des intermédiaires spécialisés dans l’échange d’informations sur l’identité et les préférences des consommateurs. Dans cette acception, le rôle de l’infomédiaire est de garantir aux consommateurs la bonne utilisation de données par les fournisseurs des services et des produits, tout en offrant à ces derniers la possibilité d’une exploitation commerciale. Cette acception de la notion d’infomédiaire est progressivement devenue dominante dans la littérature anglo-saxonne, surtout depuis la reprise de l’article original de Hagel et Rayport dans un ouvrage fondateur de la « nouvelle économie » (Tapscott, 1999) [3][3] La notion d’infomédiation a été utilisée dans des domaines.... L’objectif des auteurs qui se sont efforcés par la suite d’appliquer le concept de l’infomédiation sur des domaines variés de l’internet, comme celui de l’information en ligne, a été de rendre compte de la nouvelle configuration qu’impulse l’apparition du web à des marchés dès lors accompagnés par une multitude de flux d’informations (Del Aguila-Obra et al., 2007).

6

Plus précisément, en ce qui concerne l’information d’actualité, la notion d’infomédiation a d’abord essaimé dans le domaine professionnel. Ainsi, un des leaders mondiaux de l’archivage des dépêches et articles de presse comme Cedrom-SNI est-il souvent désigné comme infomédiaire à travers les services de consultation d’immenses bases de données qu’il propose aux entreprises et centres de documentation. Le lancement d’agrégateurs de nouvelles sur le web, au premier rang desquels Google News, et leur ouverture concomitante à un public dépassant celui des seuls professionnels, a élargi l’horizon de cette activité d’infomédiation d’informations d’actualité (Boure, Smyrnaios, 2006). Il s’agit d’une activité voisine d’extraction et de classement de contenus en lien avec l’actualité, matériaux numériques divers et variés produits et rendus disponibles par une multitude de tiers (éditeurs de presse en ligne, blogueurs, internautes commentateurs ou témoins d’« événements », etc.).

7

L’infomédiation désigne ainsi le plus souvent la fonction consistant à relier des besoins ciblés et des ressources pertinentes au sein de volumes de données considérables et hétérogènes. Mais l’infomédiation ne se réduit pas à cette activité de recherche de données, relativement classique dans le domaine de l’informatique documentaire, fût-elle désormais élargie à l’internet. Elle y apporte un service supplémentaire de mise à disposition de contenus et de liens, issus d’une sélection se présentant sous une forme éditorialisée.

L’infomédiation, une activité à mi-chemin entre les niveaux de l’édition et de la diffusion

8

Comme toutes les filières industrielles se diversifiant sur l’internet, les filières des industries culturelles et médiatiques sont sujettes à un certain nombre de changements parmi les niveaux et acteurs les composant, de l’amont à l’aval : certains intermédiaires disparaissent (désintermédiation) tandis que de nouveaux apparaissent (réintermédiation). Au niveau de la relation entre édition et diffusion en particulier, la baisse des coûts logistiques pour atteindre l’utilisateur final a favorisé ce double mouvement de désintermédiation/réintermédiation (Bustamante, 2004).

9

Ainsi, de nouveaux acteurs de l’internet apparaissent pour assurer une fonction relevant à la fois de l’édition et de la diffusion, sans pour autant être équivalente à l’une ou l’autre de celles-ci. Moteurs de recherche, portails ou fournisseurs de services web de type digg-like[4][4] À l’image du premier d’entre eux, Digg.com, nombre... forment des méta-marchés où « algorithmes d’invention – production – perception – utilisation – recyclage servent à confronter une offre et une demande » (Gensollen, 2004, p. 162). Cette fonction correspond à une nouvelle variante de l’appariement, dans un contexte internet de surproduction numérique et d’accès individualisé aux contenus culturels et médiatiques.

10

Cette nouvelle fonction ne consiste pas complètement en de l’édition, car les contenus proposés sont en grande majorité importés d’autres sources (à caractère éditorial pour une grande part d’entre elles), quand ils ne sont pas seulement « pointés » vers ces sources par des liens hypertextuels. On se situe ici plutôt à un niveau méta-éditorial (Chartron, Rebillard, 2007) où des contenus culturels et médiatiques très disparates sont assemblés, au prix d’une mise en forme souvent automatisée.

11

Cette nouvelle fonction n’est pas non plus assimilable à de la diffusion-distribution, certains allant même jusqu’à opposer la logique de l’appariement à la logique de la diffusion dans les industries culturelles (Gensollen et al., 2004, p. 32). L’appariement, en particulier pour des biens d’expérience comme les biens culturels et médiatiques particulièrement dispersés sur l’internet, va reposer sur un accès de l’internaute augmenté de services d’indexation automatique et de recommandations collectives. En matière de contenus d’actualité, notamment lorsqu’ils sont produits et dénichés par des non-professionnels au sein de la blogosphère, l’appariement semble s’inscrire dans ces mêmes logiques (Benkler, 2006).

12

La nouveauté de la fonction d’infomédiation se traduit par une carence juridique, dans le droit français, pour identifier cette activité. La Loi pour la confiance dans l’économie numérique du 21 juin 2004 distingue deux statuts : le statut d’éditeur, décideur intellectuel des contenus qu’il publie sur son site, à la responsabilité juridique de publication équivalente à celle existant en droit de la presse ; et le statut d’hébergeur, prestataire technique fournissant un espace informatique à des tiers, à la responsabilité juridique de publication limitée et a posteriori puisque ne devant retirer des contenus que lorsque ceux-ci lui ont été signalés comme illicites.

Ni la définition de l’éditeur, ni celle de l’hébergeur ne semblent toutefois parfaitement appropriées pour qualifier l’activité des infomédiaires. En témoignent les décisions de justice assez contradictoires qui ont émaillé plusieurs procès en 2008, notamment lorsque des infomédiaires comme Fuzz ou Wikio étaient attaqués pour avoir agrégé des liens vers des sites publiant des contenus portant atteinte à la vie privée de célébrités [5][5] Pour un rappel des faits, voir par exemple Bérénice.... La composante éditoriale de Fuzz et Wikio, consistant à sélectionner certains sites, à en extraire des parties (titres et châpos), à les classer (en l’occurrence dans la rubrique people), a été diversement appréciée par les juridictions. Force est ainsi de constater que cette dichotomie hébergeur/éditeur laisse, entre ces deux statuts, une zone d’ombre juridique qui correspond à l’activité d’infomédiaire. Les parlementaires l’ont d’ailleurs eux-mêmes reconnu dans un rapport visant à effectuer un premier bilan d’application de cette loi (Dionis du Séjour, Erhel, 2008).La loi Création et Internet du 12 juin 2009 n’a pas amené de véritable clarification à cet égard, se contentant d’ajouter un statut d’éditeur de presse en ligne, suite aux états généraux de la presse écrite. La prise en compte de la participation des internautes y est limitée aux « messages » de ces derniers, mis « à la disposition du public dans un espace de contributions personnelles identifié comme tel » : dans ce cas, la responsabilité de publication est alors comparable à celle, limitée et a posteriori, de l’hébergeur. L’infomédiation en tant qu’activité à part entière n’est donc pas encore aujourd’hui complètement délimitée dans le droit français, alors que sa place dans la filière de l’information en ligne apparaît de plus en plus prégnante, jusque dans les modèles socio-économiques qui se dessinent pour sous-tendre son développement.

Financement indirect et coopétition des acteurs de l’information en ligne

13

La tradition d’un libre accès aux connaissances, héritée des origines académiques de l’internet, et les particularités de l’économie de l’information (non-rivalité des biens numérisés, coût marginal de production nul), expliquent que la consultation de contenus web, et en particulier de contenus d’actualité, ne requiert que rarement un paiement par l’utilisateur final. La gratuité de la consommation est donc le plus souvent la règle – parfois aménagée dans un modèle mixte de Freemium (site gratuit à l’exception de quelques contenus exclusifs payants) – et le financement des sites s’effectue encore très majoritairement de façon indirecte (voir notamment Beuscart, Dacheux, Mellet, 2008 pour une description des formules les plus récentes) : vente d’espaces aux annonceurs (bannières publicitaires, liens sponsorisés), intermédiation commerciale (place de marché), revente de fichiers clients (données sur les parcours et profils des internautes issues du data mining), intégration au sein d’un groupe industriel (image de marque ou afflux de visiteurs sur les autres sites du groupe).

14

Les infomédiaires s’inscrivent tout à fait dans cette prédilection pour un financement indirect, et peuvent tour à tour mobiliser chacune des sources de revenus listées précédemment. Ils les mobilisent toutefois sous une forme particulière (promotion ciblée) correspondant à leur position d’aiguilleur entre une offre dispersée et une demande individualisée au sein de la filière. En échange du courtage promotionnel que leur permet d’exercer leur position centrale dans le modèle du courtage informationnel (Moeglin, 2005), les infomédiaires perçoivent une rémunération des annonceurs, links sponsors, cybermarchands, data miners, et peuvent dans certains cas jouer un rôle d’entremetteur pour les autres services du groupe auquel ils appartiennent. En retour, ils semblent toujours rechigner à reverser une rémunération aux éditeurs des sites d’espace d’information d’actualité, dont ils extraient une partie des contenus (le plus souvent titre et châpo de l’article indexé) et vers lesquels ils orientent hypertextuellement.

15

Cette absence de rémunération des éditeurs par les infomédiaires est une source de conflit. Les infomédiaires estiment générer, via leur orientation hypertextuelle, un apport d’audience valorisable par les éditeurs sur leurs propres sites. Ces derniers opposent le respect du droit d’auteur aux infomédiaires. Si l’on en restait là, on pourrait considérer qu’il s’agit d’un différend relativement classique eu égard à une situation de marché nouvelle, où les conventions entre les différents acteurs économiques ne sont pas encore complètement établies. En réalité, la situation est plus complexe car les deux acteurs en question – infomédiaires et éditeurs – sont simultanément partenaires et concurrents dans la filière de l’information en ligne, et notamment sur le marché de la publicité.

16

Chaque partie a besoin de l’autre : l’infomédiaire doit nécessairement tisser des liens avec des fournisseurs de nouvelles et, réciproquement, ces derniers ne possèdent pas les compétences métiers de l’accès et de la recherche d’informations qui amènent sur leur site un surcroît de visiteurs. Par ailleurs, ces deux types d’acteurs sont à la lutte pour trouver des revenus indirects auprès des mêmes financeurs (annonceurs, link sponsors, data miners, cybermarchands).

Cette situation de coopétition – coopération autant que compétition – est explicable par le caractère multidimensionnel de l’internet : « Internet est un réseau où se posent avec une acuité particulière des problèmes de coordination entre des firmes qui sont à la fois complémentaires et concurrentes. En effet, la gamme des services offerts ou supportés par le réseau est tellement vaste que les compétences et les actifs nécessaires pour les produire ne sont pas maîtrisables par une seule entité. Dès lors, toute production de service exige une coopération entre des firmes productrices de « briques de base » qui peuvent être par ailleurs concurrentes car il existe des recouvrements entre ces composants de base qu’elles peuvent produire » (Brousseau, 2001, p. 819). Une telle situation semble généralisée dans le cadre du déploiement des industries culturelles et médiatiques sur l’internet (Bouquillion, Combès, 2007), qui voit l’irruption d’un nouvel acteur – l’infomédiaire – modifier la place et la viabilité économique des acteurs existants.

Positionnement et stratégies d’infomédiaires

17

Cette situation de coopétition sera illustrée dans la partie empirique de cet article à partir de trois études de cas portant sur des infomédiaires œuvrant dans l’internet francophone. Plus largement, leurs stratégies respectives seront analysées en examinant le fonctionnement des services d’infomédiation qu’ils proposent ainsi que leurs modes respectifs de financement. À cette fin, ont été mobilisées des enquêtes (entretiens et/ou observations) effectuées en 2007 et 2008 auprès de trois infomédiaires de tailles variées : un infomédiaire majeur, multinationale dominante de l’internet (Google) ; un infomédiaire de taille nationale, entreprise en phase d’expansion (Wikio) ; un infomédiaire naissant, encore en phase de start-up (Paperblog) [6][6] Entretiens avec M. Laurent Binard, directeur général.... Quand cela s’est avéré nécessaire, nous avons également mobilisé du matériel empirique de même nature concernant certains éditeurs de sites d’information français [7][7] Ces entretiens et observations auprès de AFP, Bakchich,.... Toutes ces enquêtes, auprès des infomédiaires comme des éditeurs, ont été menées à partir de guides d’entretiens et d’observations communs, portant sur les modalités de production et de diffusion de l’information. Ce matériel empirique a été complété par des données de seconde main concernant les sources de revenus des infomédiaires (essentiellement sur la base d’articles publiés dans des médias spécialisés), ainsi que par des éléments concernant leur audience (issus d’instituts de mesure).

Google, de l’infomédiation généralisée à l’infomédiation spécialisée

18

L’avènement de l’internet grand public a vu l’émergence et la consolidation d’acteurs dominants, et en premier lieu Google. Un acteur d’une telle puissance économique, technique mais également symbolique (Simmonot, Gallezot, 2009), ne peut que constituer un élément central de l’organisation socioéconomique de l’internet, et par extension du secteur de l’information en ligne. Ceci d’autant plus que la fonction principale de Google est celle de l’infomédiation, déclinée par le biais de nombreux services et outils mis à disposition gratuitement et à une échelle mondiale. Cette activité est principalement financée par la vente d’espaces et de liens sponsorisés aux annonceurs, soit directement (espaces et liens placés sur les sites de Google), soit en tant que régie publicitaire pour le compte de sites tiers (services AdSense et Doubleclick).

Malgré sa présence dans un grand nombre de pays et la nature transnationale de son activité, le processus de prise de décision au sein de Google est très centralisé et les marges de manœuvre laissées aux filiales locales sont très réduites [8][8] Source : entretiens avec Yoram Elkaïm et Olivier Esper,.... Afin de mieux contrôler l’implémentation des décisions stratégiques au niveau mondial, Google a adopté un mode d’organisation matriciel ou matrix management (Chi, Nystrom, 1998). Les responsables des différents services de Google, qui maîtrisent les paramètres techniques, juridiques et économiques, se trouvent pour la plupart aux États-Unis. Par exemple, le service spécialisé dans l’actualité, Google News, est géré depuis les États-Unis, et sa déclinaison française, Google Actualités, ne dispose pas de véritable équipe locale à Paris.

Des relations complexes avec les éditeurs

19

Cette organisation est porteuse de risques, notamment en ce qui concerne la gestion des relations avec les partenaires au niveau national. Des différends opposent Google aux éditeurs de presse dans plusieurs pays européens. Google est placé en situation de coopétition avec les éditeurs des sites d’information, et notamment les plus puissants d’entre eux comme les médias traditionnels. Un degré d’interdépendance élevé relie la société californienne aux sites d’information : l’utilité de Google pour les internautes est fonction de la richesse des contenus disponibles sur le web et, par extension, de l’attractivité de l’offre d’information journalistique ; cette dernière constitue alors un cas typique d’externalité positive pour le moteur de recherche. De leur côté, les sites d’information dépendent de Google, et plus largement des infomédiaires, pour une part importante de leur audience. En effet, aux dires de ses responsables, Google génère plus de quatre milliards de clics par mois vers les sites d’information par le biais de ses différents services, ce qui se traduit par des recettes publicitaires pour les éditeurs [9][9] Ce chiffre a été avancé à plusieurs reprises par les.... Même si le degré de dépendance envers Google est variable selon les cas, les données statistiques montrent que la part du trafic générée par le moteur vers les sites d’information est incontournable, notamment pour les structures qui se basent sur un modèle quasi exclusivement publicitaire. À titre d’exemple, approximativement 20 % du trafic du site lemonde.fr provient des moteurs de recherche, essentiellement Google. Le pourcentage monte à 30 % pour un pure player comme Rue89, à 40 % dans le cas d’un site de la presse régionale comme ladepeche.fr et même à plus de 50 % pour le site de L’Express [10][10] Sources : Interview de Phillipe Jannet, directeur du....

20

Google renvoie du trafic vers les sites d’information journalistique par le biais de multiples services d’infomédiation, régis par des logiques différentes. Outre le moteur de recherche généraliste et les services de veille comme Google Reader et Google Alerts, le principal pourvoyeur d’audience pour les sites d’information est Google News. Ce dernier procède à une double hiérarchisation, celle des informations et celle des sources, en amont de la demande exprimée par les internautes. Cette hiérarchisation consiste en une tentative de traduction algorithmique des logiques éditoriales qui régissent le domaine de l’actualité, dont nous avons déjà expliqué le fonctionnement en détail (Smyrnaios, Rebillard, 2009). Les deux principaux critères de hiérarchisation sont, d’une part, l’attribution d’un indice à chaque source recensée, qui ne s’identifie pas au PageRank utilisé par le moteur de recherche généraliste, et, d’autre part, le rassemblement des articles au sein de grappes d’information (clusters) dont la taille dé?nit l’importance d’un sujet d’actualité et sa place sur la page d’accueil du service. L’indice attribué aux sources incluses dans Google News conditionne le classement de ces dernières sur la page d’accueil ainsi que dans les résultats de recherche du service. Il s’agit donc d’un enjeu stratégique pour les acteurs de l’information en ligne. Le classement de Google News prend en compte de multiples facteurs comme la productivité, la réactivité et l’expertise des sources dans un domaine précis, mais leur poids exact dans l’algorithme n’est pas connu des éditeurs. Même les responsables des filiales locales de Google ne semblent pas le connaître [11][11] Source : entretiens avec Yoram Elkaïm et Olivier Esper,....

L’influence de Google News s’est renforcée avec la croissance de sa propre audience. Cette progression a été ininterrompue depuis le lancement du service en 2003 au point de devenir en avril 2009 le cinquième site d’information en France (si l’on excepte le regroupement des sites de presse régionale, cf. tableau 1). Ainsi, selon les données de Médiamétrie, de quelques centaines de milliers par mois fin 2003 les visiteurs uniques de la version française de Google News sont passés à 2 millions en 2007, 3,2 millions en septembre 2008 et près de 3,6 millions en avril 2009.

Tableau 1 - Données d’audiences[12][12] Catégories de Médiamètrie//NetRatings : « Une brand...[13][13] Wikio n’est pas classé dans la sous-catégorie « Actualités...Tableau 1
21

La montée en puissance de Google a contribué à accentuer un mouvement général de multiplication et d’enchevêtrement des accès à l’information en ligne. Cette tendance oblige les éditeurs à adapter l’architecture de leurs sites et les modes de mise à disposition de leur contenu aux habitudes des lecteurs et aux exigences des infomédiaires. La première étape a été l’adoption progressive de techniques dites de SEO (Search Engine Optimization) afin d’améliorer le référencement des sites d’information par les moteurs de recherche. À côté de ces techniques, somme toute assez communes, il existe également des procédés spécifiques aux sites de journalisme qui tentent de satisfaire les critères de Google News.

22

En effet, les éditeurs des sites se sont progressivement acculturés au fonctionnement de Google News allant jusqu’à l’intégrer dans leurs outils de travail quotidien [14][14] À titre d’exemple, les outils de gestion de contenu.... Désormais, la modification des titres des articles et leur republication à plusieurs reprises est une pratique courante dans certaines rédactions web, qui vise à les « faire remonter » dans la hiérarchie de Google News et à générer de l’audience [15][15] Cette tendance que nous avons relevée lors de nos enquêtes.... Le référencement par Google News implique une organisation du travail spécifique (notamment la production d’articles en flux tendu) qui renvoie au fonctionnement des agences de presse ou des chaînes d’information en continu.

23

Les éditeurs de presse sont aussi de plus en plus nombreux à modifier l’architecture de leurs sites, en faisant en sorte que chaque page de contenu comporte de multiples entrées vers d’autres pages dans le but de capter et retenir cette audience « flottante » en provenance des infomédiaires. Ce faisant, les éditeurs paraissent reprendre la formule de Josh Cohen, responsable de Google News, pour qui « chaque page est désormais une Une » [16][16] Déclaration de Josh Cohen lors des états généraux de... ainsi que celle de Marissa Meyer, vice-présidente de Google, pour qui les pages des sites d’information doivent ressembler davantage à celles de Wikipédia [17][17] Andrew Orlowski, « Google: Make newspapers more like.... Une telle évolution des sites d’information semble ainsi avoir été impulsée par leur dépendance envers les infomédiaires autant que par la formation des nouveaux usages de l’information en ligne.

24

Les relations entre Google et les éditeurs de presse que nous venons de décrire sont caractéristiques d’une situation de coopétition : l’antagonisme économique mais également symbolique (Carlson, 2007) qui les régit se double d’une quasi-obligation de coopérer pour les deux parties et notamment pour les éditeurs. Cette configuration est illustrée par le passage du responsable de Google News à Paris en décembre 2008. Josh Cohen a participé à une session des états généraux de la presse écrite où il a été pris à partie par des responsables de groupes de presse comme le directeur de la régie publicitaire du groupe Le Figaro, et celui de la filiale multimédia du groupe Lagardère. Ces derniers ont vivement reproché à Google un partage déséquilibré des revenus publicitaires générés par les contenus des sites d’information. Le lendemain, Cohen a participé à une session de travail au sein du GESTE (Groupement des éditeurs de services en ligne) avec les représentants des mêmes groupes de presse. Cette fois-ci, la réunion s’est déroulée normalement, les responsables de Google expliquant aux éditeurs comment exploiter au mieux ses services pour générer des revenus [18][18] Éric Scherer, « Newspaper bailout: what role will Google.... Cette anecdote est révélatrice des relations ambivalentes entre Google et les éditeurs français. La crise économique et les difficultés des groupes de presse poussent désormais leurs responsables à mettre en question le fonctionnement global de Google et son emprise sur la publicité en ligne. L’enjeu est d’une part l’algorithme de classement du moteur de recherche qui, selon les éditeurs, ne valorise pas assez les contenus professionnels et l’information journalistique originale et, d’autre part, le modèle de liens sponsorisés qui fait baisser les tarifs pratiqués dans le marché de la publicité en ligne. Progressivement, la question de l’infomédiation et celle de Google en particulier est devenue une préoccupation centrale des éditeurs, y compris américains si l’on en juge par leurs déclarations successives [19][19] Voir AFP, « US newspaper owners are “mad as hell”»,.... Des controverses similaires ont éclaté en Belgique, en Grande-Bretagne, au Danemark et en Italie [20][20] Solana Larsen, « Denmark: “Deep Linking” Under Fire.... La « Déclaration de Hambourg » des éditeurs européens constitue une tentative de rééquilibrer le rapport de force avec Google [21][21] Communiqué de presse du European Publishers Counsil,.... Elle demande aux pouvoirs publics un renforcement du copyright sur les contenus professionnels et la recherche de nouveaux modes de financement des médias sur l’internet.

Cependant, malgré ces soubresauts, le rapport de forces semble aujourd’hui favorable à la société américaine. Signe de cette domination, Google a réussi de fait à imposer son propre standard d’indexation des sites d’information par les moteurs de recherche, au détriment de celui prôné par l’industrie de la presse [22][22] Google est réticent en ce qui concerne l’adoption du.... Ce standard est important car il permet aux éditeurs de traduire en quelque sorte une politique éditoriale en un langage compréhensible par le robot d’indexation. Comme souvent, l’incapacité des éditeurs concurrents à tenir une position commune, celle exprimée par leurs groupements professionnels, a permis à la société américaine de renforcer son contrôle dans le segment de l’infomédiation de l’information en ligne.

Wikio, plaque tournante de la blogosphère

25

Wikio est une société française qui se positionne sur le segment de l’infomédiation de l’actualité en se concentrant autant sur les sources professionnelles que sur les blogs. Sur le site de la société, le service est défini ainsi : « Wikio est un portail d’information qui fouille dans les sites de presse et dans les blogs pour trouver l’actualité qui vous intéresse » [23][23] http://www.wikio.fr/about-us.. Les deux fondateurs de Wikio, Laurent Binard et Pierre Chappaz, anciens collaborateurs d’IBM, ont créé deux sociétés start-up à la fin des années 1990 qu’ils ont revendues en 2004 à des groupes plus importants. Leurs parcours respectifs expliquent en partie la stratégie poursuivie par Wikio.

26

Laurent Binard a été PDG de Mediapps, spécialiste de la gestion de contenu à destination des professionnels, une société rachetée par Ever, acteur historique du secteur de la GED en France. De ce fait, le directeur général de Wikio dispose d’une bonne connaissance de la problématique de l’infomédiation, d’un point de vue technique et économique, et il est familier des acteurs médiatiques et de leurs représentants comme le GESTE [24][24] Source : entretien avec Laurent Binard, mars 2007.. Cette expérience a été utile pour gérer efficacement les relations avec les éditeurs.

27

De son côté, Pierre Chappaz a été l’un des fondateurs du comparateur de prix Kelkoo, racheté par Yahoo. Suite à ce rachat, il a occupé le poste de président de Yahoo Europe et a travaillé pour le fonds d’investissement suisse Index Ventures. Pierre Chappaz possède ainsi une bonne connaissance du secteur du commerce électronique et dispose d’un solide réseau international d’investisseurs dans le domaine du capital-risque.

Un mode de financement original

28

Le mode de financement de Wikio porte la marque de ce croisement entre univers de l’infomédiation et univers du commerce électronique. En effet, à côté de la publicité classique (display) et des liens sponsorisés d’Adsense vient s’ajouter une troisième source de revenus en provenance du commerce électronique. L’originalité de Wikio tient dans le fait que son service d’actualité est couplé à un comparateur de prix. Celui-ci compare des milliers de produits en provenance des différents commerçants en ligne et se rémunère à chaque transaction effectuée par son intermédiaire. Les différents outils d’infomédiation et de veille de Wikio sont proposés gratuitement aux utilisateurs et servent à attirer une audience élevée susceptible d’utiliser le comparateur de prix et de générer ainsi des revenus qui, à leur tour, financent la partie dédiée à l’actualité. Le commerce électronique est une source de revenus centrale pour Wikio puisque, au cours du dernier trimestre 2008, il a généré 56 % du chiffre d’affaires de la société, contre 23 % pour la publicité classique et 21 % pour les liens sponsorisés [25][25] Présentation de Pierre Chappaz lors de la conférence....

29

En 2009, le service est disponible en France, en Allemagne, en Italie, en Espagne, en Grande-Bretagne et aux États-Unis. Contrairement à Google qui s’active à une échelle mondiale, le marché prioritaire de Wikio est l’Europe. Pour poursuivre son implantation internationale à moindre coût, Wikio applique des méthodes de gestion comme le management par projet et le télétravail. L’encadrement de la quarantaine de salariés de la société se fait en grande partie à distance, notamment pour ceux qui se trouvent à l’étranger et qui gèrent les versions internationales de Wikio.

30

La combinaison d’une structure à bas coûts et de sources de financement diversifiées a abouti à ce que Wikio atteigne le point d’équilibre en octobre 2008, avec un chiffre d’affaires de l’ordre de 1,2 million d’euros pour l’ensemble de l’année. En novembre 2008, Wikio a atteint une audience de 12,4 millions de visiteurs uniques, dont quatre millions pour la seule version française [26][26] Ces données proviennent de l’outil interne de mesure.... Ce succès d’audience s’est accéléré depuis le lancement de la dernière version du site, nommée Europa, au printemps 2008.

Infomédiation et intervention humaine

31

Les deux principaux métiers présents au sein de Wikio sont celui de développeur informatique et de documentaliste internet. Son moteur de recherche combine une technologie de recherche algorithmique, comme celle utilisée par Google, avec une expertise humaine dans le domaine de la documentation, nécessaire pour classer et qualifier les sources. Le fonctionnement de Wikio, comme celui de Google News, se fonde dans un premier temps sur un logiciel qui traite les flux RSS de l’ensemble des sources présélectionnées (sites professionnels et blogs) et recense en temps réel les nouvelles publications. Le service est capable ainsi de restituer sur ses propres pages les titres et les premières lignes des articles ainsi qu’un lien vers l’emplacement où se trouve l’intégralité des documents, sur le site de l’éditeur. Selon ses responsables, la principale différence entre Wikio et les services comparables est que son architecture est pensée non pas en priorité pour la diffusion de contenus d’actualité généraliste mais surtout pour la couverture quasi exhaustive des « niches d’information thématique » [27][27] Entretien avec Laurent Binard, mars 2007.. En effet, chaque requête par mot clé sur Wikio renvoie vers une catégorie de l’actualité sous laquelle sont rangées des milliers de pages web qui traitent de la même thématique ou de sujets proches et qui ont été sélectionnés automatiquement ou manuellement. Alors que l’usager du service a l’impression d’effectuer une simple requête par mot clé, il met en réalité en branle toute une mécanique complexe qui combine une technologie de recherche avec une arborescence documentaire.

32

Cette arborescence inclut des dizaines de milliers de mots. Régulièrement, l’équipe de documentalistes effectue un travail éditorial de maintenance de l’arborescence en ajoutant ou en supprimant certains mots/catégories et certaines sources, en fonction des demandes des utilisateurs – qui prennent la forme de données statistiques sur les requêtes fournies par le moteur – mais aussi suivant l’actualité. Il s’agit d’un travail qui s’adapte également aux particularités des pays dans lesquels Wikio est implanté.

Des relations encadrées avec les éditeurs

33

L’activité d’infomédiation de l’actualité de Wikio implique des relations relativement étroites avec les fournisseurs de contenu que sont les éditeurs de sites d’information professionnels. En effet, le service recense plus de 60 000 sources, dont 10 000 sites professionnels. Pour ce qui est de la France, ces relations se gèrent dans le cadre de la commission Presse en ligne du GESTE, dont Wikio est membre. Contrairement à Google, qui a lancé son service d’actualités sans aucune concertation avec les éditeurs, Wikio a dès le début négocié les modalités de reprise de contenu. Ces négociations se sont concrétisées par un accord signé en février 2007 entre Wikio et les principaux éditeurs. L’accord porte dans un premier temps sur la reconnaissance des droits d’auteur dont les éditeurs disposent sur les contenus reproduits (typiquement les titres, les chapôs et les premières lignes des articles ainsi que les images). Wikio s’engage notamment à exclure de son index les sources d’information qui reproduiraient et diffuseraient les contenus des éditeurs sans leur aval. L’accord signé par le GESTE et par Wikio implique également un effort de la part des éditeurs pour mieux organiser leur collaboration avec l’infomédiaire. Il s’agit notamment de la mise en place d’espaces dédiés comportant des méta-données sur les sites des éditeurs afin de permettre au robot de Wikio de récupérer facilement les contenus en respectant leur politique éditoriale. Des discussions similaires ont eu lieu avec les éditeurs de la presse régionale par le biais du Syndicat de la Presse Quotidienne Régionale (SPQR).

34

La régulation des relations entre Wikio et les éditeurs a été relativement aisée tant que, grâce à son mode de financement basé sur le commerce électronique, il n’existait pas de concurrence frontale entre eux. Cependant, à l’occasion du lancement de la nouvelle version de Wikio qui inclut des formats publicitaires similaires à ceux des sites-médias (display, sponsoring) la situation de coopétition entre l’infomédiaire et les éditeurs s’est tendue. Les éditeurs ont reproché à Wikio le fait d’exploiter leur contenu pour vendre de l’espace publicitaire à bas prix. Les responsables de Wikio ont été obligés de s’engager à utiliser le sponsoring uniquement sur les pages qui recensent les blogs [28][28] Compte rendu de la Commission Presse en ligne du GESTE,.... Ces relations encadrées avec les éditeurs professionnels constituent une contrainte importante, limitant considérablement les marges de croissance publicitaire de Wikio. Chaque tentative de celui-ci pour diversifier son offre publicitaire se heurte aux réticences des éditeurs professionnels qui ne souhaitent pas approvisionner en contenu un concurrent direct. C’est la raison pour laquelle la priorité stratégique de Wikio semble être le développement de son activité dans le domaine des blogs.

35

Signe de cette direction, depuis juillet 2009 c’est une sélection de blogs et non plus de sites professionnels qui occupe le haut de la page d’accueil (cf. figure 1), bénéficiant ainsi de plus de visibilité.

Figure 1 - Page d’accueil de Wikio.fr (janvier 2010)Figure 1
36

En effet, la mise en avant des blogs présente plusieurs avantages pour Wikio. Premièrement, cela permet la différenciation du service qui se positionne ainsi sur des thématiques de niche, par rapport aux sites professionnels qui se concentrent sur l’actualité dominante. Deuxièmement, l’intégration de Wikio dans les réseaux de la blogosphère lui procure une audience par l’effet de réciprocité. Les blogs qui reçoivent du trafic de la part de Wikio ont tendance à renvoyer vers le service par le biais de liens croisés. Enfin, le domaine des blogs permet à Wikio de tester des modes de valorisation sans subir les contraintes fortes imposées par les éditeurs professionnels.

37

Outre le recensement des billets publiés par les blogs sur son portail, Wikio est particulièrement actif dans le classement de ces mêmes blogs, devenant même la référence dans ce domaine en France. Le principe consiste à classer les blogs en fonction de leur qualité, en comptabilisant les rétroliens que reçoit chacun d’entre eux. Ainsi, chaque blog se voit attribuer un indice de qualité pour une période donnée. Il ne s’agit pas de mesurer l’audience d’un blog mais en quelque sorte d’évaluer son intérêt en se basant sur le nombre de citations dont il bénéficie. Wikio a développé son propre outil de classement et a décliné le principe sur des dizaines de thématiques différentes. L’objectif de cette technologie est double : d’une part, l’indice attribué aux blogs est un critère utilisé par le moteur de recherche pour hiérarchiser les réponses aux requêtes des utilisateurs. Ainsi, les blogs les mieux notés sont systématiquement mis en avant dans les résultats. D’autre part, le fait de constituer un critère de référence, qui sert à comparer la popularité des blogs, insère le service de manière permanente dans les réseaux et les communautés des blogueurs. Ceci fait de Wikio un acteur incontournable de la blogosphère et renforce sa notoriété et son audience auprès d’un public au fait des évolutions de l’internet.

38

La stratégie des dirigeants de Wikio semble donc désormais résolument tournée vers le domaine des blogs, sur lequel se concentre la majeure partie de ses efforts de recherche et développement. Le pendant commercial de cette stratégie apparaît avec la prise de la présidence de eBuzzing, une start-up spécialisée dans la commercialisation des espaces publicitaires sur des blogs, par Pierre Chappaz en janvier 2009. eBuzzing se présente comme un intermédiaire entre les annonceurs et les blogueurs qui veulent monétiser leur audience en relayant des campagnes publicitaires, une compétence qui pourrait s’avérer utile dans la stratégie de Wikio.

Le penchant éditorial de Paperblog

39

Lancé en 2007, Paperblog est un site français dont l’objectif, tel qu’il est défini par son fondateur Nicolas Verdier, est de rendre accessible au grand public la production des blogueurs francophones. Paperblog se différencie de Google et Wikio en reproduisant non seulement les titres et les premières lignes des billets mais également l’intégralité de ceux-ci (texte et éventuellement images, vidéos et sons) après adaptation à sa charte graphique.

40

Le site n’avait pas atteint le point d’équilibre en 2009. Il a toutefois rencontré un succès certain en termes d’audience deux ans après son lancement : en juillet 2009, il avait déjà dépassé les deux millions de visiteurs uniques selon Médiamétrie, ce qui le place parmi les vingt premiers sites d’information en France, malgré des moyens décrits par son fondateur comme étant « low cost » [29][29] En effet, en 2008, l’équipe de Paperblog comprenait....

41

L’activité de Paperblog s’apparente à de l’infomédiation tout en présentant certaines particularités. Son activité consiste en la reprise organisée et automatisée de l’intégralité de contenus en provenance de plus de 5000 blogs, ceux-ci générant quelque 2000 billets par jour. Les deux opérations effectuées par le service sont la « thématisation » du contenu, qui consiste à ranger les articles au sein des différentes rubriques en fonction du sujet, et sa « qualification », c’est-à-dire l’évaluation de la qualité des articles qui détermine leur visibilité sur le site. Pour ce faire, Paperblog applique une méthode algorithmique combinée à une intervention humaine limitée. Dans un premier temps, il y a la constitution d’une base de blogs à laquelle les auteurs se sont inscrits volontairement auprès de Paperblog. Une fois aspirés, ces articles sont contrôlés de manière automatisée en fonction de plusieurs critères afin de définir un indice de « qualité ». Les critères utilisés sont l’orthographe, la longueur du texte, la présence d’illustrations, la date de publication et l’historique de l’auteur (rythme de publication, reprises en Une, etc.) [30][30] Source : observation dans les locaux de Paperblog,.... Le processus de thématisation se fait automatiquement sur la base d’une analyse lexicale et de l’utilisation des tags (mots clés attribués à leurs articles par les auteurs). En fonction du sujet, les articles sont dispatchés dans les rubriques correspondantes. Le tout est complété par l’intervention de l’équipe éditoriale qui choisit les articles de la Une (cf. figure 2) et de la rubrique Coup de cœur du site, et qui constitue également des dossiers thématiques.

Figure 2 - Page d’accueil de Paperblog.fr (janvier 2010)Figure 2

Des objectifs quantitatifs

42

Le concept de Paperblog est ainsi entièrement tourné vers un objectif principal : publier le plus de contenu possible avec un coût minimum. Contrairement aux sites qui doivent préserver un certain capital journalistique ou qui recherchent un traitement original de l’actualité, Paperblog, quant à lui, se fixe des objectifs essentiellement quantitatifs. Il s’agit de rediffuser le maximum d’articles quotidiennement, sur tous les sujets, et obtenir ainsi un bon référencement de ses pages par les principaux moteurs de recherche. Ceci avec un coût marginal quasi nul, puisque le contenu en question consiste en des reproductions automatisées dont l’utilisation par Paperblog se fait sans rémunération des auteurs. Ceci permet à Paperblog de « casser » les prix, en proposant aux annonceurs un très bas tarif par internaute touché.

Cette logique économique définit également le positionnement éditorial particulier de Paperblog. Celui-ci ne cherche pas à mettre en avant la couverture de l’actualité chaude, mais se concentre plus spécifiquement sur des contenus de type magazine (loisir, cuisine, voyage, culture, etc.) qui comportent un triple intérêt économique. Premièrement, ces sujets, moins sensibles que ceux liés à l’actualité politique ou judiciaire par exemple, ne nécessitent pas une vérification de l’information par des journalistes selon les responsables du site, ce qui minimise le coût de traitement. Deuxièmement, ce sont des contenus dont la valeur économique est pérenne et pas seulement liée à l’actualité immédiate. En clair, il s’agit d’une information de stock qui peut générer de l’audience à long terme, essentiellement par le biais de moteurs de recherche. Enfin, les contenus magazine correspondent mieux à la demande des annonceurs puisqu’ils attirent une audience mieux qualifiée que celle de l’actualité généraliste. Cette logique de rentabilisation publicitaire a des incidences sur les modalités de hiérarchisation de l’information. Ainsi, considérées comme économiquement peu attractives par les responsables de Paperblog, les thématiques généralistes telles que la politique ou les questions sociales, bien que présentes sur le site, sont rarement mises en avant sur la page d’accueil.

Les relations avec les blogueurs

43

Le bon positionnement de Paperblog sur les moteurs de recherche est le résultat d’un travail de référencement efficace, qui d’ailleurs fait partie de la promesse faite aux blogueurs d’augmenter le nombre de leurs lecteurs. Cependant, les relations que ceux-ci entretiennent avec Paperblog sont complexes. Plusieurs milliers d’auteurs diffusent leur production via le service mais beaucoup en sont partis, souvent en mauvais termes, et ont rendu publique leur désapprobation des méthodes employées par le service [31][31] Sur son site, Fabien Pretre recense un certain nombre.... Le reproche fait par de nombreux blogueurs à Paperblog est de reprendre intégralement et d’exploiter leur contenu pour être mieux référencés que les blogs eux-mêmes. En effet, bénéficiant d’un PageRank élevé, Paperblog se classe souvent en meilleure position, dans les résultats de Google, que les blogs à l’origine du contenu. Souvent, les lecteurs lisent un article reproduit par Paperblog sans en connaître la source et sans visiter le site qui en est à l’origine. Il existe bien un lien sur les pages de Paperblog vers le blog concerné mais il est peu mis en valeur et ne semble pas attirer de clics.

44

Cette volonté de Paperblog d’« absorber » la valeur ajoutée des blogs en exploitant leur contenu se manifeste également dans les conditions d’utilisation du service. Il s’agit d’un contrat par lequel les auteurs cèdent le droit patrimonial de leur production à Paperblog et permettent donc à celui-ci de l’exploiter comme il l’entend, dans le respect des droits moraux des auteurs. Même si les responsables du site laissent entendre qu’ils sont prêts à rémunérer les auteurs en cas de succès économique, la société est dans les faits en train de constituer gratuitement une gigantesque base de données qu’elle peut exploiter à sa guise et sans limitation dans le temps. Cette volonté de s’accaparer du contenu en provenance des blogs, qui place de fait Paperblog dans une position d’éditeur ou de méta-éditeur (Chartron, Rebillard, 2007), se trouve en contradiction avec le statut de simple hébergeur revendiqué par ses responsables. En effet, ces derniers refusent d’endosser la responsabilité juridique pour les articles publiés sur le site, afin d’éviter le coût supplémentaire qu’induirait le filtrage a priori des contenus. Il apparaît ainsi que l’avantage économique procuré à Paperblog par l’automaticité de ses procédés de collecte, de traitement et de publication de l’information s’accompagne également de risques juridiques.

Conclusion : pluralité des stratégies et des modèles

45

Les trois acteurs observés présentent des traits communs qui nous permettent de les classer dans la catégorie des infomédiaires. Google, Wikio et Paperblog accomplissent des tâches de packaging des contenus en parallèle à leur activité de recherche d’informations. Celle-ci ne consiste pas en une pure activité d’appariement puisque comportant également un assemblage, sous une forme éditorialisée, de contenus ou de liens puisés dans les gisements considérables de l’internet. Les infomédiaires examinés tentent ainsi d’exploiter l’externalité positive que constitue pour leur activité l’information non marchande (blogs) ou gratuite (éditeurs) disponible sur le web (Gensollen, 1999). Cependant, les différences entre les trois acteurs observés dans nos études de cas sont également importantes. Nous pouvons dégager un certain nombre de différences au niveau du positionnement stratégique et du fonctionnement :

Leurs marchés respectifs

46

Alors que Google est une multinationale d’envergure mondiale, Paperblog et Wikio sont des start-ups dont les marchés sont localisés – la France pour le premier, certains pays européens pour le second – et les moyens limités. Cette différence de taille implique des stratégies et des méthodes de travail différentes : plus souples et proches du terrain local pour Wikio et Paperblog, davantage mondialisées et industrialisées pour Google.

La spécialisation dans un domaine spécifique de l’information

47

Paperblog s’efforce de se spécialiser dans le segment de niche des contenus « magazine », produits par des auteurs amateurs via leurs blogs. Wikio, tout en étant quasi exhaustif dans sa couverture des sources d’information, semble miser davantage sur le secteur des blogs. Enfin, Google spécialise ses différents services en fonction des sources (Google News pour les éditeurs professionnels, Blogsearch pour les blogueurs) tout en étant présent dans tous les segments d’information.

Les relations avec les éditeurs

48

Dans la plupart des cas, Google parvient à imposer ses règles à la majorité des éditeurs, essuyant les polémiques et ne cédant que face aux acteurs présentant un intérêt hautement stratégique (agences de presse, et notamment l’AFP en France). Inversement, Wikio semble subir les contraintes imposées par les éditeurs en matière d’exploitation commerciale de leurs contenus. Ainsi, largement favorable dans le cas de Google, le rapport de forces entre infomédiaires et éditeurs professionnels est en revanche plus incertain pour Wikio et oblige ce dernier à se recentrer sur les blogs. Dans ce cadre, le choix de Paperblog de se positionner uniquement sur le terrain du contenu amateur peut être interprété comme une volonté de s’affranchir des injonctions des éditeurs professionnels.

Le degré de reprise de contenus

49

Google et Wikio se bornent à la reprise de fragments de contenus bien identifiés et encadrés par leurs accords respectifs avec les éditeurs (titre, chapôs, début de l’article), alors que Paperblog republie l’intégralité des billets en provenance des blogs recensés. Ceci est possible parce que les blogueurs se contentent de la rétribution symbolique apportée par les lecteurs supplémentaires drainés par Paperblog, et n’ont pas de prétentions financières.

Le recours aux moyens humains

50

Si l’intervention humaine fait partie intégrante de l’activité d’infomédiation, son poids est plus ou moins affirmé selon les acteurs. Ainsi, Google revendique une approche dominée par des critères algorithmiques, ce qui constitue un argument censé prouver sa « neutralité » dans le choix des sources et la hiérarchisation de l’information. Wikio et Paperblog quant à eux mettent en œuvre des procédés associant un traitement automatique de l’information et une intervention « manuelle » de leurs employés. Dans le cas de Wikio, cette intervention fait appel à une expertise documentaire alors que Paperblog effectue une hiérarchisation qui s’apparente davantage à une activité journalistique.

Le recours à une hiérarchisation « participative »

51

Globalement, les infomédiaires font appel aux recommandations des internautes pour hiérarchiser l’information. Ainsi, un système de votes définit les articles mis en avant sur la page d’accueil de Wikio. Sur Google News, les choix effectués par les internautes peuvent influer sur l’indice algorithmique attribué aux sources et peser ainsi indirectement sur la hiérarchisation de l’information. Enfin, Paperblog propose également des dispositifs participatifs (votes, commentaires) et communautaires (profils des auteurs). Cependant, mis à part Wikio, cet aspect est relativement peu développé dans les faits.

52

Les positionnements et stratégies des infomédiaires analysés dans cet article diffèrent ainsi largement. Tant du point de vue de leur prédilection pour un certain type de contenu, que de leurs procédés d’indexation, les infomédiaires ne forment pas un ensemble complètement homogène. Ces ajustements de position, dans un registre particulier d’infomédiation (plus ou moins spécialisée, plus ou moins automatisée), ne doivent toutefois pas faire perdre de vue l’essentiel, c’est-à-dire ce qui unit ces acteurs. Leur fonction de base reste d’assembler, pour les internautes, des contenus produits par des tiers et disséminés sur l’internet. Cette fonction confère aux infomédiaires un rôle central dans la filière de l’information d’actualité en ligne. Elle les amène à établir des relations étroites avec les fournisseurs de contenus, blogueurs amateurs et éditeurs professionnels, ces derniers constituant simultanément des concurrents dans la valorisation de l’audience auprès des annonceurs.

53

Cette situation de coopétition décrite au cours du présent article peut maintenant être analysée de façon plus globale au niveau théorique. Si infomédiaires et éditeurs sont tout autant partenaires que rivaux, c’est que coexistent en réalité plusieurs modèles socio-économiques – le courtage informationnel et les anciens modèles de l’édition et du flot issus des industries médiatiques (Miège, 2000) – dans la filière de l’information d’actualité en ligne (voir la figure 3).

Figure 3 - Filière de l’information en ligneFigure 3
54

Entre la création en amont – qui sur l’internet fait intervenir des rédacteurs amateurs aux côtés des journalistes professionnels – et la consommation en aval par les internautes, interviennent plusieurs types d’intermédiaires : - Les éditeurs et les hébergeurs, représentés sur la partie gauche du schéma, ont des relations qui finalement tendent à reproduire les modèles socio-économiques existants des industries médiatiques, en incluant toutefois certaines logiques sociotechniques de l’internet. Les éditeurs sont de plusieurs natures, selon que leur mise en écran d’informations d’actualité puise plutôt dans la production professionnelle ou plutôt dans la création amateur, et selon que leur sélection parmi ces contenus est l’objet de choix éditoriaux internes et normés (médias et agences en ligne, services d’actualité des portails) ou d’un filtrage collectif, intégrant les avis et propositions des internautes (médias participatifs, webzines, blogs).

55

- Les infomédiaires, représentés sur la partie droite du schéma, occupent conjointement les espaces habituellement séparés de l’édition et de la distribution-diffusion. Qu’ils s’appuient sur une indexation automatisée des contenus d’actualité (agrégateurs), ou qu’ils mâtinent leurs algorithmes de considérations liées aux recommandations des internautes (digg-like), les infomédiaires effectuent un travail éditorial – certes limité – de sélection des informations et de présentation d’extraits de celles-ci sur leurs pages d’accueil. Symétriquement, ils opèrent au niveau de la distribution-diffusion selon une logique de l’accès, se posant en passerelles hypertextuelles vers les sites correspondant aux requêtes des internautes.

56

Ce schéma fait ainsi apparaître deux voies d’intermédiation, deux formes d’organisation des relations entre acteurs de l’amont à l’aval, avec un type d’acteur central pour chacune des voies : l’éditeur d’un côté et l’infomédiaire de l’autre.

57

Sur le plan de la valorisation de ces activités et de l’équilibre économique d’ensemble de la filière, une source de revenus se tarit nettement en comparaison des filières médiatiques existantes et notamment la filière de la presse écrite : le paiement par l’utilisateur final. Même si une légère tendance au retour à l’information payante semble se dessiner depuis quelques mois sur le web, l’achat direct de contenus d’actualité se limite aujourd’hui à des abonnements à des offres premium (informations à valeur ajoutée, archives). La source de revenus principale dans cette configuration est celle du financement indirect, en grande partie captée par les infomédiaires (courtage promotionnel).

58

Malgré leur audience massive ou qualifiée, les éditeurs voient ainsi leur échapper une partie des revenus liés à l’information d’actualité sur l’internet alors que, de surcroît, la multiplication des espaces publicitaires tire les prix vers le bas. De leur côté, les infomédiaires semblent mieux placés aujourd’hui pour bénéficier de la manne publicitaire en lien avec l’information d’actualité. D’autant plus que leurs coûts de main-d’œuvre sont faibles, s’appuyant sur des processus largement automatisés et une fréquente absence de rémunération des éditeurs, marchands comme non marchands.

59

C’est in fine la question du financement de la création de contenus d’actualité qui est posée avec cette analyse des modèles socio-économiques de l’information en ligne. Nos trois études de cas, réalisées en 2007 et 2008, portent sur des acteurs qui ne rémunèrent pas directement la création des contenus dont ils exploitent l’infomédiation (à de rares exceptions près comme l’accord trouvé entre Google et l’AFP). En revanche, les rédactions numériques des médias existants (journaux, radios, télévisions) et des agences de presse, ainsi qu’une partie des pure players (sites participatifs et webzines), emploient des journalistes. Ces éditeurs sont ainsi les seuls à supporter les coûts de production de l’information journalistique professionnelle, souvent au risque de leur viabilité économique, mais doivent en partager les retombées avec les infomédiaires. Dans ce contexte, la question importante de l’équilibre socio-économique de la filière, faisant se juxtaposer plusieurs modèles sans véritablement les marier, reste à résoudre.

60

Au-delà de son impact sur l’agencement économique de la filière, l’étude de l’infomédiation devra être poursuivie, sur un plan finalement plus politique qu’économique. La fonction d’orientation des internautes vers les sources d’information est en effet primordiale dans une optique de pluralisme de l’information. L’internet présente la caractéristique d’abriter des types d’espaces publics très différents : c’est à la fois un lieu où la consommation d’informations reste très concentrée sur quelques sites drainant des audiences de masse, en même temps qu’un terrain pour l’expression d’opinions alternatives, celles par exemple relayées au sein de la blogosphère lors des campagnes électorales (Flichy, 2008). Assurément, les infomédiaires sont des vecteurs importants pour le développement de chacun de ces types d’espaces publics. Ce qui se joue ici est donc plus qu’une simple opposition de procédés de recherche et d’assemblage d’informations. C’est aussi la capacité pour certains infomédiaires à mettre en lumière et à rendre plus accessible une représentation du monde déjà largement diffusée ou à l’inverse moins exposée. À l’évidence, cet aspect encourage à scruter, dans le futur, l’évolution des infomédiaires en matière d’informations d’actualité en ligne.


Références

  • BENKLER Y. (2006), The Wealth of Networks. How Social Production Transforms Markets and Freedom, New Heaven / London, Yale University Press.
  • BEUSCART J.S., DACHEUX C., MELLET K. (2008), « Les modèles d’affaires du web 2.0 », Internet Actu, 7 avril 2008, http://www.internetactu.net/2008/03/07/les-modeles-d%E2%80%99affaires-du-web-20/
  • BOUQUILLION P., COMBÈS Y. (Éds) (2007), Les industries de la culture et de la communication en mutation, Paris, L’Harmattan.
  • BOURE R., SMYRNAIOS N. (2006), « L’infomédiation de l’information en ligne. Les cas des filiales françaises de Google et de Yahoo », in CHARTRON G., BROUDOUX E. (Éds), Document numérique et société, Paris, ADBS Éditions, pp. 43-55.
  • BROUSSEAU E. (2001), « e-Economie : qu’y a-t-il de nouveau ? », Annuaire des Relations Internationales, Bruxelles, Bruylant, pp. 813-833.
  • BUSTAMANTE E. (2004), “Cultural industries in the Digital Age: some provisional conclusions”, Media, Culture and Society, vol. 26, n° 6, pp. 803-820.
  • CARLSON M. (2007), “Order versus access: news search engines and the challenge to traditional journalistic roles », Media, Culture and Society, vol. 29, n° 6, pp. 1014-1030.
  • CHARTRON G., REBILLARD F. (2007), « La publication sur le web, entre filiations et innovations éditoriales », in PEDAUQUE R.T., La redocumentarisation du monde, Toulouse, Éditions Cépaduès, pp. 201-213
  • CHI T., NYSTROM P. (1998), “An Economic Analysis of Matrix Structure, Using Multinational Corporations as an Illustration”, Managerial and Decision Economics, vol. 19, n° 3, pp. 141-156
  • CUTAJAR M. (1997), Les courtiers en information, Thèse en Sciences de l’information et de la communication, Université Lumière Lyon 2.
  • DEL AGUILA-OBRA A. R., PADILLA-MELENDEZ A., SERAROLS-TARRES C. (2007), “Value creation and new intermediaries on the internet. An exploratory analysis of the online news industry and the web content aggregators”, International journal of information management, vol. 27, n° 3, pp. 187-199.
  • DIONIS DU SÉJOUR J., ERHEL C. (2008), Rapport d’information (n° 627) sur la mise en application de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, Assemblée nationale, 23 janvier 2008, http://www.assemblee-nationale.fr/13/rap-info/i0627.asp.
  • FLICHY, P. (2008) « Internet et le débat démocratique », Réseaux, n° 150, pp. 159-185.
  • GENSOLLEN M. (1999), « La création de la valeur sur Internet », Réseaux, n° 97, pp. 13-76.
  • GENSOLLEN M. (2004), « Économie non rivale et communautés d’information », Réseaux, n° 124, pp. 110-204.
  • GENSOLLEN M, GILLE L., BOURREAU M., CURIEN N. (2004), « Distribution de contenus sur internet. Commentaires sur le projet de taxation de l’upload », Les Cahiers de l’internet (Fondation Internet Nouvelle Génération), n° 4, pp. 9-47 / “Content distribution via the Internet. Comments on upload taxation plans”, Communications & Strategies, n° 55, pp. 17-44.
  • HAGEL J., RAYPORT J.F. (1997), “The Coming Battle for Customer Information”, Harvard Business Review, vol. 75, n° 1, pp. 53-65.
  • HESMONDHALGH D. (2007), The Cultural Industries, London / Los Angeles / New Delhi, Sage.
  • KNAUF A., DAVID A. (2004), « Vers une meilleure caractérisation des rôles et compétences de l’infomédiaire dans le processus d’intelligence économique », Colloque Veille stratégique scientifique & technologique : systèmes d’information élaborée, bibliométrie, linguistique, intelligence économique, Toulouse, 25-29 octobre, http://hal.inria.fr/docs/00/05/22/16/DOC/vsst2004.doc.
  • MIÈGE B. (2000), Les industries du contenu face à l’ordre informationnel, Grenoble, PUG.
  • MIÈGE B. (2007), La société conquise par la communication. Tome III : Les Tic entre innovation technique et ancrage social, Grenoble, PUG.
  • MOEGLIN P. (2005), Outils et médias éducatifs. Une approche comunicationnelle, Grenoble, PUG.
  • PATERSON C., DOMINGO D. (Eds.) (2008), Making online news: the ethnography of new media production, New York, Peter Lang.
  • SIMONNOT B., GALLEZOT G. (Éds) (2009), L’entonnoir. Google sous la loupe des sciences de l’information et de la communication, Caen, C&F Éditions.
  • SMYRNAIOS N., REBILLARD F. (2009), « L’actualité selon Google. L’emprise du principal moteur de recherche sur l’information en ligne », Communication et langages, n° 160, pp. 95-109.
  • TAPSCOTT Don (Ed.) (1999), Creating Value in the Network Economy, Boston, Harvard Business School Press.
  • VALASKAKIS K. (1982), “The concept of Infomediation: A framework for a structural interpretation of the information revolution” in BANNON L., BARRY U., HOLST O. (Eds.), Information Technology: Impact on the Way of Life, Dublin, Tycooly Publishing, pp. 21-36.

Notes

[1]

Pour des raisons de commodité de la lecture, nous privilégierons l’emploi de « filière de l’information en ligne » au lieu de « filière de l’information d’actualité sur l’internet ». Précisons toutefois que nous ne désignons pas – avec la formule « information en ligne » – l’ensemble des types d’information (administrative, professionnelle, encyclopédique, etc.) en circulation sur l’internet, mais bien les seules informations en lien avec l’actualité.

[2]

« le processus par lequel un nombre croissant d’activités humaines, dans différents domaines, (…) sont en passe soit d’être médiées soit d’être remplacées par des appareils high tech de traitement de l’information » [notre traduction].

[3]

La notion d’infomédiation a été utilisée dans des domaines multiples (marketing, intelligence économique, veille informationnelle) et avec des acceptions différentes (pour une bibliographie complète sur la notion d’infomédiaire, voir Knauf, David, 2004).

[4]

À l’image du premier d’entre eux, Digg.com, nombre d’infomédiaires font désormais appel aux internautes pour sélectionner et hiérarchiser les liens proposés (ex. : Fuzz.fr et Scoopeo en France).

[5]

Pour un rappel des faits, voir par exemple Bérénice Dubuc, « Après Fuzz, Wikio à son tour devant la justice », lexpress.fr, 24 avril 2008, http://www.lexpress.fr/actualite/societe/apres-fuzz-wikio-a-son-tour-devant-la-justice_472297.html.

[6]

Entretiens avec M. Laurent Binard, directeur général et co-fondateur de Wikio (mars 2007), M. Yoram Elkaïm, responsable juridique de Google Europe, M. Olivier Esper, responsable des relations institutionnelles de Google France (mars 2007), M. Nicolas Verdier, directeur général et co-fondateur de Paperblog, (octobre 2008). Ces entretiens semi-directifs d’une heure environ ont été accompagnés d’observations in situ dans les locaux de Wikio et Paperblog.

[7]

Ces entretiens et observations auprès de AFP, Bakchich, La Dépêche Interactive, Les Échos, Libération, Ouest-France, Rue89, ainsi que de certaines publications des groupes Bayard-Milan, Lagardere Active Media, Le Moniteur, ont été réalisés par les auteurs en collaboration avec B. Cabedoche et B. Damian-Gaillard dans le cadre des recherches Mutations de la filière Presse et Information (Programme Diversité et mutations des industries culturelles, soutenu par le ministère de la Culture et de la Communication et hébergé par la MSH Paris-Nord), et Internet, pluralisme et redondance de l’information (Programme soutenu par la MSH Paris-Nord, réunissant des chercheurs en informatique et information-communication des laboratoires Crape / Université Rennes 1, Elico / Université de Lyon, Gricis / UQAM – Montréal, Lerass / Université Toulouse 3, Liris / Insa Lyon).

[8]

Source : entretiens avec Yoram Elkaïm et Olivier Esper, mars 2007.

[9]

Ce chiffre a été avancé à plusieurs reprises par les dirigeants de Google. Voir par exemple Eric Schmidt, « How Google Can Help Newspapers », Wall Street Journal, 1er décembre 2009, http://online.wsj.com/.

[10]

Sources : Interview de Phillipe Jannet, directeur du Monde Interactif, à Electron libre, 6 février 2009, http://electronlibre.info/Philippe-Jannet-Nous-preferons-une,251, commentaire de Laurent Mauriac, directeur général de Rue89, sur l’article « Journalisme en ligne : les forçats de l’uniformisation », 28 mai 2009, http://www.rue89.com/media-internet/2009/05/28/journalisme-en-ligne-les-forcats-de-luniformisation?page=0#commentaires, Éric Mettout, « D’où qu’y viennent, les lecteurs ? », http://blogs.lexpress.fr/nouvelleformule/2009/09/dou-qui-viennent-les-invites.php, et entretien avec Michael Bourguignon, responsable du site depeche.fr, juillet 2009.

[11]

Source : entretiens avec Yoram Elkaïm et Olivier Esper, mars 2007

[12]

Catégories de Médiamètrie//NetRatings : « Une brand est un agrégat de domaines, de sites uniques et/ou de pages rattachés à une même marque » ; « le niveau Channel désigne une thématique/chaîne. Il rassemble les contenus d’une marque qui ont une même thématique. »

[13]

Wikio n’est pas classé dans la sous-catégorie « Actualités » par Médiamétrie//NetRatings.

[14]

À titre d’exemple, les outils de gestion de contenu de certaines rédactions web intègrent dans leur interface le nombre de visites générées par Google News pour chaque article. Cet indice peut être utilisé comme critère de hiérarchisation de l’information. Source : observation dans les locaux de La Dépêche Interactive, juillet 2009.

[15]

Cette tendance que nous avons relevée lors de nos enquêtes auprès des sites d’information français est également confirmée par des recherches internationales (Paterson, Domingo, 2008).

[16]

Déclaration de Josh Cohen lors des états généraux de la presse relatée par Éric Scherer, « États généraux : Google en position d’accusé », AFP-Mediawatch, 11 décembre 2008, http://mediawatch.afp.com/?post/2008/12/11/Etats-Generaux-%3A-Google-en-position-daccuse.

[17]

Andrew Orlowski, « Google: Make newspapers more like Wikipedia », The Register, 7 mai 2009, http://www.theregister.co.uk/2009/05/07/google_david_simon_on_newspaper_crisis/.

[18]

Éric Scherer, « Newspaper bailout: what role will Google play in the news ecosystem? », 13 décembre 2008, http://mediawatch.afp.com/?post/2008/12/13/Newspaper-bailout%3A-what-role-will-Google-play-in-the-news-ecosystem.

[19]

Voir AFP, « US newspaper owners are “mad as hell”», 7 avril 2009, http://www.breitbart.com/article.php?id=CNG.bbd53bd17a5713678ea8bea533d92910.2a01&show_article=1.

[20]

Solana Larsen, « Denmark: “Deep Linking” Under Fire by Newspaper Publishers », Global voices, 22 novembre 2008, http://globalvoicesonline.org/2008/11/22/denmark-deep-linking-under-fire-by-newspaper-publishers/, et Robert Andrews, « Newspapers To Govt: Make Google Pay For Our Content », Paidcontent, 25 mars 2009, http://paidcontent.co.uk/article/419-newspapers-to-govt-make-google-pay-for-our-content/.

[22]

Google est réticent en ce qui concerne l’adoption du protocole ACAP (Automated content access protocol) soutenu par la World Association of Newspapers (WAN), le European Publishers Council (EPC) et la International Publishers Association (IPA). La société américaine tente d’imposer de fait ses propres standards comme celui des Sitemaps dédié aux sites d’actualité.

[24]

Source : entretien avec Laurent Binard, mars 2007.

[25]

Présentation de Pierre Chappaz lors de la conférence LeWeb ‘08, 9 décembre 2008, http://www.slideshare.net/pierre2/pierre-chappaz-leweb08-presentation?type=powerpoint.

[26]

Ces données proviennent de l’outil interne de mesure de Wikio appelé Xiti (site-centric) et ne sont pas comparables avec celles de Médiamétrie qui utilise une mesure basée sur un panel (user-centric). Pour une explication des différences entre mesures d’audience web et de leurs enjeux, voir Emmanuel Parody, « Où l’on reparle de Mediamétrie et Nielsen », 11 février 2009, http://ecosphere.wordpress.com/2009/02/11/ou-lon-reparle-de-mediametrie-et-nielsen/.

[27]

Entretien avec Laurent Binard, mars 2007.

[28]

Compte rendu de la Commission Presse en ligne du GESTE, mai 2009.

[29]

En effet, en 2008, l’équipe de Paperblog comprenait entre 5 et 7 personnes selon les périodes, dont uniquement quatre en CDI.

[30]

Source : observation dans les locaux de Paperblog, octobre 2008.

[31]

Sur son site, Fabien Pretre recense un certain nombre de billets de blogueurs à ce sujet, http://www.fabienpretre.com/2009/03/paperblog-comment-se-desinscrire.html.

Résumé

Français

Au-delà des médias existants (presse, radio, télévision), plusieurs catégories d’acteurs interviennent dans la filière de l’information en ligne. Parmi eux, les infomédiaires occupent une position centrale, à mi-chemin entre édition et diffusion. Leur analyse socio-économique, à travers trois études de cas (Google Actualités, Wikio, Paperblog), fait apparaître une fonction pivot dans l’orientation des flux d’audience et des revenus publicitaires. En situation de « coopétition » vis-à-vis des éditeurs professionnels, les infomédiaires ne participent pas directement au financement de la création journalistique. De façon plus générale, leurs relations avec les producteurs de contenus influent sur le type d’information, professionnelle ou amateur, dominante ou alternative, mise à disposition des internautes.

English

Apart from the existing media (press, radio, television), the on-line news sector involves several categories of actors. One of them, the infomediaries, is in a central position, half-way between editing and publishing. The socio-economic analysis of this category in three case studies (Google News, Wikio, and Paperblog) reveals its pivotal function in the orientation of audience flows and advertising income. In a situation of “coopetition” with professional publishers, the infomediaries do not participate directly in the financing of journalistic creation. More generally, their relations with the producers of content influence the type of news – professional or amateur, dominant or alternative – made available to internet users.

Plan de l'article

  1. Qualifier l’infomédiation dans la filière de l’information en ligne
    1. L’infomédiation, une activité à mi-chemin entre les niveaux de l’édition et de la diffusion
    2. Financement indirect et coopétition des acteurs de l’information en ligne
  2. Positionnement et stratégies d’infomédiaires
    1. Google, de l’infomédiation généralisée à l’infomédiation spécialisée
      1. Des relations complexes avec les éditeurs
    2. Wikio, plaque tournante de la blogosphère
      1. Un mode de financement original
      2. Infomédiation et intervention humaine
      3. Des relations encadrées avec les éditeurs
    3. Le penchant éditorial de Paperblog
      1. Des objectifs quantitatifs
      2. Les relations avec les blogueurs
  3. Conclusion : pluralité des stratégies et des modèles
    1. Leurs marchés respectifs
    2. La spécialisation dans un domaine spécifique de l’information
    3. Les relations avec les éditeurs
    4. Le degré de reprise de contenus
    5. Le recours aux moyens humains
    6. Le recours à une hiérarchisation « participative »

Pour citer cet article

Rebillard Franck, Smyrnaios Nikos, « Les infomédiaires, au cœur de la filière de l'information en ligne. Les cas de google, wikio et paperblog », Réseaux, 2/2010 (n° 160-161), p. 163-194.

URL : http://www.cairn.info/revue-reseaux-2010-2-page-163.htm
DOI : 10.3917/res.160.0163


Article précédent Pages 163 - 194 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback