Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2009/1 (Vol. 46)

  • Pages : 80
  • DOI : 10.3917/docsi.461.0054
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 54 - 66 Article suivant

La forêt pousse... Jusqu’où ira-t-elle ?

1

Analyse. Demain, le web : les nuages ou la forêt ?... Il faudrait être devin pour imaginer les métaphores qui ne manqueront pas de se substituer à « la toile » et pour en dégager les nouveaux usages. Restons modestes, propose Bertrand Sajus, et analysons les concepts-clés qui sont au cœur des transformations 2.0. C’est un paysage passionnant et touffu qui apparaît. Il revisite notamment les questions de validation et fixité des contenus, les rapports entre webs social et sémantique et pourrait bien remettre en selle les arts antiques de la mémoire...

2

Qui se risquerait aujourd’hui à brosser, même à grands traits, la carte du web de demain ? On se rappelle que la révolution Internet elle-même n’avait été prévue par personne, du moins dans l’ampleur qu’on lui connaît. Et demain, parlera-t-on même de web ? D’autres métaphores prendront peut-être le relais (le nuage, par exemple, pourrait se substituer à la toile…). Vous l’avez compris, le dernier volet de ce dossier n’a pas l’ambition de poser le moindre jalon prédictif. Il s’agit seulement de souligner quelques points cruciaux, en positif et en négatif, à partir desquels de profondes transformations des usages sont envisageables, quoique impossibles à prédire dans leurs formes et dans leurs rythmes.

3

Or, parmi ces points cruciaux, on ne peut guère ignorer quelques questions spécifiques du web 2.0. Nous en avons retenu deux qui concernent particulièrement, par leur nature, les fondamentaux des métiers de l’information, de la documentation et de la connaissance (IDC). La validation des contenus d’une part, la pérennisation de l’information d’autre part. Mais nous avons également tenu à faire le point sur les rapports du web dit sémantique avec le web social, ainsi qu’aux spéculations sur les mondes virtuels et la mémoire. Au regard de la diversité de ces sujets, force est de reconnaître que l’évolution du web nous tourne vers des horizons multiples et nous réserve bien des surprises. Mais ces sujets ne sont pas pour autant fermés sur eux-mêmes. Loin s’en faut ! Ils communiquent entre eux et s’inscriront peut-être demain dans des problématiques communes.

Validation des contenus

4

Pour les professionnels de l’information, la question des contenus, de leur genèse et de leur validation est essentielle. Wikipédia, avec plus de onze millions de notices en 229 langues est un monument incontournable. Avec ses huit années d’existence, il offre assez de recul pour analyser les ressorts sociologiques profonds de sa réussite. À la différence d’autres projets encyclopédiques inaboutis, ce sont les mêmes contributeurs qui, selon le principe fondateur du projet, produisent, sanctionnent et valident les contenus.

5

C’est à ce couplage constant des fonctions de production et de régulation que, selon Dominique Cardon et Julien Levrel, Wikipédia doit sa dynamique éditoriale. Cela implique une décentralisation systématique des actes de contribution et pose du même coup la question de la cohérence du tout. Or les millions de sujets qui constituent les entrées de cette encyclopédie en font une source organisée incomparable pour envisager la « sémantisation » du web, c’est-à-dire la prise en compte de la signification des mots dans l’organisation des contenus et le pilotage des machines de l’Internet.

6

Bernard Vatant souligne la valeur paradigmatique et opératoire du phénomène Wikipédia dans les projets actuels du web sémantique, parmi les plus prometteurs (notamment DBpedia). Comme si l’ambition de simuler des raisonnements humains à l’échelle du web, via les ordinateurs, supposait cette couche de collaboration humaine où l’émergence l’emporte sur la planification. Chuuut !… En deçà des buzz ampoulés du web 2.0, presque silencieusement, une forêt pousse…

Pérennisation de l’information

7

Nous ne sommes pas ici très éloignés d’une autre question qui taraude les professionnels de l’information, celle de la stabilité des repères, de la pérennisation des contenus et, en définitive, de la mémoire. Rappelons que le web 2.0 est défini, fort justement, comme un phénomène de socialisation avancée de l’Internet. Mais ce phénomène repose sur le principe de l’accès et, pourrait-on dire, de l’accès comme usage et de l’usage comme accès.

8

Comme l’a noté Jeremy Rifkin [1][1] Jeremy Rifkin, L’âge de l’accès : la nouvelle culture..., partout dans nos sociétés dites avancées, l’accès à des flux de services tend à se substituer à la possession de biens tangibles et stables. Cette substitution marque une évolution culturelle et sociale autant que technologique. Il n’est qu’à suivre les débats de société, très vifs, autour de la crise du MP3 pour s’en convaincre.

9

Ce glissement du solide vers le fluide, concomitant à l’essor des TIC, Simon Nora et Alain Minc l’avaient pressenti dès 1978, à l’aube de la télématique. Dans leur rapport sur L’informatisation de la société, ils annonçaient que la relation au savoir ne serait plus d’ordre patrimonial mais heuristique. « L’informatique, écrivaient-ils, va aussi bouleverser une culture individuelle constituée principalement de connaissances ponctuelles. Désormais la discrimination (sic) résidera moins dans le stockage des savoirs, et davantage dans l’habileté à chercher et à utiliser. Les concepts l’emporteront sur les faits, les itérations sur les récitations.[2][2] Simon Nora et Alain Minc, L’informatisation de la société,... »

10

Quelque trente ans plus tard, cette intuition se révèle étonnamment juste. Le paysage technologique ouvert par le web 2.0 se caractérise, entre autres, par une externalisation massive du stockage des données. Et celles-ci, comme le souligne Hervé Le Crosnier dans son article sur le « cloud computing[3][3] Hervé Le Crosnier, « À l’ère de l’"informatique en... » se trouvent comme pulvérisées à travers une myriade de serveurs.

11

Cette tendance n’est pas sans lien avec les comportements informationnels et culturels. Nous pouvons ici distinguer très schématiquement trois plans technologiques sur lesquels se joue, certes en partie, le rapport au savoir et à la mémoire. Le plan matériel, tout d’abord, de la conservation physique des données (in fine la dématérialisation nous ramène toujours aux usages extrêmes du matériel), lesquelles se trouvent de plus en plus réparties sur une foule de machines. Le plan structurel de l’Internet, ensuite, qui pose la question de la pérennisation des liens et des systèmes de pointage et d’identification des ressources. Pérennisation aujourd’hui très faiblement organisée, comme l’expliquent Emmanuelle Bermès et Clément Oury.

12

Cette fragilité est accentuée par l’usage massif de plates-formes web 2.0 auxquelles des dizaines de millions d’internautes confient leurs données (archives photos personnelles, textes, etc.). Le dernier plan enfin, qui concerne davantage les personnes, est celui de la connexion de l’utilisateur final à ses applications et données. Le Wi-Fi, la 3G, sont les premières générations des technologies de l’informatique ubiquitaire de masse. Or, plus les données seront accessibles de n’importe où et à tout moment, plus leur appropriation reposera sur les prothèses d’accès individuel que sont les interfaces ultra-portables.

Cyberspace et arts de la mémoire

13

Ce contexte technologique favorise une externalisation de la mémoire personnelle. Celle-ci reposera probablement de moins en moins sur une capacité de mémorisation d’une forme (ainsi acquise comme une seconde nature) et de plus en plus sur une habileté à accéder à un point de l’Internet, à capter et filtrer des flux de données. En d’autres termes, les interfaces d’accès, avec toutes leurs richesses fonctionnelles, seront de plus en plus intimement intégrées, comme prothèses, aux processus cognitifs des personnes.

14

On comprend dès lors la pertinence des spéculations sur le cyberspace comme champ virtuel des arts de la mémoire. Ces fantasmagories qui hantent l’Internet depuis ses origines (cf. l’article de Rémi Sussan) pourraient bien ré-émerger. L’ars memoriae remonte, par-delà la Renaissance et le Moyen Âge, aux temps antiques où la rareté des documents écrits laissait une large part à la mémoire dans la transmission des savoirs. On comprend du même coup que l’externalisation des données et son corollaire, la quête de l’accès, appellent implicitement un contre-mouvement. Celui de l’appropriation intime, de l’intériorisation… dont le théâtre ultime est peut-être le corps et ses rythmes – mais c’est une autre histoire ! •

15

Bertrand Sajus

Contribuer et surveiller : l’autorégulation sur Wikipédia

16

Décryptage. Comment fonctionne Wikipédia ? Quelles procédures utilisent les participants à cette gigantesque encyclopédie en ligne pour régler leurs désaccords et produire un bien commun ? Dominique Cardon et Julien Levrel détaillent les fondements de Wikipédia qui ne propose pas uniquement à tous de contribuer à l’encyclopédie, mais s’attache aussi à faire de chaque contributeur un critique vigilant des contributions des autres. C’est la mise en œuvre de cette discussion continue et décentralisée qui fait toute l’originalité de son système d’autorégulation.

17

L’écriture de Wikipédia est le produit d’une forme surprenante et originale de travail coopératif qui reste encore mal ou incomplètement comprise [4][4] Ce texte reprend dans une version courte l’argument.... Dans les multiples débats qui entourent le succès de l’encyclopédie en ligne, on insiste en effet beaucoup sur la liberté de tout utilisateur d’écrire comme il le souhaite, sur les risques d’erreurs, d’approximation ou de vandalisme consécutifs à l’absence de contrôle éditorial a priori ou encore sur la revanche des amateurs sur les professionnels du savoir. L’originalité du processus d’écriture ouverte focalise l’attention de la plupart des commentaires, laudateurs ou critiques qu’attire l’encyclopédie sans que soit parallèlement souligné le contrôle de chacun sur chacun qui constitue l’indispensable corrélat de la liberté d’écriture des contributeurs.

18

Car, si sur Wikipédia l’écriture est un processus ouvert et participatif, comme sur beaucoup d’autres sites contributifs de l’Internet, la production collective d’une encyclopédie n’est possible que parce que la surveillance a posteriori des écritures individuelles est, elle aussi, ouverte et participative. Les wikipédiens ne se contentent pas d’écrire l’encyclopédie. Ils discutent, se disputent, négocient et s’accordent sur les pages Discussion. Ils se modifient, se corrigent et se révoquent sur les pages Historique. Ils se testent, s’amusent et apprennent dans les pages Bac à sable et Bistrot. Ils montent la garde, veillent, vérifient, corrigent, protègent et bloquent à l’aide de la Liste de suivi et des pages de Modifications récentes. Ils se querellent, argumentent, votent et décident sur les Pages à supprimer et alertent les Wikipompiers lorsque leurs débats s’enflamment. Et s’ils ne parviennent pas à s’accorder, ils iront alors accuser ou se défendre devant le Comité d’arbitrage.

19

L’originalité la plus radicale de Wikipédia tient sans doute moins à l’écriture participative qu’à cette mutualisation des procédures de surveillance et de sanction qui permet à la communauté de veiller sur elle-même.

Une vigilance participative

20

Le système de régulation de Wikipédia s’adosse sur une règle cardinale des systèmes auto-organisés : le contrôle local est plus efficient que la monopolisation centrale du pouvoir de sanction [5][5] Elinor Ostrom, Governing the Commons: The Evolution.... Lorsqu’elle est mise en œuvre par les producteurs eux-mêmes, la surveillance décentralisée constitue un moyen très efficace de garantir la confiance entre les membres de la communauté.

21

Elle s’avère d’autant plus efficace que la proximité entre le fautif et le surveillant permet la mise en œuvre de sanctions si graduées que leurs premières manifestations s’apparentent à un simple signalement d’erreurs de comportement à la communauté. Le fautif n’est pas « puni » mais utilise les signaux que lui adresse la communauté pour apprendre, réviser son comportement et se familiariser avec les règles communes. Surveillance et sanction, lorsqu’elles s’exercent à très bas niveau, de façon légère et publique, renforcent les liens de confiance et les valeurs de la communauté plus qu’elles n’excluent les malfaisants. Ce n’est que lorsque des fautes sont systématiquement répétées par la même personne, sans qu’elle tienne compte des signaux que lui adresse la communauté, que le contrevenant sera sanctionné plus fortement et qu’il pourra avoir à comparaître devant les instances centrales de la communauté.

22

Il reste que, la plupart du temps, une sanction locale, légère et immédiate, mêlant réprimandes et encouragements, permet l’intégration communautaire et facilite une gestion à très bas niveau de la très grande majorité des conflits entre les membres. Ce que fait apparaître ce modèle d’auto-organisation des communautés, c’est qu’il est non seulement nécessaire de décentraliser la surveillance et la sanction le plus fortement possible, mais qu’il est aussi utile de mettre en tension le local et le central dans la graduation des sanctions afin que, localement, elles visent la correction des comportements et, centralement, la punition des individus.

Un droit de contrôle partagé entre tous

23

Tout se passe comme si les wikipédiens avaient pris ces règles à la lettre pour en radicaliser le principe à l’extrême. Ils ne se sont pas contentés de réserver le pouvoir de surveillance et le droit de sanction à des instances locales de la communauté. Ils l’ont distribué à tous et à n’importe qui. Chaque contributeur est aussi censeur. À dire vrai, cette règle était d’emblée enfermée dans l’interface de la technologie retenue par Larry Sanger et Jimmy Wales. Interface morale d’un genre particulier, le wiki articule étroitement droit à l’écriture, devoir de discussion et pouvoir de sanction en refusant de les réserver à des populations différentes comme le font la plupart des modèles éditoriaux classiques.

24

Dans le vocabulaire des wikis, la « révocation », ou revert, consiste à annuler une écriture récente en revenant d’un clic à l’état antérieur du texte. Cette opération d’effacement très simple est rendue possible par l’enregistrement public de l’Historique de toutes les modifications faites sur la page. N’importe qui peut écrire sur Wikipédia, mais n’importe qui peut aussi effacer ce qu’un autre vient d’écrire.

25

Cette activité de contrôle se mesure d’abord par l’importance de plus en plus grande que prend la postproduction des articles dans le travail des encyclopédistes amateurs. Il apparaît, en effet, que les contributeurs de Wikipédia écrivent de moins en moins d’articles et passent de plus en plus de temps à discuter entre eux de la manière dont ils écrivent les articles et dont la communauté doit s’organiser. Avec la croissance de l’encyclopédie, la part de la production directe des articles a diminué au profit du travail indirect de coordination. Alors que, en 2001, 90 % des éditions sur la Wikipédia anglo-saxonne portaient sur les pages Articles, en juillet 2006, elles ne représentaient plus que 70 %. Plus encore, sur la même période, le pourcentage d’édition créant un nouvel article est tombé à moins de 10 % [6][6] Aniket Kittur, Bongwon Suh, Bryan A. Pendleton, Ed....

26

Or la qualité et la fiabilité des articles dépendent du nombre de contributeurs à l’article et à sa discussion. En comparant l’échantillon des 1 211 « articles de qualité » (featured articles) aux autres articles de l’édition anglo-saxonne de Wikipédia, Dennis Wilkinson et Bernardo Huberman ont montré qu’il existait un lien statistique robuste entre la qualité, le nombre d’éditions et la variété d’éditeurs distincts [7][7] Dennis M.Wilkinson, Bernardo A. Huberman, « Assesssing.... La régulation de Wikipédia s’appuie donc sur un double mouvement : elle décentralise le plus largement possible les conflits relatifs aux contenus en facilitant la discussion entre les rédacteurs ; en revanche, elle centralise sous la forme d’un système de sanction gradué le règlement des conflits liés aux personnes.

La régulation des conflits sur Wikipédia

27

On peut en effet décomposer les différentes formes de règlement des conflits sur Wikipédia en distinguant trois niveaux de régulation, la discussion, la médiation et la sanction, chacun d’eux appelant un degré de formalisation de plus en plus élevé. Dans la très grande majorité des cas, de façon systématique et principielle, les wikipédiens font leur possible pour que le règlement des conflits se résolve par la seule vertu de la discussion entre utilisateurs. Surveillance mutuelle et discussion orientée vers le consensus sont les deux grandes compétences requises dans les pages Discussion des articles. Elles constituent le lieu central et essentiel de règlement de la très grande majorité des conflits.

28

Il reste que, lorsqu’un accord ne peut être trouvé par la discussion, les wikipédiens lancent des procédures d’alertes et de médiation en faisant intervenir des tiers étrangers au conflit. N’importe qui peut alors se proposer comme médiateur dans un conflit sans détenir un statut spécifique, comme celui d’administrateur, au sein de la communauté. Il ouvre une arène de médiation spécifique afin de favoriser l’exposition des arguments des parties en conflit, favoriser la recherche d’un accord et, lorsque celui-ci apparaît impossible, d’inviter les wikipédiens à procéder à un vote argumenté. Ces médiations interviennent principalement dans trois arènes : les Pages à supprimer, les Désaccord de neutralité et les Wikifeux.

29

Enfin un troisième niveau de régulation doit être distingué dès lors que des sanctions à l’égard des contrevenants sont mises en jeu. Mais, ici, deux ordres de sanctions doivent être isolés selon que celles-ci relèvent de la gestion des conflits entre éditeurs ou de la surveillance des vandalismes. La première procédure est extrêmement rare et s’apparente à une chambre d’appel en cas d’échec des procédures de médiation précédentes. Elle s’exerce au sein du Comité d’arbitrage, petit groupe composé d’administrateurs élus qui doivent prononcer des mesures contre les personnes qui n’ont pas su régler leur différend par la discussion ou la médiation. La seconde, beaucoup plus fréquente elle, s’apparente à une sorte de pouvoir de police que les wikipédiens s’accordent afin de surveiller certaines des modifications récentes de l’encyclopédie.

30

La patrouille RC (Recent Change) à laquelle tous les wikipédiens peuvent participer, mais qui dans les faits est plutôt réservée aux membres les plus aguerris de la communauté et aux administrateurs, procède à une surveillance en temps réel de toutes les nouveautés apportées à l’encyclopédie afin de corriger d’une simple « révocation » les vandalismes, de bloquer les utilisateurs récidivistes ou de protéger les pages vandalisées (pouvoir réservé aux seuls administrateurs).

Les conditions de la réussite

31

Wikipédia n’aurait pas été possible, ou à tout le moins n’aurait pas été la même, si ces deux droits, écrire et révoquer, participer et sanctionner, n’avaient pas été aussi intimement associés. Que serait en effet Wikipédia si, seul, un corps particulier de personnes disposait du droit de révoquer les productions des autres ? Comment un tel filtre aurait-il été toléré par les contributeurs ? Qui aurait été légitime pour user d’un tel pouvoir ? Tout autre design des règles de participation et de sanction conduirait en effet à réinstaller dans le dispositif ce contre quoi l’encyclopédie ouverte s’est construite, l’autorité d’un comité d’expert veillant sur les productions des autres.

32

Depuis l’échec de Nupédia, de nombreuses expériences, à l’instar de Citizendium lancé par Larry Sanger, ont été conduites pour proposer ce genre d’architecture éditoriale. Toutes ont échoué ou sont moribondes. Quelle que soit la justesse des intentions de leurs concepteurs et la pertinence de leurs critiques à l’égard de Wikipédia, ces expériences font l’hypothèse que la motivation expressive des encyclopédistes amateurs peut être séparée de leur intérêt pour la surveillance de la qualité du bien collectif auquel ils ont contribué.

33

C’est sans doute mal comprendre que les ressorts sociologiques qui fondent la participation à Wikipédia, et plus généralement aux dynamiques de production de contenu sur le web 2.0, mêlent inséparablement désir expressif et vigilance critique. Et il est sans doute assez naïf de penser qu’il serait possible d’inviter les personnes à s’exprimer bénévolement tout en réservant à quelques-unes la possibilité de discuter, de corriger ou de sélectionner ces multiples productions amateurs. La participation à la production d’un bien commun implique aussi un investissement dans la définition de ses règles d’organisation et de gestion et dans l’évaluation des productions des autres [8][8] S. Bryant, Andrea Forte, Amy Bruckman, « Becoming Wikipedian :.... •

Vue de l’article « Wikipédia » dans Wikipédia
34

Dominique Cardon

35

Julien Levrel

Web sémantique et web social : un mariage de raison

36

Analyse. Le web sémantique serait-il condamné à un usage strictement limité, à l’ombre et indépendamment du web 2.0 ? Bernard Vatant s’applique à démontrer que, au contraire, les web social et sémantique sont en train de converger, notamment sous la forme d’une greffe de celui-ci sur celui-là. Le processus de la conversation et le concept de sujet sont au cœur de cette convergence.

37

Les technologies du web social sont désormais connues et utilisées peu ou prou par la quasi-totalité des internautes, et ont généré une pléthore de sites et d’applications qui représentent indéniablement un phénomène de fond. Face à cette marée, les technologies sémantiques seraient-elles condamnées à rester dans les cercles étroits de quelques ingénieurs initiés ? Notre propos, ici, est de montrer au contraire que la sémantique est déjà implicitement présente au cœur des applications du web 2.0 et que les relations entre composantes sociale et sémantique du web sont visibles depuis longtemps à qui sait les lire.

Deux courants parallèles

38

Le courant social et le courant sémantique ont leur source dans le web des origines, parcourent celui d’aujourd’hui et semblent vouloir structurer ensemble, comme on va le voir, celui de demain. Ils naissent à peu près à la même époque et ont des histoires parallèles. En 1995, Ramanathan V. Guha travaille sur le Meta Content Framework (MCF). Publié comme une note W3C en juin 1997, MCF est le précurseur du Resource Description Framework (RDF), la norme W3C qui définit la lingua franca du web sémantique, dont la première version date de 1999, et la version définitive de début 2004. En cette même année 1995, Ward Cunningham met en ligne le premier wiki, l’ancêtre de toutes les technologies de sites web collaboratifs, un site toujours vivant et actif aujourd’hui. La technologie wiki deviendra vraiment populaire à partir de 2001 avec Wikipédia dont on connaît le succès (voir p 56).

Technologie wiki et sujets de conversation

39

L’activité favorite du web 2.0, c’est la conversation, et le centre de la conversation, ce qui la structure, c’est bien sûr toujours son sujet. Dans le web social, une grande part de l’activité consiste donc à échanger des informations sur des sujets de conversation, qui peuvent être – mais ne sont pas toujours – des documents au sens traditionnel du terme. On partage bien sûr des textes, des images, de la musique, des vidéos, mais on agrège aussi de l’information autour de sujets : des personnes, des lieux, des organisations, des événements ou simplement des centres d’intérêt. On peut considérer comme exemplaire la technologie wiki qui, au-delà de son aspect collaboratif, est fondée sur deux principes qui se retrouvent dans nombre d’applications du web 2.0 et s’avèrent de nature essentiellement sémantique.

40

Le premier de ces principes est une page pour chaque sujet, un sujet pour chaque page. La version du même principe dans l’univers du web sémantique s’énonce de façon un peu plus technique comme une URI pour chaque ressource à décrire. Alors la technologie wiki applique ce principe de façon native et intuitive pour l’utilisateur, sans qu’il ait besoin de connaître les arcanes de la sémantique.

41

Le second principe est nommer donner une adresse. Dans la syntaxe wiki, un nom simplement marqué par une syntaxe spécifique se transforme automatiquement en lien hypertexte vers la page ayant ce titre. Bien sûr, le mécanisme ne fonctionne qu’à l’intérieur d’un wiki donné, alors que le web sémantique s’appuiera sur la généralisation du principe à l’espace du web tout entier par un protocole uniforme d’adressage. En résumé la technologie wiki, et au-delà beaucoup des technologies du web 2.0, sont centrées sur le sujet ou orientées-sujet.

Du web des documents au web des sujets

42

Le sujet, simple valeur de métadonnée (le champ dc:subject du Dublin Core) dans le monde des bibliothèques où le document est central, est donc placé au centre de la conversation dans le monde du web 2.0. De plus en plus de ressources web, qu’elles soient ou non des pages wiki, sont ainsi des pages définies par leur sujet plus que par leur contenu, ce dernier devenant notoirement mobile et dématérialisé. Dans le web 2.0, les documents statiques deviennent minoritaires, au profit d’une majorité de pages dynamiques, mais dont beaucoup ont un sujet et une adresse fixe.

43

Dans les premiers temps du web, les documents en ligne pouvaient à la rigueur changer d’adresse, au gré des humeurs des webmestres, mais sans beaucoup changer de contenu ni de sujet. Les métadonnées attachées au document se déplaçaient le cas échéant avec ce dernier, comme dans des bibliothèques classiques. Dans le web centré sur le sujet, ce sont les sujets, ou du moins leur représentation dans le système en tant que ressources, qui gardent une adresse fixe.

44

Le contenu accessible à travers l’adresse (URI) du sujet peut varier, et ne correspond pas en général à un document au sens traditionnel du terme, mais il est généré dynamiquement à chaque requête sur l’adresse, et donc variable suivant le moment de la requête et le résultat du dialogue client-serveur définissant des préférences utilisateur comme la langue, le format de présentation, etc. Singulièrement, le contenu accessible à l’adresse du sujet n’est pas un document d’autorité, comme dans un dictionnaire, mais un lieu où le sujet émerge et se précise par la conversation du web social.

45

Les pages centrées sur un sujet se comptent désormais par milliards sur le web. Citons évidemment les articles de Wikipédia (12 millions d’articles dans 250 langues) qui sont les plus connues, mais se multiplient sans bruit les sites rassemblant des descriptions structurées de sujets de même type, comme les lieux de Geonames (7 millions), les espèces vivantes de l’Encyclopedia of Life (2 millions), les livres de OpenLibrary (23 millions)… et bien sûr les innombrables pages de profil utilisateur des réseaux sociaux qui se comptent par milliards.

La valeur ajoutée RDF : identification uniforme des sujets et sémantique des liens

46

Ces pages, centrées sur un sujet, constituent donc un matériau abondant et structuré que les technologies sémantiques peuvent exploiter plus facilement que toute autre. Quelle est donc la valeur ajoutée par ces technologies à ce qui a été construit par le web social ? On peut citer deux points essentiels : l’identification des sujets par un système uniforme et partageable et le typage des sujets, de leurs attributs et de leurs relations. Dans les deux cas, le modèle RDF propose une même technologie d’identification liée à l’infrastructure même du web : les URI (Uniform Resource Identifiers). Dans la logique très récursive de RDF, les types ou classes deviennent eux-mêmes des sujets adressables, définis par des URI dans des ontologies partageables. Les éléments de ces ontologies peuvent être construits a priori par des experts ou, dans une démarche plus pragmatique, extraits de données structurées, et en particulier les ressources « orientées sujet » citées plus haut.

47

Comme Wikipédia représente le paradigme du web 2.0, la base de données DBpedia s’appuie sur ses données structurées pour générer automatiquement une base de données sémantiques, chaque article étant considéré comme une description, au sens RDF du terme, d’un sujet unique. La base de données DBpedia, de par son caractère encyclopédique, a vocation à devenir le noyau du web sémantique, en agrégeant de nombreuses autres données générées selon les mêmes principes, qui viennent s’y relier pour former le « linked data cloud ».

48

En retour, les identifiants de sujets (URI) ainsi définis de façon émergente par la communauté des utilisateurs pourront être utilisés pour indexer les documents, en lieu et place des « tags » dont on sait tous les défauts (ambiguïté, sémantique liée à la culture de l’utilisateur, problème de gestion multilingue), mais dans le même esprit de marquage partageable. À cet égard on peut citer l’application Faviki qui, intégrée dans un navigateur, permet à l’utilisateur de marquer et partager ses favoris non plus en utilisant ses propres mots-clés, mais les URI définies dans DBpedia. Ainsi, une page web sera marquée avec un sujet identifié et non avec un terme supposé représenter un sujet. Les URI de DBpedia étant attachés à des libellés multilingues, le sujet est visible, en édition comme en lecture, dans la langue choisie par l’utilisateur. Une aide supplémentaire à l’indexation est proposée à l’utilisateur par l’intermédiaire à la fois du moteur Google et de l’outil d’aide à l’indexation Zemanta.

49

Parions que de telles applications, mariant le meilleur du web social et du web sémantique, seront appelées dans les années qui viennent à se multiplier et à trouver leur modèle économique. •

50

Bernard Vatant

Web 2.0 et mémoire : de la conversation à la conservation

51

Analyse. Espace de créativité et de communication, le web est-il également armé pour garantir la mémorisation des informations ? Emmanuelle Bermès et Clément Oury explorent cette question fondamentale de la pérennité et de la fixité des contenus à la fois sous un angle technique et philosophique et expliquent comment les institutions patrimoniales se sont emparées du problème.

52

Avec le web s’est répandue l’habitude d’exploiter des informations sans ressentir le besoin de les enregistrer pour les réutiliser. Le web 2.0 a représenté une étape considérable dans cette évolution : avec les plates-formes de blogs ou les sites de partage de vidéos, c’est désormais la production et le stockage des documents par les internautes qui s’effectuent à distance. D’espace de communication et de création, le web est ainsi devenu un espace de mémoire, abritant une somme de connaissances et d’expériences inaccessibles hors ligne.

Les trous de mémoire du web

53

Le web n’est pourtant pas un média pensé pour garantir l’archivage et la fixité des informations. Les supports numériques sont fragiles et les formats de fichiers peuvent devenir obsolètes du fait de la disparition des logiciels capables de les lire. Les services gratuits offerts sur l’Internet – pour le stockage des courriels et des photographies, l’hébergement de pages web – présentent rarement des garanties de conservation. Combien de blogs ont disparu lors du crash de la plate-forme 20six.fr [9][9] Laurent Dupin, « 20six.fr perd dix mois d’archives... ?

54

Par ailleurs, si l’on songe que le principal moyen permettant de désigner les documents est leur URL, le web est comme une ville où les habitants n’auraient pas de noms, le seul moyen de les identifier étant de connaître leur adresse exacte. Au moindre déménagement, au moindre changement de palier, le contact est rompu. Les références réputées les plus fiables n’échappent pas à ce phénomène. Ainsi, une étude menée sur les articles en ligne cités dans trois grands périodiques médicaux montre que 13 % d’entre eux avaient disparu en l’espace de deux ans [10][10] R. P. Dellavalle, E. J. Hester, et al., « Information....

55

De plus, le risque de perdre son nom de domaine est réel pour les sites bénéficiant d’une forte audience dont les domaines sont guettés par les sociétés spécialisées dans le domain squatting. Leur objectif est parfois simplement de faire de l’« élevage de liens » (en récupérant un site populaire, chargé de pointer sur des sites clients pour faire augmenter leur classement par des moteurs de recherche). Mais il peut aussi s’agir d’une forme de chantage, la société ayant acquis le nom de domaine monnayant au prix fort la cession à l’ancien locataire oublieux.

56

Cependant, il existe sur le web 2.0 une dimension paradoxale de la permanence des contenus. Les contenus les plus institutionnalisés ou travaillés reposent sur un investissement technologique de leur créateur (maintenance du site web, renouvellement annuel du nom de domaine, etc.) et donc tendent à disparaître lorsque celui-ci s’en désintéresse ou n’est plus en mesure de les maintenir. De leur côté, les contenus générés par les utilisateurs et hébergés sur les plates-formes 2.0 ont une permanence forte puisque celles-ci continuent à fonctionner même une fois que leur auteur s’en est détourné : ce serait le cas de 94 % des 133 millions de blogs nés en 2002 [11][11] Françoise Benhamou, « Va-t-on vers la disparition des.... Ainsi, alors que de précieuses informations s’évanouissent, d’autres ne veulent pas disparaître : avec le web 2.0, les individus déplacent vers le web la problématique du stockage et de la sauvegarde de leurs informations et de leurs documents, donc celle de leur mémoire.

57

Il apparaît donc nécessaire de se préoccuper de la mémoire du web. Cette attention doit s’appliquer aussi bien au niveau des établissements qui veulent s’engager sur le web 2.0 qu’à celui des institutions patrimoniales, qui se voient confier la tâche de conserver la trace d’un média par essence volatil.

Citabilité et pérennité pour une information durable sur le web 2.0

58

Alors que les pages web utilisées comme une vitrine institutionnelle voyaient les nouveaux contenus remplacer les anciens, les médias du web 2.0 gèrent la temporalité des contenus : les historiques des pages wikis, les actualités passées d’un blog sont autant de traces que laisse sur le web l’institution par rapport à son discours passé. Par ailleurs, il peut y avoir délégation de la fonction d’archivage à un opérateur privé si le blog ou le wiki de l’institution est hébergé : il faut veiller aux clauses de l’accord d’hébergement, notamment pour préserver la propriété intellectuelle des contenus, et aux possibilités de sauvegarde et d’export de données.

59

La question de la durabilité des adresses URL doit être une priorité pour veiller à la permanence des contenus et à leur citabilité. La mise en place d’identifiants pérennes est une démarche qui permet d’éviter que le lien entre la ressource et son identifiant ne soit rompu. Pour reprendre la métaphore d’une ville, les identifiants pérennes agissent comme un annuaire qui fournit la correspondance entre le nom d’une personne et son adresse. Les Digital Object Identifiers (DOI), Archival Resource Key (ARK) ou encore les Uniform Resource Identifiers (URI) sont différents systèmes conçus pour faciliter et améliorer la persistance des adresses URL [12][12] Emmanuelle Bermès, « Les identifiants pérennes à la....

60

Mais, en réalité, il ne s’agit pas d’un problème technique : seule une bonne organisation permet de maintenir l’annuaire à jour, et donc de garantir que le service reste disponible. Les systèmes de publication du web 2.0 tels que les blogs et les wikis ont l’avantage, de par la gestion temporelle des contenus, d’associer des URL stables aux ressources publiées. Mais le jour où l’on souhaitera changer de plate-forme logicielle, si l’on veut embarquer les contenus déjà publiés, il faudra mettre en place des mécanismes permettant de récupérer automatiquement les URL ainsi créés pour les réutiliser dans le nouveau système ; une préoccupation trop peu souvent prise en compte par les responsables de contenus.

61

Des services permettent d’agir sur la pérennité des contenus mis en ligne, soit du côté du producteur, soit du côté de l’internaute. Le système PURL [13][13] http:// purl. oclc. org, développé par OCLC, propose de créer un annuaire qui redirige un identifiant pérenne vers l’emplacement actuel de la ressource, en utilisant uniquement des techniques simples faisant partie de l’architecture du web, et indépendamment de la solution logicielle utilisée. Du côté des usagers, il existe par exemple webcite, qui permet de demander l’archivage d’une ressource en ligne et l’assignation à cette ressource d’un identifiant pérenne [14][14] www. webcitation. org.

62

La pérennité de l’information repose aussi sur celle du format dans lequel elle est encodée. L’accent doit être mis sur l’utilisation de formats ouverts et conformes aux normes et standards internationaux. Cette attention peut aussi s’exercer sur l’accessibilité des sites web, puisqu’on y retrouve les mêmes soucis de respect des standards et de description détaillée des informations mises à disposition. Les règles de l’accessibilité sont répertoriées dans les recommandations WCAG (Web Content Accessibility Guidelines[15][15] Recommandations pour l’accessibilité des contenus Internet,...) élaborées par un groupe de travail du W3C. Pour les institutions publiques, la démarche va d’ailleurs devenir obligatoire dès lors qu’entrera en application l’article 47 de la loi de 2005 sur l’égalité des droits et des chances [16][16] À propos des modalités d’application de cette loi,....

63

Un site web (2.0 ou non) qui respecte ces principes de citabilité et d’accessibilité augmente fortement ses chances de fournir à ses usagers une information en ligne pérenne et stable. De plus, il s’avère que ces contenus seront également plus faciles à archiver pour les institutions patrimoniales, qui procèdent à l’archivage du web en vue de constituer la mémoire de l’Internet.

Mémoire du web et patrimoine

64

Le problème de la mémoire de l’Internet a été très tôt ressenti par quelques institutions pionnières dans ce domaine. La principale est la fondation Internet Archive [17][17] www. archive. org, qui a commencé à collecter des sites dès 1996, soit quelques années seulement après la naissance du web [18][18] M. Kimpton, J. Ubois, « Year by Year: From an Archive.... La Bibliothèque nationale de Suède fut la première à lancer, en 1996 également, un projet d’archivage à grande échelle de son web national. Trois ans plus tard, la BnF commençait ses premières expérimentations, afin de préparer la mise en œuvre de la mission de dépôt légal de l’Internet qui allait lui être confiée en 2006 [19][19] Le dépôt légal s’est étendu à l’Internet avec la loi....

65

Techniquement, l’archivage du web repose sur l’utilisation de robots de collecte automatique appelés crawlers ou spiders. Disposant d’une liste d’adresses URL de départ, ils se connectent successivement sur toutes les pages qui y correspondent, pour les copier et en extraire les liens hypertexte ; ils découvrent ainsi d’autres pages et leur appliquent le même traitement.

66

Durant leur navigation, les robots suivent des règles précises, qui correspondent à la politique de collecte de l’institution qui les pilote. Les collectes menées par Internet Archive, par exemple, ont une vocation exploratoire : l’objectif est de suivre le maximum de liens sortant, pour découvrir le plus grand nombre de sites possible. Les établissements ayant pour mission de conserver le web de leur pays peuvent demander à leur robot de ne retenir que les sites appartenant à leur domaine national (le.dk pour le Danemark, au pour l’Australie, etc.). Enfin, les collectes peuvent être ciblées sur un nombre restreint de sites : l’objectif du robot est alors de découvrir le maximum de liens internes à un site, pour le collecter en profondeur. Certains établissements cherchent à conjuguer ces approches, comme la BnF qui réalise des collectes larges (des « instantanés ») de tous les sites en.fr, complétées par des collectes ciblées de sites sélectionnés par des bibliothécaires.

67

Le web 2.0 apporte de nouveaux défis. La nature du problème est triple : il y a bien sûr l’accroissement du volume des données à archiver, dû autant à l’augmentation du nombre de producteurs qu’aux logiques d’agrégation de l’information qui entraînent l’archivage de données redondantes ; la fréquence de renouvellement des sites devient presque continue ; enfin, les nouveaux formats de diffusion s’avèrent de plus en plus complexes à archiver – que l’on songe aux musiques et aux vidéos diffusées en flux.

68

Au-delà des difficultés techniques se posent des questions sur le sens d’un archivage du web 2.0 pour une institution patrimoniale. Le dépôt légal, dans son acception française, repose sur la notion de publication : un document y est soumis dès lors qu’il est mis à disposition d’un public. La valeur du contenu n’entre pas en ligne de compte. Cette absence de discrimination a amené la BnF à faire des collections du dépôt légal un « miroir » représentatif de l’état d’esprit de la société française à une époque donnée.

69

Pour autant, doit-on collecter les blogs de collégiens, dont l’audience est en pratique limitée à un petit cercle d’amis, mais qui ressortissent au régime de la publication [20][20] Dominique Cardon, Hélène Delaunay-Teterel, « La production... ? En réalité, le statut de dépôt légal de ces archives garantit la protection des données personnelles, puisque leur accès est restreint aux chercheurs habilités dans les salles de lecture des établissements dépositaires [21][21] L’accès aux archives du web dans les salles de lecture.... En outre, la valeur de ce type d’informations, comme source pour les futurs chercheurs en sciences sociales, ne saurait faire de doute. Mais n’est-il pas aussi dans les missions d’une institution nationale d’assurer la conservation de ces sites à destination de leurs auteurs, dans l’hypothèse où ceux-ci voudraient retrouver leurs écrits de jeunesse ? Les archives du web seraient alors le lieu d’une mémoire aussi bien collective qu’individuelle.

Une question de temporalité

70

Que restera-t-il demain de nos pratiques et de nos usages du web 2.0 ? Aux contenus que nous préférerions peut-être cacher ou oublier s’ajoutera une image tronquée de nous-mêmes, construite à travers une identité numérique de plus en plus maîtrisée. La mémoire sélective du web ne portera pas forcément sur les contenus les plus intéressants ou qui méritent le plus d’être pérennisés, mais sur ceux dont les caractéristiques techniques et le mode de gouvernance favoriseront leur persistance dans les espaces oubliés du web en friche. Enfin les archives du web elles-mêmes figent ce qu’elles veulent conserver, et archivent non pas le web lui-même, mais un artefact statique de celui-ci. À défaut de pouvoir agir sur cette inévitable fixité de la mémoire du web, il nous revient de veiller, dans nos pratiques au quotidien et notre appropriation des outils du web 2.0, à faire prendre conscience qu’elles s’inscrivent dans une temporalité dont il nous faut saisir les enjeux. •

Un pionnier de l’archivage du web : Internet archive
71

Emmanuelle Bermès

72

Clément Oury

La Renaissance au secours des mondes virtuels

73

Prospective. Le web social est, par nature, tourné vers l’extérieur et l’interactivité immédiate. Il pose, en creux, le problème de la mémoire. Rémi Sussan nous rappelle que ? dès l’origine de l’Internet, certains penseurs ont spéculé sur le cyberspace et les arts antiques de la mémoire. Le web 2.0 appelle peut-être une réflexion sur de nouveaux espaces – à inventer – voués à l’intériorisation des connaissances.

74

Depuis les débuts du monde virtuel, deux conceptions, pas nécessairement opposées, président à sa création : le cyberspace et le métavers. Deux idées élaborées dans les années 1980 par des auteurs de science-fiction, William Gibson et Neal Stephenson.

75

Le cyberespace, création de William Gibson, désigne « une hallucination consensuelle vécue quotidiennement en toute légalité par des dizaines de millions d’opérateurs, dans tous les pays, par des enfants à qui des concepts mathématiques sont ainsi enseignés… Une représentation graphique de données extraites des mémoires de tous les ordinateurs du système humain. » Le métavers [22][22] « Le terme de métavers est maintenant largement utilisé..., lui, est une simulation du réel, à l’instar des jeux vidéo. Le métavers de Neal Stephenson ressemble à une grande rue, les visiteurs y possèdent des avatars et se rendent dans des boîtes de nuit virtuelles… en bref, Second Life.

76

Il est bien sûr possible de créer des lieux de savoir dans un métavers mais, dans le cyberespace, c’est la connaissance, l’information, qui fournit sa structure même à l’espace.

77

Aujourd’hui, on s’intéresse surtout au métavers. La qualité de la simulation (qui peut aller jusqu’au monde miroir, parfaite imitation du monde réel, dont Google Earth est la préfiguration), l’aspect des avatars, etc., tout cela joue un rôle bien plus grand que la signification de l’environnement virtuel lui-même. Il existe cependant aujourd’hui de multiples cartographies de l’espace sémantique, comme par exemple le système « anoptique » d’Olivier Auber [23][23] http:// overcrowded. anoptique. org/ Anoptique. On....

78

Cependant force est de reconnaître que le cyberspace ne suscite plus, de nos jours, l’excitation qu’il procurait au début des années 1990. À cette époque, Internet était encore entre les mains des universités et les particuliers recouraient plutôt à des « services en ligne » comme Compuserve ou même les BBS, petits serveurs artisanaux souvent maintenus par les amateurs. Sans doute l’austérité des interfaces d’alors, en pur mode texte, était-elle favorable à l’explosion de la fantasmatique abstraite propre au cyberespace. C’était l’âge d’or des méditations sur l’hypertexte, un concept qui a fondé l’idée même du web mais qui fait partie aujourd’hui de l’archéologie des idées futuristes, aux côtés de l’expression « autoroutes de l’information ».

79

En 1995, l’apparition du VRML (Virtual Reality Modeling Language), premier langage de modélisation 3D dédié au web, semble donner un coup d’accélérateur à l’idée de « cyberespace ». Lorsque les deux inventeurs de ce langage, Mark Pesce et Tony Parisi, présentent leur création au W3C (organisme déterminant les standards du web), ils apportent aussi dans leurs cartons une proposition pour recréer l’architecture du web en fonction de coordonnées spatiales tridimensionnelles, le « cyberspace protocol[24][24] http:// hyperreal. org/ mpesce/ www. html ». Mais cette idée, qui implique de remettre à plat tout le système des adresses web, n’est pas retenue.

Du cyberspace à l’Art de la mémoire

80

À l’époque, nombreux sont ceux qui notent une ressemblance entre le cyberspace en gestation et une vieille pratique mnémotechnique, l’Art de la mémoire. Attribué par la légende au poète Simonide de Chéos, pratiqué par les Romains, notamment Cicéron, cet Art était utilisé pour permettre au rhéteur de se remémorer les différentes phases de son discours. Pour cela, il se promenait mentalement dans un lieu qu’il connaissant bien, et, en divers points de son parcours, il plaçait diverses images mentales représentant les idées qu’il souhaitait exposer. Par exemple, s’il devait faire allusion au courage, il pouvait imaginer un lion. Plus les images étaient baroques, étranges, plus elles se révélaient susceptibles de frapper l’esprit. Lorsqu’il devait prononcer son discours, il n’avait qu’à se reconstituer mentalement son itinéraire pour voir les divers points de son argumentation lui apparaître les uns après les autres.

81

L’Art de la mémoire devait connaître un âge d’or à la Renaissance. Le plus grand « champion de mémoire » de cette époque fut Giordano Bruno. Le célèbre défenseur du « copernicianisme » et de l’infinité des mondes en pratiquait une version très ésotérique et chargée de symboles hermétiques. Plus tard, l’Art tomba petit à petit en désuétude, en partie à cause de l’explosion de l’imprimé, mais aussi en raison de l’imagerie hérétique et magique qu’il véhiculait.

82

Il fallut attendre le web, le VRML et les mondes virtuels pour qu’il entame sa résurrection. À partir de là, les connexions possibles entre l’Art de la mémoire et le Net se sont multipliées, ainsi que les projets pratiques. Erik Davis, fin connaisseur à la fois des nouvelles technologies et de la pensée ésotérique, écrit en 1994 A Computer, a Universe[25][25] www. levity. com/ figment/ space. html, qui commence par les mots « information wants to be space », en écho à la formule fameuse de Stewart Brand, le pionnier de la cyberculture, « information wants to be free ». Le philosophe Hartmut Winkler [26][26] wwwcs. uni-paderborn. de/ winkler/ suchm_e. html rédige un texte sur les moteurs de recherche qui fait référence à Giulio Camillo, l’un des plus célèbres artistes de la mémoire de la renaissance. Un rapport sur les usages du VRML va également chercher ses sources dans les travaux de cette époque [27][27] www. agocg. ac. uk/ reports/ virtual/ vrmldes/ usesf.....

Une « roue de mémoire » de Giordano Bruno
83

Parmi les applications pratiques, on notera, par exemple, le travail d’Anders Hedman et de Pär Bäckström [28][28] http:// cid. nada. kth. se/ pdf/ 263-rediscoveringArtOfMemory..... Il consiste en une exposition virtuelle sur la pensée des philosophes, les arguments de chacun étant placés dans des pièces à l’architecture spécifique, décorées d’objets en rapport avec le contenu des extraits de texte retenus. Un projet, maintenant abandonné, de l’université Carnegie Mellon se référait expressément à l’Art pour proposer un système de « cognition augmentée », utilisant une interface informatique pour améliorer la mémoire. Dans l’« infocockpit [29][29] http:// web. archive. org/ web/ 20041016163402/ www.... », l’utilisateur était entouré de plusieurs moniteurs, chacun affichant une information différente. Selon les concepteurs, la disposition spatiale de ces données devait augmenter la faculté de mémorisation…

L’Art de la mémoire comme modèle de conception des univers virtuels

84

On peut aujourd’hui s’interroger sur les diverses manières d’exploiter les idées de cette antique discipline pour la construction d’univers virtuels dédiés au savoir.

85

De fait, on peut diviser les Arts de la mémoire en trois types (il en existe en réalité bien d’autres, y compris certains qui n’utilisent pas du tout la métaphore de l’espace, comme l’a montré Mary Carruthers dans son Livre de la mémoire). Le premier en est les « palais de mémoire » classiques, qui consistent en des lieux préexistant en général à l’information qu’on veut leur assigner, et qui servent essentiellement de support mnémotechnique. Rien n’empêche aujourd’hui un utilisateur un peu averti d’employer n’importe quel logiciel 3D pour y placer des connaissances. On peut élaborer un tel palais de mémoire dans Second Life, dans Google Earth à l’aide de Sketchup, etc. Ainsi Jean Michel Cornu a-t-il créé sur Second Life une île « prospectic » où sont représentées les différentes technologies NBIC (nanotechnologie, biotechnologie, informatique et cognition), dans le but d’y organiser par la suite des « visites guidées ».

L’île Prospectic sur Second Life
86

Ensuite vient le « théâtre de la mémoire ». À la Renaissance, Giulio Camillo avait imaginé une sorte d’amphithéâtre constitué de sept gradins comprenant sept places chacun. Le nombre sept représentant les sept planètes. Chacun des gradins symbolisait une étape de la manifestation, depuis le monde platonicien des Idées jusqu’aux réalisations technologiques et artisanales. On pouvait donc dire, par exemple, que le cinquième gradin du dernier rang correspondait aux arts de la guerre, c’est-à-dire aux technologies directement liées à Mars.

87

Il existe un obstacle à la création d’un tel théâtre dans les mondes virtuels actuels. Un mode d’organisation de ce type est en effet fondé sur une conception du monde très platonicienne, qui considère que l’ensemble des phénomènes peut être organisé selon un nombre d’éléments finis, d’Idées de base, sans qu’on puisse en ajouter ni en retrancher.

88

Il devient ainsi possible de savoir a priori où se trouve une information, parce que l’espace dans lequel elle se situe est qualifié, significatif. Un système de pensée qui nous est aujourd’hui complètement étranger.

89

Viennent enfin les « roues de mémoire ». Au Moyen Âge, parallèlement à l’Art de la mémoire, Raymond Lulle [30][30] www. lullianarts. net avait mis au point un système dialectique fondé sur une combinatoire, où les différents concepts (Bonté, Grandeur, etc.) étaient placés sur un jeu de roues concentriques qu’il suffisait de faire tourner pour créer, quasiment à l’infini, une multitude de notions (par exemple, la grandeur de la bonté, etc.). À la fin de la Renaissance, Giordano Bruno allait remplacer les lettres des concepts par des images et considérer chaque section de la roue comme un « lieu de mémoire ». En faisant tourner les roues, on pouvait ainsi combiner l’ensemble des connaissances afin de créer des associations nouvelles inattendues.

90

L’Art de la mémoire devient véritablement un art de la pensée, comme le dirait l’historienne Mary Carruthers, avec son livre The Craft of Thought (traduit en français sous le titre Machina memorialis, qui ne rend pas justice à cette idée). Les logiciels de concept mapping[31][31] http:// en. wikipedia. org/ wiki/ ? List_of_concep..., les systèmes comme The Brain [32][32] www. thebrain. com, peuvent apparaître comme des adaptations du système de roues lullienne et brunienne.

91

Il n’existe pas encore, pour l’instant, de mondes tridimensionnels permettant de « jouer aux Legos » avec leurs composants pour y trouver de l’inspiration ou des idées originales. Peut-être pourra-t-on imaginer de tels systèmes en s’inspirant de jeux comme Sim City ?

92

Pourtant, bien que l’Art de la mémoire reste un modèle théorique très apprécié de la représentation des savoirs, fréquemment mentionné par les philosophes spécialisés dans les médias, l’utilisation pratique de ce modèle reste aujourd’hui assez rare dans les mondes 3D.

93

Peut-être est-ce parce que les représentations de la mémoire qu’on a jusqu’ici développées l’étaient toujours sur un modèle cartographique. Et, voir un paysage 3D en hauteur, finalement, ne procure pas vraiment d’avantage par rapport à une simple carte « plate ».

94

Sans doute deux aspects fondamentaux de l’Art de la mémoire sont-ils oubliés dans les différentes tentatives de représentation 3D d’un espace sémantique.

95

Celui-ci ne se fonde pas sur une vue globale, mais sur un itinéraire. L’Art de la mémoire est un « jeu d’aventure à la première personne ». On ne saurait se contenter d’assigner des informations à des lieux, encore faut-il pouvoir les relier entre elles par un trajet lui-même significatif.

96

L’autre point important est qu’il ne suffit pas de placer des données dans des lieux. Ces dernières doivent être représentées de la manière la plus frappante qui soit, sans hésiter à recourir au grotesque, au fantastique, au terrifiant, à l’érotique.

97

Un monde virtuel reproduisant les caractéristiques de l’Art de la mémoire devrait combiner la richesse sensuelle du métavers et la rigueur organisationnelle du cyberspace. Et il serait probablement plus proche de World of Warcraft que de Second Life. C’est pourquoi, technologie ou pas, l’Art de la mémoire est condamné à rester un art. •

98

Rémi Sussan

Notes

[1]

Jeremy Rifkin, L’âge de l’accès : la nouvelle culture du capitalisme, La Découverte, 2005.

[2]

Simon Nora et Alain Minc, L’informatisation de la société, La Documentation française, 1978, p. 118.

[3]

Hervé Le Crosnier, « À l’ère de l’"informatique en nuages" », Le Monde diplomatique, août 2008, p. 19 et sq.

[4]

Ce texte reprend dans une version courte l’argument de l’article à paraître de D. Cardon et J. Levrel, « La vigilance participative : une interprétation de la gouvernance de Wikipédia », Réseaux, mars 2009, n° 154.

[5]

Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action, New York, Cambridge University Press, 1990.

[6]

Aniket Kittur, Bongwon Suh, Bryan A. Pendleton, Ed H. Chi, « He Says, She Says: Conflict and Coordination in Wikipedia », Proceedings of CHI 2007, April 28-May 3, San Jose.

[7]

Dennis M.Wilkinson, Bernardo A. Huberman, « Assesssing the value of cooperation in Wikipedia », First Monday, April 2007, vol. 12, number 4.

[8]

S. Bryant, Andrea Forte, Amy Bruckman, « Becoming Wikipedian : Transformation of Participation in a Collaborative Online Encyclopaedia », Proceedings of GROUP 2005, ACM Press, New York, NY, 2005, p. 1-10.

[9]

Laurent Dupin, « 20six.fr perd dix mois d’archives de ses blogueurs », ZDNet, 24 août 2007, www. zdnet. fr/ actualites/ internet/ 0,39020774,39372371,00. htm

[10]

R. P. Dellavalle, E. J. Hester, et al., « Information science. Going, going, gone: lost Internet references », Science, 31 octobre 2003, n°302 (5646), p. 787-788

[11]

Françoise Benhamou, « Va-t-on vers la disparition des blogs ? », Rue 89, 3 décembre 2008, www. rue89. com/ en-pleine-culture/ 2008/ 12/ 03/ va-t-on-vers-la-disparition-de-la-blogosphere

[12]

Emmanuelle Bermès, « Les identifiants pérennes à la BnF », mai 2006, http:// bibnum. bnf. fr/ identifiants/ identifiants-200605. pdf

[15]

Recommandations pour l’accessibilité des contenus Internet, www. w3. org/ TR/ WCAG10

[16]

À propos des modalités d’application de cette loi, on peut consulter la recommandation du Forum des droits sur l’Internet sur l’accessibilité des services de communication publique en ligne du secteur public : www. foruminternet. org/ institution/ espace-presse/ communiques-de-presse/ IMG/ pdf/ CP-RecommandationAccesssibilite. pdf

[18]

M. Kimpton, J. Ubois, « Year by Year: From an Archive of the Internet to an Archive on the Internet », Web Archiving, éd. J. Masanès, Berlin, Heidelberg, New York, Springer, 2006, p. 201-212

[19]

Le dépôt légal s’est étendu à l’Internet avec la loi DAVSI d’août 2006. Il est confié à deux institutions, l’INA étant chargé de l’archivage des sites relevant du domaine de la communication audiovisuelle (radio et télévision), tous les autres étant du ressort de la BnF. Sur le dépôt légal de l’Internet, voir www. bnf. fr/ pages/ infopro/ depotleg/ dl-internet_intro. htm

[20]

Dominique Cardon, Hélène Delaunay-Teterel, « La production de soi comme technique relationnelle. Un essai de typologie des blogs par leur public », dans Les blogs, éd. Dominique Cardon, et al., dossier de la revue Réseaux, 2006, vol. 24, n°138, p. 15-71

[21]

L’accès aux archives du web dans les salles de lecture de la BnF a été ouvert en avril 2008. Elles sont actuellement consultables dans la moitié des salles de lecture du site Tolbiac, ainsi que dans la salle des Références du site Richelieu. Pour plus d’informations, voir www. bnf. fr/ pages/ collections/ archives_internet. htm. Voir aussi : Sara Aubry, « Les archives de l’Internet : un nouveau service de la BnF », Documentaliste - Sciences de l’information, 2008, n° 4, p. 12-14

[22]

« Le terme de métavers est maintenant largement utilisé pour décrire la vision qui sous-tend les développements en cours sur les univers virtuels 3D totalement immersifs. Un univers virtuel 3D ou monde virtuel est un monde créé artificiellement par un programme informatique et hébergeant une communauté d’utilisateurs présents sous forme d’avatars et pouvant s’y déplacer, y interagir socialement et parfois économiquement. Ils peuvent également interagir avec des agents informatiques. » (D’après Wikipédia)

Résumé

English

The web tomorrow: clouds or forest? Only a soothsayer could imagine the metaphors that will surely take the place of “the web” and new practices. Let’s stay low-key and analyze important notions at the heart of the 2.0 transformation. A rich landscape is revealed when we study validation issues and content preservation, relationships between social and semantic webs, for which we may need to harness the ancient art of memory...

Español

El futuro de la Web: ¿las nubes o el bosque?... Haría falta ser adivinador para imaginarse las metáforas que no faltarán para sustituir esta «telaraña» y revelar nuevas formas de uso. Seamos modestos, propone Bertrand Sajus, y analicemos los conceptos clave de las transformaciones 2.0. Es un panorama apasionante y más complejo de lo que parece. El autor repasa especialmente las cuestiones sobre validación y fijación de los contenidos, y como las relaciones entre la web social y la semántica pueden tomar las riendas del antiguo arte de la memoria...

Deutsch

Das Web von morgen : Die Wolken oder der Wald ? Man müsste schon hellsehen können, um sich bildliche Ausdrücke auszudenken, die das « Web » ersetzen werden, und um die neuen Nutzungen zu entwickeln. Bleiben wir bescheiden, schlägt Bertrand Sajus vor, und analysieren wir die zentralen Konzepte, die sich im Herzen der Umschichtungen 2.0 befinden. Dabei zeigt sich eine packende und dichte Landschaft. Der Autor behandelt insbesondere die Fragen der Validierung und Unveränderlichkeit von Inhalten, die Zusammenhänge zwischen sozialen und semantischen Webs, und er könnte sogar die antike Kunst der Erinnerung wieder in den Sattel heben...

Plan de l'article

  1. La forêt pousse... Jusqu’où ira-t-elle ?
    1. Validation des contenus
    2. Pérennisation de l’information
    3. Cyberspace et arts de la mémoire
  2. Contribuer et surveiller : l’autorégulation sur Wikipédia
    1. Une vigilance participative
    2. Un droit de contrôle partagé entre tous
    3. La régulation des conflits sur Wikipédia
    4. Les conditions de la réussite
  3. Web sémantique et web social : un mariage de raison
    1. Deux courants parallèles
    2. Technologie wiki et sujets de conversation
    3. Du web des documents au web des sujets
    4. La valeur ajoutée RDF : identification uniforme des sujets et sémantique des liens
  4. Web 2.0 et mémoire : de la conversation à la conservation
    1. Les trous de mémoire du web
    2. Citabilité et pérennité pour une information durable sur le web 2.0
    3. Mémoire du web et patrimoine
    4. Une question de temporalité
  5. La Renaissance au secours des mondes virtuels
    1. Du cyberspace à l’Art de la mémoire
    2. L’Art de la mémoire comme modèle de conception des univers virtuels

Pour citer cet article

Sajus Bertrand, Cardon Dominique, Levrel Julien, Vatant Bernard, Bermès Emmanuelle, Oury Clément, Sussan Rémi, « Web 2.0, et après ? Critique et prospective », Documentaliste-Sciences de l'Information, 1/2009 (Vol. 46), p. 54-66.

URL : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2009-1-page-54.htm
DOI : 10.3917/docsi.461.0054


Article précédent Pages 54 - 66 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback