Accueil Revues Revue Numéro Article

Documentaliste-Sciences de l'Information

2005/6 (Vol. 42)

  • Pages : 72
  • DOI : 10.3917/docsi.426.0348
  • Éditeur : A.D.B.S.

ALERTES EMAIL - REVUE Documentaliste-Sciences de l'Information

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Pages 348 - 353 Article suivant
1

LE NUMÉRIQUE N’EN FINIT PAS DE MODIFIER nos pratiques, convoquant nos habitudes professionnelles et intellectuelles sous couvert de les instrumenter et de les faciliter et pour, au bout du compte, les refondre. En effet, plus que jamais, la technique en général et le numérique en particulier, en reconfigurant l’horizon du possible, déplacent les enjeux et les intentions. La technique n’est en effet pas seulement l’instrumentation d’un projet déjà conçu ou d’une intention déjà formulée : ces projets et intentions sont élaborés en fonction de ce qui est pensé et compris comme possible. Or, pour reprendre une heureuse formule que Bernard Stiegler a fait sienne pour décrire le phénomène technique, l’invention technologique est l’invention du possible. Autrement dit, ce que nous projetons ou visons et que nous voulons donc instrumenter et réaliser techniquement est déjà le résultat des possibilités ouvertes par la technique. La technique ne vient donc pas après coup, elle ne résulte pas de la mise en pratique de nos idéalisations abstraites, mais elle est à la fois la condition et le résultat de nos projets.

1 - Les aspects techniques de la numérisation des images et vidéos

2

Si l’on veut donc comprendre comment la technique reconfigure une pratique, il convient alors de comprendre en quoi la technique modifie les possibilités et introduit des tendances que progressivement les pratiques emprunteront, au gré des aléas et contingences, d’une part, et des interactions avec les autres systèmes en place, sociaux, culturels, juridiques, économiques, d’autre part. La tendance introduite par une technique n’est pas irréversible ou inévitable, mais elle constitue une ligne de force constitutive des évolutions et mutations de nos pratiques et comportements.

Fragmentation et recombinaison

3

La question qui se pose alors est de déterminer la tendance propre au numérique et l’horizon des possibles qui en découle. Le numérique, dans sa longue histoire, est essentiellement une logique de fragmentation du contenu en unités formelles primitives et de recombinaison de ces unités de manière arbitraire suivant des règles elles-mêmes formelles. Cette définition abstraite renvoie à l’expérience que nous faisons tous aujourd’hui avec nos ordinateurs personnels. Les contenus comme les textes ou les images sont réduits à des éléments formels, des octets d’information codant les caractères ou les pixels ; ces octets sont composés de 0 et de 1, unités fondamentales utilisées pour coder tous les contenus. Ce qui importe ici est que le 0 et le 1 sont distincts l’un de l’autre et qu’ils peuvent être différenciés par des moyens effectifs sans ambiguïté possible. Ces deux symboles sont en soi vides de sens et ne renvoient à rien. La seule chose qui compte, c’est qu’on a un 0 qui est différent du 1, et qu’ils puissent être facilement distingués. On aurait pu d’ailleurs les appeler a et b, ou encore @ et #, leur libellé exact n’étant pas significatif pour leur définition. Par la suite, on peut appliquer des programmes qui manipulent ces 0 et 1.

4

Ces traitements sont définis de manière formelle et peuvent être parfaitement arbitraires, sans lien direct avec le contenu qui est codé. Par exemple, on peut prendre un fichier codant une image pour le jouer dans un outil de lecture audio : ce dernier interprétera les informations binaires du fichier comme des codes d’un contenu audio. Mais le fait que ce soit binaire entraîne que le contenu est potentiellement lisible par tous les outils numériques. Évidemment, les formats et types de codages créent une dépendance entre le codage des contenus et les programmes d’exploitation, mais en principe cette dépendance n’existe pas, le numérique introduisant une rupture entre le code, arbitraire dans sa définition, et le contenu représenté ou codé.

5

Fragmentation et recombinaison constituent donc la tendance du numérique. Tout ce que touche le numérique sera potentiellement fragmenté et recombiné, la recombinaison étant de plus en plus arbitraire vis-à-vis du contenu initial. Autrement dit, le numérique entraîne l’apparition d’applications qui exploitent les possibilités de fragmentation, permettant d’accéder à n’importe quelle unité arbitraire du contenu. On a ainsi vu émerger des applications permettant de manipuler les contenus audiovisuels à l’image près, puis on s’est intéressé à des séquences définies par l’utilisateur ou à des objets pris de manière arbitraire dans l’image, etc. Par ailleurs, on peut envisager une recombinaison qui reprendra ces éléments distingués et mobilisés par les outils numériques pour les exploiter dans de nouveaux contextes.

6

Si la fragmentation permet l’explosion du contenu en unités arbitraires, la recombinaison a tendance à recontextualiser les contenus de manière arbitraire. Progressivement, les outils de gestion audiovisuelle ne permettront pas seulement de retrouver des contenus et de les rejouer dans leur intégralité, mais ils proposeront de sélectionner des parties pour en faire des ressources pour d’autres productions. Autrement dit, on passe de l’indexation qui a pour but de retrouver un contenu à une éditorialisation qui a pour but de produire de nouveaux contenus à partir d’éléments pris arbitrairement (c’est-à-dire comme l’on veut, et non pas au hasard !). On obtient donc les systèmes de MAM ou DMAM, acronymes désignant le multimedia asset management ou digital multimedia asset management.

Interprétation

7

Mais ce n’est pas tout. Les nouveaux outils ne renouvellent pas seulement les modalités d’exploitation des images et des contenus audiovisuels, mais contribuent à réviser fondamentalement les modalités d’interprétation. En effet, la lecture et l’interprétation peuvent avoir plusieurs régimes. Un régime qu’on peut appeler esthétique, que traditionnellement on qualifie de contemplatif. L’interprétation esthétique est une réception qui s’effectue dans un suspens de l’analyse, l’esthète s’immergeant dans le contenu pour faire corps avec lui et se livrer à son plaisir, pour ne pas dire à son extase contemplative. Ce qui a permis aux philosophes de souligner la continuité entre art et sacré, esthétisme et transcendance, même si l’art comporte une dimension d’immanence qui interdit d’assimiler cette continuité à une identité. L’autre régime d’interprétation est le régime analytique, qui repose sur un travail du contenu : pour le texte, par exemple, on annote, surcharge, extrait, recopie, glose, etc., le contenu pour caractériser son sens par une reformulation découlant de ce travail.

8

Or, ce travail d’analyse (étymologiquement, de découpe en morceaux) correspond en pratique à des manipulations du contenu. Ce qui signifie que pour mener effectivement une interprétation, il faut que le contenu se prête techniquement à des manipulations. Mais réciproquement, selon les fonctionnalités techniques mises en œuvre, l’interprétation ne sera pas la même. Interpréter un contenu textuel inscrit sur un volumen ou sur un codex n’instaure pas un rapport identique au contenu, car la manipulation des pages, le feuilletage, introduit un travail particulier et un accès différent au contenu.

9

Revenons au cas de l’audiovisuel : si le numérique introduit de nouveaux outils permettant des modalités de manipulation et d’accès inédites car profitant du principe d’accès aléatoire au contenu, il en résulte que l’interprétation de ces contenus s’en trouve modifiée. C’est bien attesté pour les contenus audiovisuels de nature scientifique : les chercheurs ont des exigences bien particulières pour les travailler. Mais ces processus se constatent dans des usages plus anodins ou grand public comme le chapitrage des DVD. Il y a d’ailleurs fort à parier que le travail des critiques cinématographiques aura d’ici peu un rapport au contenu qui se rapprochera davantage de celui du critique littéraire, qui annote et analyse un contenu en le triturant, que de celui du critique théâtral qui s’en remet à sa mémoire et à sa culture pour fixer son sentiment, comme c’est largement le cas aujourd’hui.

2 - La grammatisation des contenus

10

Les considérations précédentes ont donc tenté de montrer que les outils que l’on voit apparaître aujourd’hui sont donc en parfaite cohérence avec l’analyse que l’on peut faire du numérique et de sa tendance. S’il était impossible de savoir à quel rythme ces systèmes allaient se développer, s’il était impossible de savoir quels blocages ou problèmes ces systèmes allaient rencontrer et devaient surmonter, il n’était pas impossible d’anticiper la nature de ces systèmes.

La grammatisation

11

Ce processus que nous venons de décrire pour le numérique renvoie à une logique beaucoup plus large et générale, la grammatisation. Cette notion, introduite par Jacques Derrida, reprise aussi par Sylvain Auroux, évoque le fait que les techniques de représentation et de manipulation, comme l’écriture notamment, induisent de nouvelles logiques d’élaboration et de transmission des connaissances. En particulier, la grammatisation du langage induite par l’écriture ne se limite pas à instrumenter la parole et le discours qui resteraient par ailleurs inchangés, mais elle les transforme en profondeur : on ne parle plus de la même manière quand on sait écrire. Les techniques de représentation et de manipulation introduisent donc un supplément qui apporte au contenu des possibilités d’exploitation ou d’interprétation qu’il ne possédait pas auparavant. Ainsi, comme le montre Auroux, l’écriture permit de construire un savoir linguistique de la parole et, du coup, de la langue. Nos catégories habituelles de grammaire et de lexique, par exemple, sont ainsi des artefacts de l’écriture. Ce sont des outils pour manipuler le contenu, et non des descriptions neutres de ce dernier.

Structuration et qualification

12

La grammatisation numérique de l’audiovisuel peut se décliner en deux grandes dimensions, la structuration et la qualification.

13

La structuration évoque le fait de dégager les parties et sections d’un contenu et de décrire leur articulation. Cette organisation est de nature méréologique (théorie du tout et des parties) et permet de répondre aux questions de type : qu’est-ce qui vient après cette partie ou cette section ? On décrira donc la structure d’un journal télévisé donné, par exemple celui du 20 février 2006, à 20h00 sur TF1, composé par exemple d’un générique, d’une séquence plateau, puis d’un reportage, etc. Mais on voudra pouvoir aussi exprimer que tous les journaux télévisés de TF1 sont structurés de la même manière. On voudra donc représenter explicitement cette structure type, en abstrayant des journaux particuliers une organisation générale de ses parties. C’est la raison pour laquelle la structuration a conduit à l’élaboration de langages formels comme XML qui permettent de décrire la grammaire d’une classe de documents, qu’on appellera en l’occurrence des DTD (document type definition) ou des XML Schema. L’ingénierie documentaire repose largement aujourd’hui sur ces outils.

14

La qualification est le processus complémentaire de la structuration qui consiste à qualifier les parties ou sections dégagées. La question est de savoir de quoi ça parle. Pour cela, on fait appel à des qualifications empruntées à la langue naturelle, ou à des vocabulaires contrôlés ou enfin à des référentiels ou listes d’autorités. Le numérique amène à complexifier les qualifications en en faisant des représentations structurées, intégrant des éléments conceptuels (ou mots clefs) et des relations pour les articuler. La qualification devient dès lors un exercice complexe de formulation de représentations articulées de concepts et relations. Ce mouvement se traduit aujourd’hui par les travaux « ontologiques », où les ontologies sont des structures de concepts formalisés contenant les notions d’un domaine nécessaire à la réalisation d’une tâche ou d’une activité. Elles jouent le rôle de référentiels et servent à la fois de ressources pour créer une qualification et de contrôle pour les valider. En pratique, on peut comprendre les ontologies comme une formalisation et un enrichissement des thésaurus : enrichissement car on peut déclarer autant de relations que nécessaire pour articuler les concepts, formalisation car la structuration des ontologies obéit à une logique stricte de généralisation et de spécialisation logiques, permettant l’inférence logique et l’héritage des propriétés.

3 - Indexation

15

Structuration et qualification, on l’aura reconnu, renvoient à la tâche bien connue de l’indexation, tâche qui provient elle-même de la grammatisation des documents et de leur manipulation.

Indexation textuelle, entre alphabet et lexique

16

Mais la difficulté de l’indexation s’accroît avec la prise en compte des images et du son. En effet, ces médias présentent des caractéristiques bien connues, mais qu’il est bon de rappeler, permettant de comprendre l’enjeu que revêt leur grammatisation. Une manière de bien saisir leur spécificité est de les comparer au média textuel, que nous fréquentons tous depuis nos premiers apprentissages scolaires et dont nous maîtrisons un bon nombre de techniques à travers la bureautique et les moteurs de recherche textuels. Le texte, sous la forme que nous lui connaissons dans les langues occidentales, résulte d’une écriture alphabétique, constituée d’un répertoire fini de symboles permettant, par leur combinaison, d’exprimer tous les contenus de la langue. Par ailleurs, certains assemblages de ces symboles sont particulièrement stables et constituent ce qu’on peut appeler en première approximation des mots. Le texte se caractérise donc en une double articulation, alphabétique d’une part et lexicale d’autre part. On dispose d’un répertoire fini de symboles, l’alphabet, et d’un référentiel lexical stabilisé quoique indéfini, le dictionnaire. Cette double articulation, qui vient comme en écho de la double articulation de la langue que les linguistes nous ont appris à discerner, est au fondement de l’efficacité et de l’efficience des technologies textuelles les plus élémentaires que nous pouvons mettre en œuvre, comme par exemple la recherche en texte intégral de nos moteurs de recherche.

17

En effet, le répertoire fini de symboles assure que tout contenu textuel s’exprime comme une combinaison de ces symboles. Tout contenu textuel peut alors être exprimé par une requête usant de ce même répertoire. Le référentiel stabilisé permet de surmonter l’infinité des combinaisons possibles de ces symboles dans la mesure où ce répertoire est plus ou moins commun au producteur du document et à son lecteur, ou bien à l’utilisateur d’un moteur de recherche. Cette continuité entre l’auteur et le récepteur, fondée sur le partage d’un même référentiel, permet d’exprimer des requêtes possédant un écho dans les documents que l’on recherche. Autrement dit, la langue et l’écriture qui l’instrumente proposent une double restriction à la variabilité naturelle de l’expression : une expression réduite à une combinatoire et canalisée par un référentiel.

18

Il n’échappe bien sûr pas au lecteur que la situation est largement différente dans le cas des images et des sons. En effet, les pixels d’une image ne sont pas les lettres d’un alphabet du visible. En nombre infini, ils ressortissent au continu de la perception et à sa mesure et non au discret et à sa codification. Par ailleurs, il n’existe pas de dictionnaire d’images, c’est-à-dire de référentiel stabilisé codifiant l’expression. Par conséquent, il n’existe pas de granularité définissable a priori constituant le niveau d’expression où pourraient s’exprimer des requêtes, et il n’existe pas non plus de continuité entre un auteur et un lecteur ou utilisateur instaurant une commensurabilité entre ce qui est présent dans le document et le contenu d’une requête.

19

Qu’est-ce que cela signifie ? En reprenant nos catégories, cela implique que le média textuel possède une structuration et une qualification par défaut, inhérentes à son expression linguistique et écrite. En effet, les chaînes de caractères séparées par le caractère blanc constituent la granularité par défaut pour exprimer une requête et effectuer une recherche : le mot et son contenu lexical, ce qu’il signifie, constituent sa propre qualification. L’inscription écrite est donc sa propre indexation, indexation de niveau zéro certes, mais indexation tout de même. C’est d’ailleurs la raison pour laquelle l’usage souvent simpliste que nous avons des moteurs de recherche, bien en dessous de leurs possibilités réelles, nous contentant de bégayer quelques mots clefs en guise de requête, est largement suffisant et permet de nous satisfaire dans la majorité des cas.

Codification symbolique du réel versus réalité perceptive

20

Évidemment, rien de tel pour les images et les sons. L’indexation n’est pas donnée avec le contenu, il faut explicitement la surajouter. Mais deux tentations, ou deux possibilités apparaissent.

21

On peut – ce fut un temps la tentation du structuralisme et c’est trop souvent encore celle de nos collègues traitant du signal – vouloir rapporter la variabilité de l’expression visuelle et sonore à une codification possédant les bonnes propriétés de l’inscription linguistique écrite. On cherchera alors à proposer des outils ou des algorithmes qui « extrairont » du contenu sa structure, sa qualification, en faisant l’hypothèse que ces dernières sont intrinsèques au contenu et manifestent son objectivité. De la même manière que les caractères blancs séparent les mots de la langue écrite, on doit pouvoir trouver des principes de découpage des sons et des images.

22

Double méprise. D’une part le caractère blanc est une invention de scribes, relayée par les imprimeurs et les informaticiens : technique permettant la codification pour inscrire la langue, le caractère blanc n’a qu’un rapport lâche à la définition d’unités linguistiques autonomes. Là où une segmentation fondée sur ce principe verra trois mots, le linguiste ne retiendra qu’une seule expression lexicalisée, comme dans « la queue leu leu », et là où le linguiste distinguera quatre morphèmes, la segmentation ne verra qu’une unité, comme dans « rétropropulseur » (rétro/pro/puls/eur). D’autre part, ni l’image, ni les sons, ni les flux vidéo ne peuvent être segmentés d’un point de vue objectif et absolu, mais toujours seulement d’un point de vue relatif et contextuel. Bref, cette approche ne fait que propager sur le son et les images une compréhension naïve, positiviste et naturalisante, de la langue et de son écriture.

23

La seconde possibilité qui vient alors, et qu’il faut emprunter pour ne pas errer dans les voies de l’ignorance, consiste dans le fait de prendre acte que la structuration et la qualification sont des processus interprétatifs, et qu’à ce titre elles relèvent d’un contexte et d’un ancrage social et culturel. De même, il faut prendre au sérieux le fait que les images et les sons ne possèdent pas de répertoire alphabétique ni de référentiel lexical. Cela suggère en effet qu’il ne convient pas d’interpréter les images et les sons selon les mêmes conventions et pratiques que les contenus textuels. Si les images et les sons constituent sans doute des signes et des représentations, ils ne sont pas des signes linguistiques.

24

Nous avons proposé naguère de distinguer les « signes qui disent », signes renvoyant à une double articulation et constituant un système fonctionnel, des « signes qui montrent », signes qui ne font pas système. À la codification symbolique du réel, qui le transforme à travers d’une part une codification arbitraire de l’expression (le fameux arbitraire du signe : le mot « chien » ne ressemble pas à ce qu’il signifie, et il n’aboie pas) et d’autre part une contraction conceptuelle de la réalité (le mot « chien » permet de désigner tous les chiens), codification effectuée par le signe linguistique, répond le signe qui montre, qui tend par conséquent à s’effacer devant ce qu’il montre dans la mesure où, ressemblant à son objet, il lui est homogène. Qui, voyant une photo de la tour Eiffel, n’oublie que c’est une photo et ne pense qu’il voit la Tour Eiffel et non sa représentation seulement ? C’est en effet l’ambiguïté inhérente de l’image qui se confond avec la réalité qu’elle montre : alors qu’une représentation n’est pas violente, mais seulement la réalité qu’elle montre, l’image, elle, pourrait l’être. En tout cas, les débats à ce sujet sont légions. Relevant donc davantage de la réalité perceptive que de la codification symbolique, les images et les sons possèdent une texture sémiotique différente et irréductible.

4 - Évolution des théories, nouvelles pratiques documentaires

25

Pourtant, la grammatisation vient sans doute questionner nos conclusions péremptoires. Car la grammatisation, via la manipulation technique d’unités librement définies, contribue à dégager des ordres ou des structures des images. On l’a déjà constaté avec le processus de production des contenus en audiovisuel : cette production distingue, par la définition même de son mode opératoire, des plans. Les plans, ou séquences d’images correspondant à ce qui est filmé par une caméra entre deux mises hors tension, sont intrinsèques aux contenus filmés. Très vite, on en tire la conclusion erronée que la segmentation en plans possède un intérêt constitutif pour l’interprétation des contenus et qu’il est donc nécessaire d’en passer par là pour aborder le traitement de l’image. Bref, le changement de plan serait alors le caractère blanc de l’écriture de la langue. La discussion est ouverte de savoir si oui ou non les plans sont importants : ce qui est certain, en revanche, c’est que leur existence résulte de la grammatisation de l’image par la technique de production.

26

Cet exemple montre donc que l’apparition des outils numériques va sans doute faire durablement évoluer nos théories sur la sémiose des images, des sons et des flux animés. En contribuant à définir ou redéfinir des unités manipulables, la grammatisation numérique propose de nouveaux jeux d’unités signifiantes qu’elle tend à stabiliser. Bref, l’émergence d’un répertoire et d’un référentiel ? Il est trop tôt pour le dire, et probablement que ces répertoire et référentiel seront largement distincts de leurs équivalents linguistiques. Cependant, il y a fort à parier que les théoriciens devront soigneusement observer et comprendre, au lieu de prescrire et critiquer, les nouvelles pratiques documentaires issues de la grammatisation numérique.

5 - L’image et l’audiovisuel au regard des pratiques documentaires

27

Cette déjà bien longue introduction doit se conclure sur les articles de ce numéro spécial qui reprendront les propos évoqués ci-dessus pour les approfondir et les mettre en perspective. Notre ambition a été de proposer des contributions permettant d’avoir des points de référence sur la problématique des images et de l’audiovisuel du point de vue des pratiques documentaires. Aussi avons-nous voulu traiter les aspects suivants.

28

• La compréhension des images, de leur nature et de leur fonction, dans une section baptisée « Problèmes interprétatifs », où l’on s’intéresse à leur condition d’existence et à leur exploitation, que ce soit dans un contexte documentaire ou dans un contexte culturel particulier comme celui de l’image scientifique.

29

Michel Melot revient sur la nature des images et de leur condition d’existence. Il précise et rappelle que les images sont des créations de l’esprit et de la culture et qu’ainsi leurs environnement, contexte et insertion dans un cadre plus large sont une condition essentielle à leur compréhension.

30

Serge Cacaly aborde quant à lui l’image comme support du regard scientifique et revient sur les principales étapes historiques pour montrer combien l’image est devenue une caractéristique majeure de la science contemporaine.

31

• Mais l’image est aussi un objet technique, comme veut le rappeler la deuxième section intitulée « Aspects techniques ». À ce titre, l’image se fait numérique, se manipule, se structure.

32

Avec Éric Rault, nous abordons la manière dont le numérique s’applique aux images et contenus audiovisuels : quels sont les principes, quels sont les principaux formats, quels sont les principaux enjeux ; panorama didactique et complet dans un domaine souvent dense et confus.

33

Patrick Gros aborde, avec une liberté de propos qui ravira le lecteur, l’indexation automatique. La numérisation des images et des contenus audiovisuels permet en effet de les traiter automatiquement via des algorithmes et des programmes. De nombreux travaux ont été menés pour extraire de l’information des contenus et tenter d’en dériver une indexation automatique. Mais à présent, il convient de faire la part entre les promesses parfois démesurées qui ont été proférées par le passé et la réalité de ce qui a été effectivement obtenu, ce que fait Patrick Gros avec précision et rigueur.

34

Cette section se termine avec Raphaël Troncy qui aborde l’ingénierie documentaire audiovisuelle à la lumière des outils du web sémantique : celui-ci constitue aujourd’hui un cadre de référence pour élaborer des outils, standards et méthodes permettant d’instrumenter les documents pour les publier, les transmettre et les exploiter sur le web. Les ontologies occupent une place particulière et l’article montre comment elles peuvent s’intégrer dans un processus documentaire.

35

• Enfin, il convient d’aborder les conditions d’usage des contenus (image et vidéo) dans une dernière section, baptisée quant à elle « Perspectives juridiques et professionnelles ».

36

En particulier, la gestion des droits attachés à un contenu est la clé de sa diffusion et de son exploitation. Le numérique a modifié l’énoncé traditionnel de ce problème et apporte cependant des éléments de solution via des outils spécifiques comme les DRMs (Digital Right Management Systems) que présente Mélanie Dulong de Rosnay.

37

Jean-Yves de Lépinay aborde dans un second temps les nouvelles pratiques de l’image et de l’audiovisuel suscitées par les nouveaux outils en mobilisant un regard rétrospectif sur les conditions d’émergence des archives audiovisuelles et de leur documentation. Ces nouvelles pratiques ne vont pas sans poser des questions parfois brûlantes sur les compétences désormais nécessaires aux documentalistes et donc sur les formations qui leur conviennent. Arlette Boulogne revient sur cette question et dégage les enjeux que devront relever les futurs cursus : tenir tête aux évolutions techniques, élaborer un corpus de savoir autonome pour fonder et stabiliser les pratiques et outils documentaires.

38

Comme cette introduction a tenté de le suggérer, tous ces propos sont à comprendre dans la perspective beaucoup plus large de la grammatisation des contenus. C’est la raison pour laquelle nous avons voulu ouvrir le débat et l’horizon de la discussion en insérant un extrait des œuvres de Bernard Stiegler qui, non content d’avoir longtemps travaillé dans ce domaine, en a renouvelé les fondements théoriques et les perspectives épistémologiques et philosophiques.

39

Mais il est bien évident qu’un numéro, fût-il spécial, ne saurait épuiser un sujet comme celui-ci. Néanmoins, il a pour ambition de ne pas avoir sous-estimé son objet et d’avoir rendu compte de son double statut d’artefact technique et d’objet culturel. Longtemps, notre tradition a tendu à séparer ces deux aspects, les esthètes de l’image se flattant d’une ignorance technique que les ingénieurs compensaient par un abord tout prudhommesque de la chose. Le numérique force à renouer ensemble ces deux fils trop longtemps séparés : les conditions techniques de l’image et de son codage constituant les conditions d’interprétation, toute étude qui se voudra sérieuse sur un tel sujet devra soigneusement veiller à tisser à nouveaux frais les interprétations et exploitations des éléments issus des images grammatisées.B. B.

Plan de l'article

  1. 1 - Les aspects techniques de la numérisation des images et vidéos
    1. Fragmentation et recombinaison
    2. Interprétation
  2. 2 - La grammatisation des contenus
    1. La grammatisation
    2. Structuration et qualification
  3. 3 - Indexation
    1. Indexation textuelle, entre alphabet et lexique
    2. Codification symbolique du réel versus réalité perceptive
  4. 4 - Évolution des théories, nouvelles pratiques documentaires
  5. 5 - L’image et l’audiovisuel au regard des pratiques documentaires

Pour citer cet article

Bachimont Bruno, « Image et audiovisuel : la documentation entre technique et interpretation. Critique et perspectives», Documentaliste-Sciences de l'Information 6/2005 (Vol. 42) , p. 348-353
URL : www.cairn.info/revue-documentaliste-sciences-de-l-information-2005-6-page-348.htm.
DOI : 10.3917/docsi.426.0348.


Pages 348 - 353 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback