La nouvelle documentation est arrivée

Estelle Ferlay, Jean-Pierre Archambault, Michèle Drechsler, Dominique Varlet, Annaïg Mahé
 

   Désormais, les folksonomies, information non structurée, coexistent avec le domaine d'expertise traditionnel du documentaliste, à savoir l'information structurée. Après les moteurs de recherche, elles peuvent être perçues par la profession comme de nouvelles « concurrentes », l'informatique et les réseaux ne cessant depuis une trentaine d'années de modifier en profondeur l'univers et les métiers de la documentation, qui requièrent désormais de solides connaissances et compétences informatiques et juridiques. Avant d'aller y voir d'un peu plus près, quelques mots sur le contexte des ressources immatérielles et de leur mise à disposition.

Un contexte contradictoire

   D'un côté il y a la banalisation des outils de production numérique et le développement d'Internet qui portent en eux-mêmes la croissance ininterrompue de l'offre de ressources en ligne, pédagogiques notamment avec l'émergence en nombre d'auteurs-utilisateurs enseignants. C'est le règne de l'abondance. Qui signifie un défi stimulant pour les documentalistes, une formidable opportunité, une raison d'espérer. Il est en effet logique et inévitable que plus la quantité d'informations augmente plus on a besoin de la hiérarchiser, de la filtrer, de la commenter, de l'animer et de la fédérer [1]. Comment par exemple feront les élèves pour se repérer et trouver une juste information dans les 15 millions de livres numérisés de Google ? Et c'est même la responsabilité des enseignants et des documentalistes vis-à-vis des jeunes générations de ne pas laisser les élèves « se débrouiller tout seuls » avec Internet. De leur faciliter l'accès aux ressources et de leur apprendre à chercher l'information dont ils ont besoin.

   De l'autre côté, il existe des combats (d'arrière-garde) pour instaurer des barrières autour des biens de connaissance et de culture et rendre « compliqués » leur accès et leur appropriation, pour freiner la libre circulation des oeuvres sur Internet, en contradiction avec la logique profonde de l'outil. On a tous en mémoire les débats qui ont accompagné la transposition par le Parlement de la directive européenne sur les droits d'auteur et les droits voisins dans la société de l'information (DADVSI) [2]. L'on sait la place tenue par les DRM (digital rights management) lors de la discussion du projet de loi. Bernard Legendre, dans un article « Le micmac de la musique en ligne » paru dans Le Monde du 26 avril 2007, se demande s'ils ne seraient pas finalement « contre-productifs ». En témoigne, selon lui, « la décision annoncée le 2 avril par Steve Jobs (Apple) et Éric Nicoli (EMI) de mettre le catalogue du second en ligne sur le site du premier, sans DRM aucun ». Et il écrit que « le texte, à peine promulgué, semble déjà inadapté ».

   La mise en oeuvre d'une exception pédagogique (c'est-à-dire la possibilité d'utiliser une oeuvre sans contraintes dans un contexte éducatif) a été renvoyée, dans la loi, à 2009, en l'assortissant de conditions : une communication ou une reproduction ne doit donner lieu à aucune exploitation commerciale, elle doit être compensée par une rémunération négociée sur une base forfaitaire, et ne peut pas « porter atteinte à l'exploitation normale de l'interprétation, du phonogramme, du vidéogramme ou du programme ni causer un préjudice injustifié aux intérêts légitimes de l'artiste-interprète, du producteur ou de l'entreprise de communication audiovisuelle ». En attendant, des accords sectoriels ont été passés entre l'Éducation nationale et les ayants droits des secteurs de la musique, de l'audiovisuel, de la presse, des arts visuels et de l'écrit [3], dont les conditions sont contraignantes pour les pédagogues.

   Si les choses ont un coût, elles doivent néanmoins avoir un prix raisonnable. Les situations de rentes sont à bannir. Et des réponses globales doivent être organisées pour permettre à tous l'accès à la connaissance et au patrimoine culturel de l'humanité, surtout dans un contexte éducatif. À la manière de la Sécurité Sociale qui assure à tous le droit à la santé et l'accès « gratuit » aux soins. L'approche du logiciel libre, dont on connaît l'efficacité pour la réalisation de programmes de qualité, a permis la constitution d'un bien commun informatique à l'échelle de la planète. Elle est pour une part transférable aux autres biens informationnels. Des réponses en terme de droits d'auteur, comme Creative Commons s'en inspirent. Ainsi une association de professeurs de mathématiques de collège, Sésamath, produit-elle de nombreuses ressources pédagogiques, dans des démarches collaboratives, qu'elle met librement et gratuitement à disposition sur le web. Elle a édité à la rentrée 2006, avec Génération 5, le premier manuel scolaire libre (pour la classe de cinquième). Elle s'apprête à faire de même à la prochaine rentrée pour la classe de quatrième [4]. Il existe donc des points d'appuis solides pour diffuser à tous les biens de connaissance.

   Et puis les choses ne durent qu'un temps. C'est ce que disait, dans une vision prémonitoire, Boris Vian, auteur-compositeur-interprète, musicien de jazz, écrivain... et centralien. Dans En avant la zizique (1958, éditions Le livre contemporain) il pointait une relation conflictuelle en observant l'attitude du commerçant qui intime à l'artiste de « se contenter de son talent et de lui laisser l'argent ». Et de « s'ingénier souvent à brimer ce qu'il a fait naître en oubliant qu'au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d'études qui s'apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l'automation de ses fonctions ». Et de lui conseiller d'en profiter car cela ne durerait pas éternellement !

Des transformations profondes

   Les documentalistes partagent avec les bibliothécaires, et beaucoup d'entre nous, le plaisir de lire. Tous nous sommes sensibles au charme suranné et intact des anciennes bibliothèques, des ouvrages reliés et des rayonnages de livres qui tapissent les murs... « Les belles lettres » sont une composante de la culture du monde de la documentation. Mais, le vertige qui saisit devant la profusion infinie de documents sur le Web ressemble à celui ressenti dans les siècles passés de par la multiplication des livres. Pour l'esprit de l'humain qui veut se procurer un écrit donné, l'infini du Web est d'une « puissance » équivalente, au sens mathématique du terme, à celui des librairies et des bibliothèques. La nécessité de repérer, d'indexer, de cataloguer, de mettre à disposition des ouvrages ne date donc pas d'hier. Cependant, le monde de la documentation, qui connaissait un équilibre métastable, a commencé à être secoué à la fin des années soixante-dix par deux chocs qui se sont enchaînés dans des délais très rapprochés.

   Premier choc, l'informatisation des fonds documentaires, de la gestion des prêts. Quand on évolue dans un domaine de très grands nombres, quand il s'agit de classer, trier, chercher, trouver, la force de l'ordinateur est irrésistible. Booléens, structures, bases de données, mathématiques ont ainsi fait irruption (brutalement ?) dans l'univers classique de la documentation. Deuxième choc : le réseau d'ordinateurs, local ou longue distance (Minitel, Internet). À nouveau une perturbation profonde. Les fonds documentaires, les ressources, les centres se mettent à vivre en parallèle une deuxième existence, numérique. Il faut concevoir et organiser des complémentarités entre l'édition électronique et l'édition papier, le fonds de l'établissement et celui du grand Internet. Rechercher sur le Web suppose de s'en être construit une représentation mentale opérationnelle et d'en comprendre l'« intelligence ». La culture du monde de la documentation ne cesse de s'enrichir. Et arrivent le web 2.0, le web sémantique...

Ce web changeant et incontournable

   Le web a ouvert à l'infini l'accès aux documents et à l'information. Les documents eux-mêmes sont de plus en plus disponibles intégralement et gratuitement, formats ouverts et logiciels libres constituant l'essence et l'histoire du réseau. En plus d'un phénomène massif d'interconnexion des bases de données documentaires existantes, le web a provoqué une large démocratisation des outils de la publication numérique, de la description et du référencement de documents, et plus largement d'objets pédagogiques.

   Toutes ces reconfigurations de l'espace documentaire ont fini par convaincre l'ensemble des professionnels de l'information et de la documentation que l'intégration des technologies issues de l'internet aux processus documentaires était une « ardente obligation », avec pour conséquence une révision profonde des méthodes et outils traditionnels. Ces reconfigurations concernent la structuration des données (le recours au balisage XML), les protocoles d'échanges de documents (OAI), la description des objets (LOM).

   Si pour les documentalistes les outils quotidiens, les prérogatives, le fonctionnement, le matériel et les locaux sont les mêmes qu'auparavant, l'environnement, lui, a été bouleversé. L'irruption d'Internet dans le monde scolaire signifie un enjeu documentaire majeur car le web « documentarise » l'espace médiatique qu'il génère. Il n'est pas qu'un média en ce sens qu'il fait évoluer le document et l'information et brouille les frontières entre espace documentaire professionnel et personnel.

   La ré-appropriation d'outils bibliothéconomiques par les usagers du web est une caractéristique singulière de son développement. Les concepteurs en sont des informaticiens et le développement rapide de méthodes et de services nouveaux concernant tant le traitement de l'information et du document, que sa description et son échange est en grande partie le fruit d'une interaction nouvelle entre développeur et usager final. Pour autant, ce formidable mouvement de description formalisée des documents ne doit pas masquer que lorsque l'on formalise quelque chose, on plaque une lecture, une vision du monde sur les objets que l'on manipule. Et l'une des questions centrales de la « redocumentarisation du monde » sous l'effet du web est de savoir jusqu'où la formalisation technique des documents et de l'information peut se confondre et s'assimiler à une représentation des connaissances.

   Les travaux du groupe de recherche Roger T. Pédauque permettent de dégager une vision d'ensemble des outils actuels, notamment le web sémantique, en même temps que quelques éléments d'analyse replaçant toutes ces évolutions dans un contexte plus large et sur un temps plus long.

Recherche et sens

   En matière numérique, le seul moyen d'accès au texte, c'est le moteur de recherche, et la plupart du temps par une recherche plein-texte. Évidemment les algorithmes se sont affinés et certains moteurs ont aujourd'hui une finesse de traitement remarquable que l'on peut coupler à une représentation des résultats thématiques (Exalead par exemple). Pour autant, dans la pratique quotidienne du web, et même chez les professionnels de la documentation, le moteur de recherche « basique » reste l'outil premier de recherche.

   La capacité d'un moteur de recherche à intégrer du « sens », à savoir comprendre les synonymies, retrouver les textes d'un même sujet, c'est à dire ayant des contextes d'énonciation similaires ou partageant les mêmes concepts, mobilise depuis des décennies les énergies des informaticiens, des linguistes, des chercheurs en intelligence artificielle. Objet d'étude technique, la question du traitement du document et du sens de son contenu par les programmes informatiques cache pourtant des questions philosophiques de fond.

Un schéma de Tim Berners-Lee

   En prenant l'exemple des travaux de l'inventeur de l'Internet, Tim Berners-Lee, et du schéma synthétique qu'il propose (voir ci-dessous), nous pouvons dégager les principales problématiques qui nous interrogent ici, et ce à partir de matériaux que l'on pourrait considérer assez éloignés de considérations éthiques ou philosophiques.


 http://www.w3.org/Talks/2001/12-semweb-offices/swlevels.gif. 

   Il s'agit donc de la description des différentes couches structurant et caractérisant un document numérique sur Internet.

  • À la base, les deux blocs marron concernent l'encodage du texte (unicode) et l'adresse du document en tant qu'identifiant URI (Uniform Resource Identifier)

  • La couche supérieure rouge propose un premier balisage du contenu en accord avec un schéma pré-établi et que l'on peut supposer commun à une collection de documents, voire à tous ! XML (eXtensible Markup Language) peut se comparer ici au découpage utilisé dans une notice documentaire en intégrant les champs dans le document lui-même.

  • La couche suivante orange RDF (Resource Description Framework) associe au balisage précédent une représentation des concepts et des relations qu'ils entretiennent entre eux. Il s'agit d'une interprétation du contenu du document. C'est ici que l'on peut placer l'acte de description et d'indexation comparable au traitement documentaire traditionnel ; RDF combine différents jeux de métadonnées qui vont permettre la description, l'administration, la gestion, la conservation des documents (on peut y trouver un ou plusieurs jeux de métadonnées comme le DublinCore, le LOM (Learning Object Metadata), etc.). Selon Roger, « cette couche correspond à un changement de paradigme annoncé nous faisant entrer dans le web sémantique : elle permet de passer d'un document à des données (de « self descriptive document » à « data »). Cette couche permet de décrire des concepts et des relations entre eux avec des triplets (concept, relation, concept) et donc de décrire des informations complexes sur le monde. Ces informations peuvent être associées à un document grâce à ce même langage et être des métadonnées – appelées aussi annotations formelles – de ce même document. En d'autres termes, elle assume ce que l'utilisation des Schémas XML de la couche précédente ne fait pas totalement, à savoir le remplacement du texte par sa représentation conceptuelle » [5].

  • La couche jaune approfondit ou affine le traitement de la représentation en proposant de substituer aux termes utilisés dans le texte un langage documentaire extérieur. On peut comparer l'ontologie à un vocabulaire contrôlé et hiérarchisé tel que l'organise un thésaurus. Cependant, le concept d'ontologie va plus loin (du concept de descripteur ou mot-clé, on passe à celui de connaissance) en particulier du fait qu'il fait plus que décrire : il réorganise le sens en se substituant au texte et en étant calculé par une machine à partir des connaissances nommées par une personne ou un groupe de personnes.

  • Les trois derniers blocs, Logic, Proof, Trust ne sont pas d'un intérêt central pour notre propos. Logic étant la couche des programmes qui permettent de calculer l'application des termes de l'ontologie choisie, en respectant Proof le contrôle, et Trust l'identification devant permettre de vérifier la validité du document et de son traitement. Ils constituent néanmoins une profession de foi et dessinent le but ultime à atteindre en matière de formalisation technique : sacrer le traitement effectué par les programmes informatiques et faire certifier l'interprétation et le vocabulaire utilisé par un ensemble de lois (Rules).

Limites et apports du « calcul »

   Il ne s'agit pas ici, bien entendu, de dénoncer la technologie et les méthodes qu'elle propose. Le plus grand danger serait de ne pas s'en préoccuper et de laisser le pas à des systèmes documentaires fermés calculant le sens à la place de l'usager et selon d'obscurs traitements rendant l'exercice intellectuel sur le document complètement dépendant de la construction formelle d'une part, d'une langue calculée ne donnant plus que les mots et les concepts validés par le concepteur d'autre part.

   François Rastier, linguiste et sémioticien, rappelle que l'ontologie n'est pas indispensable [6]. Calculée par le programme, toute description échappe à l'utilisateur s'il n'a pas accès à l'outil et à la méthode utilisés. La machine ne peut construire du sens à la place de l'usager. Pour Rastier le moteur de recherche et l'accès au texte intégral restent une manière transparente d'atteindre le document. La représentation des connaissances n'est pas un outil universel et la communauté doit pouvoir s'approprier son propre langage. Ce que permet par ailleurs RDF puisque l'on peut tout à fait y inclure un jeu de métadonnées accessibles à l'usager.

   En revanche, l'ontologie, comme le « tag » à un autre niveau, confirme l'irruption d'un acteur jusque là tenu aux marges de la chaîne documentaire : l'usager. Car l'un des principes sur lequel se construit une ontologie, c'est que « l'usage spécifie le contenu et la forme de la ressource, en particulier son degré de formalisation ». « Dans le contexte des systèmes à base de connaissances ou du web sémantique, les ontologies formelles sont régionales : elles sont construites, et donc pertinentes, pour une application particulière et un domaine particulier... Une ontologie est une conceptualisation des objets du domaine selon un certain point de vue, imposé par l'application, et en référence à des principes structurants, dont l'application garantit une meilleure structuration conceptuelle. » [7]

   La détermination du vocabulaire utilisé lors de l'indexation, son évolution et parfois l'indexation elle-même constituait jusque là une étape bien en amont de l'usage du document et de la perception, de l'interprétation de l'usager. En même temps que le potentiel d'organisation et de description des documents augmente grâce aux techniques de la fouille de textes, de l'analyse des requêtes par exemple, l'usager ou le « collectif-usager » devient la source de formalisation des contenus. Ce sont ses usages, ses « interprétations » qui vont dégager les grandes lignes permettant de structurer une collection de documents, voire de déterminer les connaissances couvertes par ses activités.

   L'apport culturel et intellectuel de cette technologie est immense. D'abord l'ensemble des schémas utilisés constituent des formats libres et ouverts, lisibles par l'humain, contrairement à MARC par exemple, et sont validés par les instances de l'Internet. La formalisation permet de constituer des bases de données ouvertes et accessibles facilitant le travail documentaire. Les échanges et l'exploitation des documents qui en résultent sont sans précédent et permettent aux documentalistes de centrer leur travail sur des aspects moins évidents en particulier la médiation mais aussi de nouvelles fonctions émergentes. Car les métiers de la documentation seront de plus en plus liés à ces compétences électroniques mais aussi juridiques (quel est ce document ? sa source ? peut-on l'utiliser pour apprendre ? est-il gratuit ? réutilisable ? à quelles conditions ?, etc.) et éditoriales : la documentation est de moins en moins description et de plus en plus récupération, vérification, validation, organisation, interprétation, compilation, publication pour un public donné et à des fins particulières.

Une information non structurée, aussi

   De plus, le web ne porte pas que des documents structurés. L'explosion du phénomène des blogs par exemple facilite la mise en ligne de documents, voire de bases de données, peu structurés. Le recours aux outils de balisage et de structuration est alors un moyen d'organiser un espace collaboratif en permettant l'étiquetage (tagging) par l'usager.

   Les tags servent à améliorer les fonctionnalités de recherche de documents. Ils servent également à construire une folksonomie qui représente le vocabulaire de la communauté des enseignants ou des documentalistes. « La folksonomie est déjà une ontologie légère pouvant servir de point de départ à la création d'une ontologie formelle » comme le précise Michel Buffa. « Ainsi, en organisant la folksonomie (en créant une taxonomie par exemple), en ajoutant des règles, des relations (synonymie par ex), les utilisateurs eux-mêmes peuvent augmenter la qualité de la folksonomie et améliorer la recherche de documents ».

   La « folksonomie », cette manière d'aborder la description de ressources connaît un grand succès notamment avec les services de partage de signets et l'activité dite de « social bookmarking » tels que le propose Del.icio.us [8] par exemple. L'expérimentation, l'étude universitaire menées par Michèle Drechsler et le modèle qui s'en dégage bousculent l'approche bibliothéconomique sans pour autant remettre en cause la nécessité de l'indexation comme description et outil de classification préparant la recherche documentaire [9]. L'étiquetage est une activité de marquage permettant à une personne d'organiser ses propres connaissances et de les partager avec d'autres, chacun utilisant ses propres termes pour décrire un contenu.

   En ce sens, le tagging permet de créer une aide à la recherche pour les personnes partageant les mêmes objets d'études, la liste des termes utilisés constitue une « folksonomie », ce que les documentalistes ont appelé une « liste d'autorités » c'est à dire un ensemble de mots-clés non hiérarchisés ou reliés entre eux. L'avantage du système est la souplesse et l'adaptabilité, les concepts « collent » en temps réel aux préoccupations de la communauté qui les utilise. En revanche, son pouvoir de structuration d'une collection de ressources destinée à la mise à disposition de publics variés reste peu intéressant si l'on n'applique pas au langage documentaire d'indexation une organisation formelle construite (thésaurus ou ontologie). Une « tag literacy » s'impose.

   Pour autant dans le cadre de la mise en ligne d'environnements complets de travail (ENT), permettant à terme d'accéder aux ressources pédagogiques comme administratives ou documentaires, de produire et mettre en ligne son propre travail et ses propres ressources, l'approche de la folksonomie peut être pertinent pour une communauté d'enseignants. De plus si on fait une comparaison proposée entre l'algorithme Google et la folksonomie Del.icio.us, la folksonomie pourrait être la plus grande menace contre l'algorithme Google [10]. On voit là une approche différente de la recherche sur le web où l'indexation n'est plus faite seulement par des robots mais par la communauté des enseignants ou documentalistes. Les premiers, aussi sophistiqués soient-ils, sont encore incapables de donner du sens aux contenus.

Les formats libres et ouverts

   La question des formats libres et ouverts est ici, comme ailleurs, cruciale. D'abord parce que ce sont ces formats sur lesquels s'appuie l'espace documentaire dégagé par le web et qui permet à chacun de les utiliser en partie ou pleinement, de se les approprier et de les adapter. Ensuite parce que la marchandisation de la production culturelle et le durcissement juridique de l'accès et de l'usage des oeuvres creusent le fossé entre productions communautaires échangeables et reconfigurables à loisir et la production commerciale des éditeurs dont la compétence devient trop chère, contraignante voire inaccessible. Cette transformation du paysage éditorial, en plus la documentarisation du web, amène la fonction documentaire à s'impliquer de plus en plus dans la chaîne éditoriale elle-même. Si ce renversement ne s'est pas encore opéré, il est en voie de structuration. Un système comme Correlyce [11], de la Région PACA, montre comment un éditeur peut gagner à se rendre visible en intégrant le traitement documentaire de sa production dès la conception pour la porter à la connaissance du plus grand nombre. Or cette stratégie implique d'avoir intégrer la compétence documentaire de description, de validation et de mise en conformité avec les exigences voulues. Le documentaliste devient alors un pont entre éditeurs, auteurs, informaticiens et gestionnaires de sites, institutions, etc. Il est capable d'indiquer les secteurs lacunaires, d'identifier des sources et des publics, d'en maintenir la pluralité et la diversité, de valider et donc d'intégrer des ressources, en particulier dans un contexte institutionnel où la ressource reste non existante tant que le tampon de l'institution n'y a pas été déposé.

Un métier qui bouge

   Concrètement, il reste à relever cet immense défi qui implique en premier lieu de trouver comment un enseignant documentaliste ou un enseignant peut intégrer ce type de connaissances et les mettre en oeuvre dans son environnement quotidien et surtout pour quel objectif doit-il le faire. Comme on le voit les outils sont disponibles, les ressources existent, le web se démocratise au fur et à mesure que l'équipement des foyers s'améliore et que les jeunes l'intègrent à leurs pratiques socioculturelles. Le transfert de connaissances n'a pourtant pas trouvé le passage et le monde scolaire reste en grande partie sur l'opposition technique vs culturel. Or les technologies de l'Internet sont sûrement caractérisées par la mise en évidence que la technique est une des composantes de la culture, que l'information est plus qu'un signal : c'est un choix qui demande une interprétation et si celle-ci n'est pas humaine, personnelle et socialisable, le risque est grand de voir un système de pensée devenir l'unique prisme de l'interprétation (le « Basic English » peut être à cet égard effrayant). On voit bien là l'étendue et l'urgence à éduquer à une culture de l'information en phase avec le niveau technologique dans lequel nous vivons. Si les documentalistes, comme les autres enseignants d'ailleurs, ne font pas comprendre aux institutions ces enjeux-là, l'information et son traitement risquent de rester une question techniciste résolue par une informatique qui, si elle entretient de nombreuses « proximités » originelles avec les mathématiques, n'en n'est pas moins une science et une technique spécifique à part entière.

L'irruption de l'usager

   Les folksonomies sont un processus de marquage pour de l'information non structurée (elle est structurée car il y a une première classification – Une première ontologie légère). Par opposition, la description est faite par le documentaliste ou l'enseignant qui sait produire de l'information très structurée. Avec l'arrivée de données peu structurées, c'est à dire mêlant la production de ses collègues à l'information traditionnelle de son établissement, le documentaliste est amené à s'intéresser à toutes les informations circulant dans un établissement scolaire. Il a tout à gagner à se positionner dans la gestion de l'ENT. Dans un premier choix, il peut faire de la description via les métadonnées (ingénierie) mais il peut aussi proposer de structurer le document en amont : médiation du documentaliste par codage de l'information, structuration du document, des ressources internes, mais aussi des ressources externes (décrire une page web en xml). Le marquage ou l'utilisation de tags ne peut constituer la structuration unique des données car il faut veiller au maintien et à la régulation du vocabulaire utilisé en même temps qu'à une structuration pérenne des documents. L'ENT, comme le web, voit donc coexister de l'information fortement structurée et de l'information non structurée. La question n'est pas de refuser ou d'accepter la « communauté comme indexeur » mais d'être capable d'intégrer ces nouvelles dimensions dans un système plus vaste composé par les outils et les productions quotidiennes des usagers d'une part, et les données et documents pérennisés d'autre part.

Les 5 étapes d'indexation Web proposées par Olivier Ertzscheid
http://urfistreseau.files.wordpress.com/2007/02/journeeurfist.ppt.

   À l'interconnexion des bases de données vient s'ajouter « l'interconnexion » des usagers entre eux, ainsi que leurs « productions », actions et interprétations. Leur intégration dans le système d'information documentaire reste un champ inédit tant du point de vue du professionnel que du point de vue de l'usager : quelle participation ? quelle coopération ? quelle régulation ? C'est bien l'analyse des formes d'usages de ce genre de systèmes documentaires qui devra permettre de déterminer comment chaque individu doit ou peut s'approprier et utiliser ces outils pour apprendre, communiquer, travailler.

Un enseignement...

   Cette analyse permet de replacer la documentation dans un contexte plus large. Si les outils ne sont pas neutres, la formalisation technique ne doit pas faire perdre l'objectif du service documentaire de base et sa traduction en terme pédagogique : il s'agit pour les enseignants documentalistes, non seulement de développer une vision d'ensemble des enjeux du web quant à l'information et la documentation, mais aussi d'intégrer cette nouvelle donne aux apprentissages documentaires et donc au CDI.

   L'étude du schéma ci-dessus pourrait y participer, car sur le fond, le niveau du « cake » constitué par le RDF et ses schémas [12] n'est rien d'autre que l'ensemble des opérations de traitement cognitif que l'on opère quand on identifie un objet ou un concept, qu'on le nomme, qu'on le catégorise, qu'on le relie à un autre objet ou concept... Et c'est là aussi que les opérations documentaires gagnent à intégrer la formalisation proposée par les outils du web.

Estelle Ferlay,
documentaliste au CRDP de Paris

Jean-Pierre Archambault,
CNDP-CRDP de Paris, coordonnateur du pôle
de compétences logiciels libres du SCEREN

Michèle Drechsler,
IEN en Moselle, responsable de l'espace premier degré du pôle
de compétences logiciels libres du SCEREN

Dominique Varlet,
Interlocuteur Académique Tice en documentation, Paris

Annaïg Mahé,
Maître de conférence en Sciences de l'information,
URFIST de Paris

Cet article collectif a son origine dans un « Mercredi de la médiathèque du CRDP de Paris » organisé le 14 mars 2007 sur le thème « Libre, ENT, numérique et indexation de ressources ». http://crdp.ac-paris.fr/do_pao/rdv_A4_media_libre.pdf.

NOTES

[1] C'est aussi un défi pour les éditeurs. Laurent Catach (Dictionnaires Le Robert), dont nous reprenons les propos, le dit à ses confrères, avec optimisme : http://lesblogsducns.net/cns/les-turbulences-de-ledition-scolaire/#comments.

[2] Voir le texte de loi : http://www.legifrance.gouv.fr/WAspad/UnTexteDeJorf?numjo=MCCX0300082L.
Téléchargement sur Internet : quelle légitimité ? Jean-Pierre Archambault, Médialog n° 57.
http://www.ac-creteil.fr/medialog/ARCHIVE57/dadvsi57.pdf ;
http://www.epi.asso.fr/revue/articles/a0604a.htm.
Innover ou protéger ? Un cyber-dilemme. Jean-Pierre Archambault, Médialog n° 58.
http://lamaisondesenseignants.com/download/document/jpadadvsi58.pdf ;
http://www.epi.asso.fr/revue/articles/a0606c.htm.

[3] Voir le Bulletin officiel n° 5 du 1er février 2007 : http://www.education.gouv.fr/bo/2007/5/MENJ0700078X.htm.
Voir Yves Hulot : http://arsmusicae.club-blog.fr/exception_enseignement/.

[4] http://sesamath.net
http://mathenpoche.sesamath.net/
http://manuel.sesamath.net/
http://vetab.ac-montpellier.fr/mathenpoche/actualites/DGESCO_Sesamath.pdf

[5] Le document à la lumière du numérique, de Roger T. Pédauque et Jean-Michel Salaün (auteurs), Michel Melot (Préface), C&F Éditions (1 septembre 2006).

[6] Commentaire François Rastier.

[7] Jean-Gabriel Ganascia, Communication et connaissance, CNRS Editions, 2006

[8] Un exemple : http://del.icio.us/docpeda.

[9] Étude et modèle : http://demo.iconito.fr/index.php?module=ressource&desc=default&action=getSearchAdvanced&id=2.
Ressources pédagogiques en ligne et Web 2.0. Ontologie, Indexation, bookmarking et folksonomie. Quels apports et quelles limites pour les usagers, acteurs-clés du web éducatif ? Réflexions à partir de l'ENT Libre « Iconito » et de l'outil de social bookmarking « Blinklist », Michèle Drechsler. http://www.epi.asso.fr/revue/articles/a0704c.htm.

[10] http://www.malaiac.net/moteurs/66-folksonomie-algorithme-google.html.

[11] http://www.regionpaca.fr/index.php ?id=correlyce ;
http://www.regionpaca.fr/index.php?id=2394&no_cache=1.

[12] RDF et le poète http://www.la-grange.net/2004/08/05.html.

___________________
Association EPI
Septembre 2007

Accueil Articles