Fil d'ariane

Icône

Se retrouver dans le dédale du savoir et de l'information – Pour une gestion structurée de l'information

Comment se retrouver parmi les différentes offres de systèmes du monde de la gestion documentaire ou de contenu?

L’écosystème des produits et applications connexes à la gestion documentaire, à la gestion de contenu ou à la gestion des archives ne cesse d’évoluer, chacun tentant de garder ou de faire évoluer sa niche en fonction de la arrivée de nouveaux paradigmes comme l’entrerpise E 2.0, le big data et  l’émergence des réseaux sociaux. La frontière entre l’interne/externe, le public/privé, du domaine de l’information d’entreprise tend à devenir de plus en plus floue avec l’émergence de ces nouvelles façons de partager et trouver l’information qui se développent sur Internet et qui finissent par influencer les façons de travailler à l’intérieur de entreprise.

J’ai ressenti le besoin de faire une carte afin de mieux comprendre les composantes que les uns et les autres offrent dans le domaine de la gestion de contenu (dans le sens large) mais aussi de plus en plus dans le domaine des systèmes transactionnels et financiers. On observe une tendance où la frontière entre l’information structurée et non structurée devient de plus en plus floue, voire obsolète. Dans un futur proche, les utilisateurs n’auront plus à se préoccuper de savoir dans quel système se trouve quelle information. Tout ce qui les intéresse, c’est d’avoir sous la main l’information dont ils ont besoin pour exécuter leur travail ou prendre des décisions, qu’elle se trouve dans un système transactionnel, de gestion documentaire ou dans la tête d’un collègue ou d’un expert.

Cette carte, que je partage avec vous, reflète la place qu’occupe ou souhaite occuper SharePoint 2010 actuellement par rapport à d’autres produits qui souhaitent garder ou compétitionner avec Microsoft qui fait preuve d’un énorme pouvoir d’adaptation en l’espace de peu de temps sous la pression des autres joueurs comme Apple, Google ou Facebook, pour ne citer qu’eux. Je ne prétends pas qu’il s’agisse d’une vérité aboslue, mais est le reflet de comment je perçois le paysage des produits TI et des fonctionalités qu’ils offrent à leurs clients.

La perspective est globale, à savoir que ce qui est perçu ou reconnu comme étant un intranet par des employés est en fait composé d’une association complexe de solutions qui répondent à des besoins d’affaire, eux-même compris et exprimés différemment et en parallèle par nombre d’acteurs et de décideurs qui ne se parlent pas nécessairement entre eux ou n’ont simplement pas connaissance de la vue globale et dans quel contexte leur demande s’incrit.

Fonctionalités des différents systèmes de gestion de contenu, de collaboration et documentaire.

Une entreprise est un système ouvert et en éternelle recomposition, en voici juste un petit extrait du point de vue de l’offre de services appuyant la gestion des connaissances (knowledge management), les communications internes/externes et les processus quotidiens et de base sources de création de contenu.

Publicités

Classé dans:Ère du numérique, Gestion de l'information, Logiciels et applications, Moteurs de recherche, Web 2.0

Au nom du souvenir et de l’identité historique canadienne…

… le gouvernement Harper est prêt à dépenser des sommes pour :
– mettre le portrait de la Reine d’Angleterre (signe de l’indépendance et l’autonomie du Canada…) dans tous les ministères et les ambassades
– renommer les entités de l’armée qui avaient retiré  toute connotation royale (d’Angleterre).

Le coût de la 2e option pour un « simple » changement de nom ?
Allez-voir sur CBC :

– Coût pour véhicules : « The average cost of repainting an airplane, for example, could be upwards of $60,000 for a full paint job. With nearly 400 aircraft in its fleet, the RCAF would need to spend in the area of $24 million to rebrand all of its planes »
– Coûts entêtes et image visuelle de logos : $871,000
– Coûts uniformes : $20,000

Soit un total de presque 25 millions de $.

Cependant, pour des raisons budgétaires, et même si les archives sont, en fait, le coeur qui permet de documenter l’identité du peuple canadien à travers le temps, le gouvernement coupe le « programme [qui] distribuait chaque année 1,7 million de dollars aux 13 conseils d’archives provinciaux et territoriaux afin de soutenir localement les activités des services d’archives. Par l’intermédiaire de ces 13 conseils, le PNDA agissait sur le terrain, partout au pays, afin de garantir la préservation du patrimoine documentaire canadien dans les collectivités, et son accessibilité à un large public de chercheurs. » (Lettre de pétition)

Il s’agit malheureusement de la vision court terme qui mène actuellement le pays.

Sans respecter l’avis de la majorité des canadiens, le gouvernement comprends la démocratie comme le fait de satisfaire la minorité qui a aidé à financer l’arrivée au pouvoir des actuels dirigeants. L’important pour eux étant d’être au pouvoir, non pas de rendre service à un pays dans son ensemble et surtout pas de respecter la diversité d’opinion.

Voici le Canada d’aujourd’hui. Cas malheureusement non isolé… La mode est à la démocratie détournée.

Classé dans:Archivistes, Archivistique, ,

Appel à l’action en réaction à l’abolition du Programme national de développement des archives par Bibliothèque et Archives Canada (BAC)

APPEL À L’ACTION

 

Destinataires :

Les membres de la communauté archivistique et tous ceux et celles qui soutiennent les archives.

 

Objet :

Cet appel à l’action est lancé en réaction à l’abolition du Programme national de développement des archives par Bibliothèque et Archives Canada (BAC) le 30 avril 2012, et à ses conséquences néfastes sur les 13 conseils d’archives provinciaux et territoriaux, ainsi que sur le Conseil canadien des archives.

 

Contexte :

Le 30 avril 2012, BAC a aboli le Programme national de développement des archives (PNDA), un programme d’aide financière de 1,7 million administré au nom de BAC par le Conseil canadien des archives (CCA) et dont les contributions sont réparties entre les 13 conseils d’archives provinciaux et territoriaux pour soutenir des activités archivistiques locales. Par l’intermédiaire des conseils, le financement provenant du PNDA agit concrètement sur le terrain dans les 10 provinces et trois territoires, afin de garantir que l’histoire du Canada est conservée sur place, dans les collectivités. Les conseils d’archives du Canada offrent des services centrés sur les utilisateurs, en aidant les établissements d’archives et les archivistes à mieux servir la population canadienne. 

 

Ce remarquable programme a pour but de favoriser la conservation et l’accessibilité du patrimoine archivistique canadien, en poursuivant les objectifs suivants :

  • ·          améliorer l’accès au patrimoine archivistique du Canada au moyen du catalogue national de descriptions archivistiques, ARCHIVESCANADA.ca;
  • ·          mieux faire connaître le patrimoine archivistique du Canada et en accroître l’utilisation;
  • ·          accroître la représentation des peuples autochtones et des groupes ethnoculturels sous-représentés dans le patrimoine archivistique du Canada;
  • ·          améliorer la capacité des réseaux d’archives d’entreprendre des activités stratégiques et de développement;
  • ·          améliorer la capacité des services d’archives de préserver le patrimoine archivistique du Canada.

 

Le PNDA finance les activités suivantes partout au Canada :

  • Élaboration d’un catalogue national de descriptions archivistiques en ligne, et son équivalent provincial et territorial, afin que tous les établissements d’archives, même les plus petits, puissent rejoindre les Canadiens
  • Conseils aux services d’archives en matière de gestion des archives et de préservation
  • Possibilités d’emploi pour les nouveaux diplômés des programmes de formation en archivistique et en sciences de l’information
  •  Accès à des informations en ligne concernant les fonds et collections d’archives
  • Activités de promotion et de formation dans les communautés pour aider les petits organismes à gérer leurs trésors
  • Catalogage de fonds d’archives afin de les rendre accessibles au public
  • Occasions de formation pour les petits centres d’archives locaux gérés par des bénévoles ou par un seul employé
  • Évaluations sur place dans les centres d’archives urbains et ruraux, afin de sauvegarder le patrimoine documentaire du Canada
  • Préservation des documents fragiles et autres documents d’archives, incluant les documents électroniques

 

Conséquences :

Le PNDA était un projet conjoint fédéral-provincial-territorial. Le PNDA, tout comme le programme d’aide financière qui l’a précédé, était une source de financement indispensable pour la communauté archivistique – le CCA existe depuis 26 ans; l’abolition du PNDA signifie que, sans aucun soutien financier, 11 des 13 conseils provinciaux et territoriaux disparaîtront d’ici 30 jours à 6 mois. Certains conseils ont déjà interrompu leurs activités. Le bureau du CCA à Ottawa fermera ses portes au public le 4 mai 2012; l’organisation ne conservera qu’un bureau virtuel. Le personnel a été immédiatement réduit de 8 à 4 employés ETP et sera bientôt réduit de nouveau à un maximum de 2,5 employés ETP. D’autres ajustements pourraient être nécessaires, mais pour le moment, CCA maintient des services à temps partiel pour l’administration du petit programme Jeunesse Canada au travail dans les établissements du patrimoine, ARCHIVESCANADA.ca, Arcan-l et divers services de secrétariat.  

 

CE QUE VOUS POUVEZ FAIRE :

Si votre député est un ministre, appelez à son bureau de circonscription et exposez la situation en plus d’envoyer une lettre.

Écrivez au ministre du Patrimoine canadien, monsieur James Moore, ainsi qu’à votre député, pour leur demander de stopper l’abolition du PNDA.

Députés de la Chambre des communes –

http://www.parl.gc.ca/MembersOfParliament/MainMPsCompleteList.aspx?TimePeriod=Current&Language=F

Voici quelques arguments à invoquer :

  •  Le patrimoine documentaire du Canada est conservé dans plus de 800 établissements d’archives au pays.
  •  Le PNDA aide les centres d’archives à préserver le patrimoine documentaire pour les Canadiens.
  • Le PNDA permet de rallier d’autres contributions financières ainsi que de nombreux partenaires potentiels partout au pays.
  • Le CCA est au service des citoyens. Son travail consiste à garantir la préservation du patrimoine documentaire canadien au profit de tous les Canadiens, aujourd’hui et dans les années à venir. Grâce à des réalisations telles que www.ARCHIVESCANADA.ca, le CCA est devenu une fenêtre à travers laquelle le monde entier peut prendre connaissance de la richesse de nos archives.
  • Les archives contribuent à la prospérité économique de notre pays. Soutenir une économie fondée sur le savoir, c’est soutenir et faciliter l’accès à nos sources de savoir. Les archives sont essentielles au succès de milliers d’entreprises privées et publiques, notamment dans le domaine de l’éducation.
  • Les archives protègent le passé du Canada. Des millions de documents historiques, de photographies, de cartes et de documents audiovisuels sont conservés dans nos centres d’archives un peu partout au pays.
  • Les réunions du forum des milieux intéressés mis sur pied par BAC ne pourront pas remplacer le réseau de professionnels et de bénévoles dédiés aux archives, déployé à la grandeur du pays, et que l’on a mis 26 ans à bâtir. Il faudra des années pour reconstruire ce qui aura été détruit par l’abolition du PNDA.

Apportez votre propre témoignage concernant la valeur du PNDA et des services du CCA; voici des exemples à utiliser :

  • Des livres ou d’autres produits qui ont été créés à partir de documents d’archives rendus accessibles grâce au PNDA
  • Des usagers atypiques qui se sont apprivoisés aux archives grâce au PNDA
  • Une réalisation que vous avez pu mener à bien grâce à l’expertise des conseillers en archivistique, aux services de conservation, aux activités de formation
  • Comment www.ARCHIVESCANADA.ca ainsi que les réseaux d’archives provinciaux ou territoriaux ont permis aux usagers de vous trouver
  • Quels documents ont pu être sauvés et préservés grâce au PNDA et de quelle manière le public en a pris connaissance
  • Quelles activités d’autres groupes ont été soutenues grâce à des projets financés par le PNDA
  • Quels autres projets fédéraux ont tiré profit de l’existence et de la disponibilité de documents préservés et rendus accessibles grâce au PNDA

 Joignez-vous au groupe « Archivists on to Ottawa Trek ». Pour plus d’informations, consultez le site http://groups.google.com/group/archivists_ottawa_trek

Source :

Lara Wilson

Chair – Canadian Council of Archives

Tel: (250) 472-4480

Fax: (250 472-5808

 

CCA toll free number:  1-866-254-1403

http://www.cdncouncilarchives.ca

 

Classé dans:Archivistes, Archivistique, ,

Ressources pour créer et maintenir une taxonomie d’entreprise

Comme je constate que plusieurs personnes pourraient avoir besoin de cette information, voici les ressources qui m’ont été le plus utiles dans mon propre parcours. Malheureusement, c’est en anglais.

Bibliographie

  • Lambe, P. 2007. Organising knowledge : Taxonomies, Knowledge and organisational effectiveness. Chandos Publishing : p. 277. [mon préféré]
  • Maish Nichani. 2012. Organizing digital information for others.  [gratuit – un bon ouvrage pour démarrer] Nouveau  [ajouté 2012-03-12]
  • Milton, N. 2005. Knowledge Management for Teams and Projects. Chandos Publishing : 153 p.
  • Picot, Arnold, Ralf Reichwald et Rolf T. Wigand. 2008. Information, organization and management.. Springer : 536 p.
  • Stewart, DL. 2008. Building enterprise taxonomies. Mokita Press : .
  • Wyllie, J. 2003. Taxonomies : frameworks for corporate knowledge : the shape of things to come?. Ark Group : 83 p.
  • Young, T. 2008. Knowledge Management for Services, Operations and Manufacturing. Chandos Publishing : 191 p.

Ressources en ligne et gurus

Formation

Classé dans:Taxonomie

Principe de séparation contenu, structure et présentation et autres irritants concernant SharePoint et autres systèmes d’entreprise

Ce principe de base connu depuis au moins une bonne décennie n’est toujours pas respecté par SharePoint, pas même SharePoint 2010, et autres grands joueurs de l’industrie. L’industrie, que ce soit Oracle, IBM ou autre ne semble pas accorder une grande importance à ce principe, ni celui de l’usage de la codification UTF8 ou autre codification étendue de chaînes de caratères ne se limitant pas à la langue anglaise.

Illustration

  • Au niveau fondation, les bases d’information servant de colonne vertébrale entre différents systèmes ou applications comme l’AD (Active Directory) ne supportent toujours pas les caractères accentués. Et, bien qu’il serve de plus en plus et en grande partie à être le dépôt d’informations de contact et de réseautage entre utilisateurs, le principe de base spécifiant qu’il faut séparer contenu, structure et sa présentation n’est toujours pas respecté : on ne peut utiliser qu’une seule langue d’affichage à la fois, donc si l’on veut supporter plusieurs langues, il est nécessaire de tout mettre dans un seul champ, des champs de libellé supplémentaires pour des langues alternatives n’étant toujours pas disponibles. Et si jamais par miracle, cela se produirait, svp, n’oubliez pas d’ajouter l’attribut de langue…
  • Les colonnes de SharePoint, toute version confondue,
    • l’identifiant de la colonne = son libellé : au mieux, il est possible de revenir en arrière pour renommer le champs selon un libellé plus humain si
      • on voulait avoir des url propres et constantes : ex. Intuitivement quand on crée une colonne, comme un seul champ apparaît, l’utilisateur a le réflexe d’écrire dans sa langue. Donc, si l’on veut par exemple créer la colonne « élément d’application », on se retrouve avec un champ qui renvoie %C3%A9l%C3%A9ment%5Fx0020%5Fd%5Fx0027%5Fapplication dans l’url, ce qui est très explicite quand on veut : référérer au lien ou au champs dans un code ou pour indexation
      • pourtant d’autres systèmes supportent depuis un moment la modification des espaces en _ ou en – au choix de l’administrateur de système, pour éviter cette prolifération de %20 illisibles et incompréhensibles pour les utilisateurs. Et proposent même de remplacer automatiquement les caractères ou signes diacritiques comme les é ou les ‘, le premier par le é sans accent et le second par, encore une fois, _ ou -, au lieu de %C3%A9 et %5Fx0027%5F, qu’il faudra retraduire dans une autre chaîne de caractères (même code) pour usage dans un autre système.
      • Il est même dans certains cas impossible de séparer l’identifiant unique d’un champ de son libellé, nous nous retrouvons donc prisonnier de ce charabia même en étant discipliné.
    • SharePoint n’utilise pas correctement et ni par défaut les métadonnées Titre, Keywords ou Description, par défaut, c’est le nom de fichier qui est utilisé et le champ titre n’est pas utilisé. 
      • Les métadonnées ne sont pas inscrites dans des tags xhtml, ce qui nuit à la trouvabilité et à l’optimisation du référencement. Cela crée par conséquent une surcharge de travail qui serait facilement épargnée sans ce comportement incompréhensible du point de vue de la gestion de l’information et des recommandations connues du W3C.
    • Dans SharePoint 2010, certes, je ne vais pas me plaindre de l’arrivée du Term Store, donc de la disponibilité de base d’un outil de gestion d’une ou plusieurs taxonomies.
      • Par contre, ce dernier même s’il permet de rendre disponible quelques fonctionnalités de thésaurus et peut faciliter, sans le garantir, une certaine cohérence dans  l’étiquetage des contenus à travers les sites, n’est pas connecté au moteur de recherche, que ce soit Microsoft Search, Fast ou un tiers outil. Il est nécessaire de maintenir les synonymies à deux endroits différents. Encore une fois, une surcharge de travail pour aider les utilisateurs à retrouver le contenu
      • Mais, ouf, les libellés multilingues sont supportés… C’est donc possible chez Microsoft quand ils veulent bien!!!

Les vendeurs comme Microsoft, IBM, Oracle et d’autres s’en sauvent en informant maintenant leurs clients qu’il existe une règle du 80/20, soit :

Pour implanter et configurer un système d’information, particulièrement un ECM (Enterprise Content Management), il faut répartir les efforts de la manière suivante:

  • 20% d’effort sur l’implantation technologique
  • 80% d’effort sur la gestion et la gouvernance de l’information

Or, cette pseudo règle de Paretto ne fonctionne pas puisque si le 20% dépend bien des TI, le reste est de la responsabilité, à tout le moins devrait être, sous le leadership autre que les TI, or la réalité est bien souvent la suivante : 100% du budget est dépensé sur la technologie et rien n’est prévu pour rendre les ressources disponibles du point de vue de la gouvernance et de la qualité de l’information. Plus souvent qu’autrement, les entreprises dépensent dans les technologies sans mettre l’effort utile pour rentabiliser leur investissement en espérant que cela se fasse comme par magie. Pour illustrer, c’est comme implanter une infrastructure d’écoulement des eaux usées, des égoûts et une robinetterie de la meilleure qualité qui soit tout en allant pomper l’eau dans une source polluée sans prendre la peine de filtrer l’eau, ni même de mettre en place une réglementation et des standards de qualité, avec mesures de conformité. Il en résulterait alors que l’eau ne sera pas potable et serait de la même qualité que celle des égoûts… C’est exactement ce qu’il se passe. Les gens d’affaire ne comprennent pas le rôle actifs qu’ils doivent jouer et la responsabilité qu’ils ont pour obtenir le retour sur investissement tant attendu.

Or, le 80% d’investissement dans l’information : aider à la rendre disponible tout en s’assurant que le système engendre le moins de distorsion possible, sa qualité et encadrer sa gestion (les différents flux et usages) n’est ni effectué durant l’élaboration de systèmes, ni durant leur livraison. Comment donc s’étonner que la productivité tant promise ne se réalise pas? Et cela n’est pas manque d’effort de la part des services des TI dans les entreprises.

Classé dans:Ère du numérique

Données, transactions, documents… Cycle de vie de l’information

En échos à la réflexion que Jean-Daniel Zeller a commencé ici, je me propose de partager mes propres réflexions et observations par rapport à mon expérience. Il s’agit en effet de concepts avec lesquels nous devons jongler tous les jours dans le contexte du numérique.

Quand j’ai lu la 1ere fois l’article de M. Zeller, je ne pensais pas avoir quoi que ce soit à apporter comme commentaire aux postulats énoncés. J’y ai même trouvé d’éventuelles confirmations dans l’ouvrage suivant : Enterprise Ontology : Theory and Methodology de Jan Dietz. 

En effet, les systèmes d’information des entreprises doivent coller aux processus de création (invention, design, etc.), production et distribution de produits ou services. Le travail des informaticiens est de commencer par modéliser des processus. Les processus les plus « faciles » à modéliser, parce qu’ils sont découpables en actions simples et automatisables, sont les transactions. Un système est donc calibré pour gérer certaines transactions. Quand il s’agit d’échange de données discrètes, l’opération reste simple. La nécessité d’une intervention humaine reste limitée. Le système peut « interpréter » en fonction des possibilités prédéterminées identifiées lors de l’analyse des processus. L’informatique maîtrise ce type d’échange qui reste au niveau applicatif.

Par contre, cela devient beaucoup plus complexe au niveau du document (- rappelons que nous sommes le monde dématérialisé du numérique – un ou plusieurs fichiers, de format différents et/ou des informations composites de sources différentes). L’application ne sait plus alors qu’est-ce qui est quoi à moins qu’on l’explicite via des métadonnées, par exemple. L’être humain devient alors la véritable interface d’interprétation et de rétroaction (autre que de prendre connaissance). C’est là que l’interaction humain-machine prend son importance.

Mon point de vue s’est nuancé – ou plutôt complexifié – quand j’ai reçu le mandat d’aider l’équipe à retrouver, mieux partager et gérer ses documents de travail, à savoir tous ces fichiers qui sont le support de nos réflexions, de nos interactions, prises de position, modèles d’informations mais qui ne sont pas encore ou ne serons jamais des produits finis ou destinés à être utilisés tels quels. Ce rôle m’a permis de (re)prendre conscience de quelque chose qui ne semble pas pris en compte dans l’article de Jean-Daniel Zeller : dans le monde moderne, un document/fichier n’est pas nécessairement le résultat d’une transaction ou une trace officielle de quelque décision. Il contient de l’information pour mémoire, des notes pour plus tard, l’embryon de nouvelles idées, d’idées reformulées, etc. Cela ne veut pas dire que les postulats énoncés sont erronés, il s’agirait en fait  d’expliciter le cadre de validité qui semble implicite: quand les documents sont des preuves/traces de transaction, l’arrêt sur image de données, de sources différentes ou identiques,  mises ensemble  à un temps t, et contextualisées pour un événement X. Le « records » management s’intéresse à ce qui a valeur administrative, financière ou légale, mais le monde numérique a cette particularité que les brouillons ne sont plus des feuilles volantes que l’on jette au bac à recyclage, mais bien du matériel qu’on recycle intellectuellement et techniquement parlant, et qui nous évite de recommencer un modèle, un texte, une présentation de zéro. D’où une meilleure productivité. Par contre, plus personne ne veut jeter ces fichiers qui prolifèrent, si faciles à manipuler, mais si difficiles à retrouver, puisqu’on n’a pas pris la peine de mettre un titre, de les classer ou les trier… et que leur quantité croît à une vitesse phénoménale.

Donc, le document est plus que la trace de données ou de transactions, et le document n’a pas seulement valeur de preuve ou n’est pas nécessairement une publication mais est une sorte support pour connaissance explicitée que l’on veut garder pour soi ou pour partager, maintenant ou plus tard, pour ne pas recommencer de zéro, pour pouvoir le réutiliser.

Le records et le document management sont des outils qui peuvent aider à gérer les documents qui sont identifiés et identifiables avec  une valeur explicitée, ces derniers restent donc associés à une typologie assez traditionnelle et identique à ce qui existe dans le monde analogique. Par contre, les « work in progress » (wip) ne sont que très rarement gérés et encore moins catégorisables selon une typologie. Or il s’agit de la partie invisible de l’iceberg informationnel parce que les usagers s’attendent à ce que ces fichiers/documents soient trouvables – donc indexés – mais il ne sont que rarement correctement repérables parce que :

  • non définis et encore moins décrits : quel type de document ? quel type d’information ? combien de temps est-ce valide, est-ce seulement valide ?
  • et surtout non structurés, et
  • incroyablement nombreux et dupliqués ou avec très, très peu d’éléments de différenciation.

Donc, de nos jours, un document ne peut plus se définir seulement en tant que trace dans le sens de preuve, ni même en tant que publication. Et un fichier  informatique qui porte de l’information, n’est sans doute techniquement pas un document, mais reste néammoins un dépôt d’information structurée ou non qui peut avoir une valeur informationnelle en soi et avoir une utilité qui dépasse les raisons originales de sa création, à tout le moins au regard des utilisateurs.

On aura remarqué que j’ai beaucoup utilisé les termes document/fichier. C’est un fait que dans la vie de tous les jours, le langage courant confond fichier et document.  Ce n’est que lorsque l’on a besoin de définir qu’est-ce qui est quoi pour fin de modélisation ou de conceptualisation que l’on y réfléchit, et encore… Bref, il y a encore du pain sur la planche pour arriver à « apprivoiser » tous ces fichiers dont la durée de vie n’est pas statuée ou difficile à établir quand on n’est pas capable de qualifier vraiment de quel type d’information il s’agit. Mais le plus gros du travail reste l’éducation et la sensibilisation : réussir à faire comprendre qu’on a davantage un problème de sur disponibilité de l’information, ce qui nous freine dans la prise de décision, qu’un problème de non disponiblité de l’information.

Classé dans:Cycle de vie, Documents (accès, organisation, structuration), Documents numériques, Gestion de l'information

Architecture de l’information en marche

Il y a longtemps que je n’ai plus écrit sur ce blogue pour plusieurs raisons : dont l’apprentissage d’un métier et du fonctionnement d’une organisation assez complexe et particulière.

Mon rôle chez SNC-Lavalin me passionne. Ce n’est pas une situation « traditionnelle » pour quelqu’un qui a obtenu un diplôme en sciences de l’information, dans le sens de bibliothéconomie et archivistique, mais pas plus traditionnelle non plus, du point de vue des technologies de l’information.
Je suis entrée à l’emploi en tant que taxonomiste sans trop savoir ce que ça impliquait vraiment, pas plus que ceux qui m’ont embauché d’ailleurs. Ces circonstances aurait pu mener nulle part : pourquoi un département d’informatique embauche une taxonomiste alors qu’il n’y même pas encore de projet concret, et qu’en plus, les technologies de l’information gèrent certes les systèmes d’information, mais ne sont pas responsables de la qualité du contenu (l’information en tant que tellle) et en sont encore moins le propriétaire moral, administratif ou même légal.
J’ai d’ailleurs passé un certain temps à :
– essayer de trouver un moyen d’expliquer mon rôle à mes collègues alors même que j’avais moi-même besoin de le comprendre. J’avais saisi l’idée globale que je devais aider à trouver l’information. Là où ça devenait compliqué, c’était de donner un exemple concret et parlant parce qu’il n’y en avait pas encore. Le travail était encore à l’état de concept, d’hypothèses de mise en application, sans garantie d’obtenir les ressources, financières ou technologiques nécessaires pour la mise en pratique puisque, justement, comment obtenir un budget et une approbation pour quelque chose qui semble ésotérique et très peu relié aux affaires (puis ça change quoi dans la livraison de nos services ?). Donc, vous aurez compris que j’aussi dû…
– trouver un moyen d’expliquer mon rôle à des personnes, hors du département d’informatique, pour essayer de leur faire comprendre en quoi mon travail pourrait aider le leur et que j’avais besoin de leur collaboration, notamment m’aider à repérer le vocabulaire, le catégoriser et l’organiser de manière à aider à retrouver leur information et le savoir-faire inscrit, éparpillé et noyé dans une masse énorme d’information (une centaine de sites web de projets, presque une 10aine de millions de documents indexés par un moteur de recherche d’entreprise, dont des duplicatas obsolètes et non contrôlés, des fichiers temporaires non détruits, sans compter les répertoires réseaux de groupes ou personnels, les fichiers attachés dans les courriels, etc.). Si donc, la plupart saisissent l’idée, il leur est difficile de voir comment cela pourrait se concrétiser et surtout de savoir ce que ça implique… Et tant qu’on ne voit pas, on a des doutes. Je savais que ça marcherait potentiellement mais expliciter comment ça fonctionne et pourquoi ça fonctionne, sans pouvoir le démontrer concrètement, c’est autre chose.

Finissant par avoir moi-même besoin de voir concrètement comment cela pourrait se mettre en place, j’ai donc travaillé avec les moyens dont nous disposions, à savoir, en exploitant la technologie existante et les moyens du bord. Mon expérience passée en gestion de systèmes et mes connaissances en gestion de réseau m’ont permis d’avoir la crédibilité nécessaire pour obtenir la permission de faire des expérimentations avec le moteur de recherche, dans un environnement de développement (sans nuire pas au fonctionnement réel de tous les jours). J’ai ainsi pu apprendre à exploiter les fonctionnalités du moteur de recherche et commencer à utiliser, par exemple, la fonction thésaurus et les possibilités d’exploiter les métadonnées des documents pour fournir des résultats de recherche plus parlant et filtrables via des facettes… La taxonomie prenait une forme concrète. Il suffisait de montrer ce qu’il était possible de faire juste en exploitant ce qui existait déjà mais restait invisible.
Je suis ainsi devenue la spécialiste fonctionnelle du moteur de recherche. Le moteur de recherche plus utilisé et mieux perçu, mais ce n’est pas gagné… La masse informationnelle augmente très, très rapidement, donc se limiter à ce qui est fait spontanément n’est pas suffisant, il faut continuer à convaincre, à éduquer et … à faire ce qu’on peut avec les moyens du bord.

De fil en aiguille, le moteur de recherche ont été associé à moi. « On a de la difficulté à retrouver notre information, il paraît que vous pouvez nous aider… » Ces appels ont été de petites victoires qui m’ont aidé à avoir puis entretenir ma crédibilité, à me rassurer sur le fait de ne pas lâcher et que j’étais sur la bonne voie. Le moteur de recherche est devenu le moyen pour démontrer en quoi une information mieux gérée : catégorisée, décrite, filtrée, triée ou détruite quand nécessaire, facilite la trouvabilité.

Puis, environ six après mon embauche, le fonctionnement du département d’informatique a été revu et je me suis retrouvée dans une nouvelle équipe : l’architecture globale d’entreprise. Je ne me serais jamais trouvée au sein de cette équipe si je n’avais pas obtenu ces petites victoires, et, encore moins, si mon supérieur ne m’avait pas laissé faire, n’avait pas compris ce que j’essayais de faire et utilisé ces exemples lui-même dès qu’il en avait l’occasion pour démontrer qu’il était possible d’agir et que ce n’était pas seulement théorique.

De taxonomiste, je suis devenue spécialiste en architecture et je travaille en collaboration avec des architectes technologiques (ce que j’appelle la tuyauterie, la logistique de transport et de communication : le réseau de circulation des données et des informations), des architectes systèmes (la vue micro des systèmes : quels sont les processus pour réaliser une transaction, une action, quels sont les intrants et les extrants) et des architectes de données/information (comment les données passent d’un système à l’autre?, sont produites, par qui, quoi? contrôlées par qui, comment? y’en-a-t-elles qui sont communes entre les systèmes, ont-elles la même définition? etc.).

L’aventure est donc devenue collective et ensemble, particulièrement avec les architectes de système et de données, nous essayons de développer une pratique d’architecture de l’information d’entreprise, à savoir une architecture informatique qui intègre les données structurées (les bases de données, notamment) et les informations non structurées (les contenus web, les fichiers bureautiques, les dessins industriels – qui peuvent être des fichiers CAD mais sont de plus en plus des bases de données -).

Le travail du taxonomiste ou de l’architecte de l’information (pas dans le sens d’ergonome web) ne se limite donc pas au web mais pourrait trouver sa place en collaboration avec les architectes de données et de système. L’autre voie possible est d’aider à rendre les technologies sémantiques plus performantes : à titre d’analyste de résultats ou pour le développement de tels outils.
Le paradigme binaire 0-1 ou vrai-faux qu’offre l’informatique n’est plus suffisant. Les décideurs ne disposent que de peu de temps de réaction pour décider sur la base d’une masse d’information qui n’est humainement pas appréhendable aussi rapidement. L’environnement est complexe et change très vite, arriver avec un nombre limité d’options entre lesquelles il faut trancher n’est pas si évident, la réalité est bien plus dans les nuances que dans le noir et blanc. Les outils sémantiques sont donc une voie possible pour assister les prises de décisions et pour compléter les solutions traditionnelles de BI (business intelligence) qui fouillent des données structurées. Or ces outils sémantiques sont basés sur des modèles statistiques articulés sur des ontologies, des moyens qui restent donc mécaniques. Or rien n’est pertinent ou non pertinent en soi. Tout dépend du contexte et du sens. Une machine peut déterminer selon un modèle que cela est le plus probable, sans juger du résultat, mais cela ne veut pas dire que cela a du sens et est vrai… . L’humain reste l’élément capable de juger si cela est possible ou non. L’humain seul peut réintérroger le résultat et déterminer s’il est satisfaisant ou non. Ainsi, les taxonomistes qu’ils viennent de la linguistique, de l’informatique, l’ingénierie, des sciences pures ou de la bibliothéconomie ont donc une belle voie d’avenir devant eux.

Personnellement, j’aime mon travail parce que justement il n’y a pas de réponse toute prête et qu’il faut inventer. Les tâches que j’exécute se formulent au fur et à mesure que des besoins émergent ou des possibilités/obstacles se présentent.

Classé dans:Classification, Documents (accès, organisation, structuration), Métadonnées, Taxonomie, Web sémantique,

Taxonomy Governance Through Metrics

Classé dans:Taxonomie

Test et validation d’une taxonomie : ressources pour le Card Sorting

Articles et présentations

Analyse des résultats

  • «When performing analysis on larger numbers of cards, we suggest using a spreadsheet. Enter the results into a spreadsheet, making sure to capture the title and number on each card. »(Maurer (Spencer), D. & Warfel, T. 2004)
  • «Another technique for analyzing data can be found in “Analyzing Card Sort Results with a Spreadsheet Template”; by Joe Lamantia.» (Maurer (Spencer), D. & Warfel, T. 2004)

Outils

Classé dans:Documents (accès, organisation, structuration), Documents numériques, Taxonomie, Utilisateurs

Taxonomie : petit dossier de lecture

Il y a quelques mois, je réalisais un dossier de lecture sur la taxonomie. Je ne savais pas alors que ce serait exactement ce que j’aurai comme métier… Ce sera intéressant de confronter mes premières impressions d’étudiantes avec mon expérience sur le terrain.

Voici donc le premier volet : le regard d’une étudiante.

Dossier : Taxonomie

Le but de ce dossier de lecture sur le concept de taxonomie est de faire un tour global sur le sujet pour comprendre son utilité, ses domaines d’applications et ses usages étendus au domaine de l’entreprise et dans l’univers numérique. Nous avons donc privilégié ici des articles qui apportaient des définitions et nous aidaient à cerner la variété possible de schémas et d’utilisation des taxonomies. Ceci nous a donné l’occasion de voir l’évolution de la terminologie mais également l’évolution interne à ce concept depuis quelques années avec notamment l’apparition de l’indexation sociale (ou folksonomie) et l’élargissement à partir du domaine de la gestion des publications à la gestion de l’information globale à l’intérieur des entreprises. C’est-à-dire que l’usage de la taxonomie s’étend au-delà du périmètre d’un centre de documentation, d’une bibliothèque, d’un catalogue ou même de la navigabilité au sein d’un site internet, elle peut s’appliquer aussi à l’ensemble de l’organisation des ressources informationnelles d’une entreprise (soit l’information créée à des fins de publication et de diffusion et l’information créée dans le cadre des activités d’une entreprise).

Le premier article : Knowledge taxonomies, écrit par Jo Anne Côté de l’Université McGill, en 2005, évoque le rôle des professionnels en information dans la création et l’usage des taxonomies.

Le deuxième : Taxonomies to tags : from tree to piles of leaves, de David Weinberger, nous parle des origines de la taxonomie jusqu’à l’usage des étiquettes (tags), de nos jours, pour organiser le savoir.

Le troisième : How semantic tagging increases findability, d’Heather Hedden, tout frais sorti de presse, évoque une évolution du vocabulaire pour désigner la taxonomie, l’extraction d’information et l’indexation au sein de l’industrie qui utilise et vend ce genre de services.

Enfin, le dernier article, mais non le moindre, Disembodied information, de Ruth Frendo, évoque la perspective de la taxonomie dans un contexte de gestion de l’information corporative dans sa globalité et de sa complémentarité avec les plans de classification (dans le sens archivistique du terme : organisation selon les fonctions de l’entreprise et non des sujets), ce à quoi et les archivistes, et les bibliothécaires devraient veiller de concert.


Côté, Jo Anne. 2005. Knowledge taxonomies. Information Outlook, vol.9, no 6, juin 2005 : p. 45-52

Note sur l’auteur et la publication

Jo Anne Côté possède une maîtrise en bibliothéconomie et sciences de l’information de l’Université McGill. Elle était bibliothécaire à la référence à la McGill Music Library et la Reginald J.P. Dawson Library à Montréal, au moment de la rédaction de cet article.

 Information Outlook est une publication de la Special Libraries Association (SLA).

Résumé

Dans cet article, l’auteure met en valeur les compétences des professionnels de l’information qui sont utiles et nécessaires pour établir une taxonomie au sein d’une organisation.

Après avoir défini ce qu’est la taxonomie, soit une aide au repérage de l’information qui établit le portrait de concepts abstraits, reflétant les différentes formes que peut prendre la connaissance, sous forme tangible ou intangible.

Elle développe son argument autour des compétences de base nécessaires pour mettre en place cette dernière : techniques d’analyse, de condensation, de recherche, connaissance du catalogage et des systèmes de classification, capacité de synthèse et connaissance des principes du vocabulaire contrôlé, des thésaurus et de l’indexation. Elle signale que les professionnels de l’information possèdent ces savoir-faire et qu’ils sont transférables dans le cadre de la création d’une taxonomie, quel que soit son type : taxonomie à plat (sans relation entre les catégories), taxonomie hiérarchique (architecture en arborescence), réseau de taxonomies (architecture complexe composée de nœuds ayant plus d’une relation parentale) ou taxonomie à facette (ex. : les métadonnées).

De plus, les professionnels de l’information possèdent des compétences interpersonnelles comme l’écoute, l’usage des entrevues et la capacité de s’exprimer efficacement à l’oral comme à l’écrit, qui sont indispensables.

Elle conclut que malgré des désavantages des méthodes traditionnelles en taxonomie, les professionnels de l’information ont leur place dans le domaine des taxonomies du savoir qui consiste à représenter la réalité de ce dernier au sein d’une organisation et à aider les clients à identifier et repérer l’information selon leurs besoins spécifiques.

 


Weinberger, David. 2005. Taxonomies to tags : from trees to piles of leaves. Release 1.0, vol. 23, no 2, février 2005. En ligne < http://downloads.oreilly.com/radar/r1/02-05.pdf >

 Note sur l’auteur et la publication

David Weinberger est un technologue spécialiste de l’Internet (il possède un doctorat en philosophie). Écrivain, chroniqueur, il enseigne The web difference à la faculté de droit de Harvard conjointement avec un autre professeur. Il s’intéresse particulièrement aux taxonomies, aux ontologies et aux métadonnées et comment les principes de base de l’organisation des choses du monde sont en train d’évoluer.[1]

 Release 1.0 est une publication numérique éditée par Esther Dyson depuis 1983, acquise par O’Reilly en 2006, le bulletin de nouvelles a été renommé Release 2.0 (http://radar.oreilly.com/r2/ ). Elle se spécialise dans l’observation de l’évolution des technologies de l’information.

 Résumé

Cet article d’une trentaine de pages évoque l’évolution du concept de taxonomie en tant qu’organisation du savoir depuis Aristote jusqu’à nos jours avec l’émergence de l’indexation sociale : «The idea that knowledge is shaped like a tree is perhaps our oldest knowledge about knowledge».

Il illustre les définitions, avantages, inconvénients de trois types de taxonomies : la hiérarchie, les facettes et les étiquettes (tags), par des exemples d’usage et de choix stratégiques de différents gros joueurs dans le monde Internet (fournisseurs de services ou de logiciels). Commençant par aborder la classification de Dewey, il présente le répertoire de Yahoo !, le choix de Corbis pour le vocabulaire contrôlé, l’automatisation de la catégorisation de ClearForest, l’OSA Foundation, Endeca et Siderean pour l’usage des facettes, del.icio.us, Flickr, Wikipedia, Frassle et Technorati sur l’usage des étiquettes (tags) et de l’indexation sociale (folksonomie).

Il conclut que l’utilisation des étiquettes (tags) est une révolution et force l’innovation en taxonomie. Par contre, il met en doute l’efficacité de l’usage de l’étiquetage à lui seul, sur le long terme, pour organiser le savoir et faciliter le repérage. L’étiquetage amène une perte du contexte qui nuit à la compréhension et au tri des concepts entre eux. Conscient, que l’on se trouve au début d’une transformation, il pose plusieurs questions sur l’avenir possible d’un usage conjoint des taxonomies telles qu’utilisées jusque là et cette nouvelle forme d’indexation. Il souligne que ces changements de paradigme offrent de nouvelles opportunités pour une nouvelle industrie dont, notamment, des experts de contenu (spécialistes en schémas de relations et de vocabulaire contrôlé), des courtiers en tags (fournissant grappes d’étiquettes reliées entre elles, outils d’automatisation, outils d’étiquetage sur la base d’abonnements) et des fournisseurs services de forages de données pourront tirer profit.


[1] Source : David Weinberger – Berkman Center. En ligne http://cyber.law.harvard.edu/people/dweinberger (consulté le 12 octobre 2008, page mise à jour le 27 mars 2008)

 

Hedden, Heather. 2008. Semantic tagging increases findability. EContent, vol. 31, no 8, octobre 2008 : p. 38-43.

Note sur l’auteur et la publication

Heather Hedden est spécialiste en taxonomie avec Viziant Corporation à Boston. Elle est également consultante, Hedden Information Management, et enseigne dans le cadre d’ateliers de formation continue au Simmons College School of Library and Information Science.

 Le magazine EContent se spécialise dans l’information concernant le contenu numérique : «essential reading for executives and professionals involved in content creation, management, acquisition, organization, and distribution in both commercial and enterprise environments

 Voir aussi :

Hedden, Heather. 2008. Taxonomy tool roundup. EContent, avril 2008 : p.40-44. Disponible en ligne via Maestro pour les étudiant de l’UdeM.

Hedden, Heather. 2008. Better living through taxonomies. Digital Web Magazine, 5 février 2008. En ligne <http://www.digital-web.com/articles/better_living_through_taxonomies >

 Résumé

Cet article nous présente l’émergence d’une nouvelle notion qui se répand dans l’industrie spécialisée dans les technologies de l’information le «semantic tagging». Plusieurs moyens aident à trouver l’information : l’indexation selon un vocabulaire contrôlé, l’architecture de l’information (navigabilité), moteurs de recherche, les signets et l’indexation sociale. Chacune de ces méthodes a ses propres limites. Issu de nouvelles techniques et outils développés dans le contexte très compétitif de l’industrie de l’information, le «semantic tagging» est compris selon plusieurs définitions. Ce concept est identifié dans trois secteurs : l’indexation, l’extraction de l’information et l’indexation sociale.. 

Pour certains, il n’y a rien de nouveau là : il s’agit d’attribuer des mots issus d’un vocabulaire contrôlé, par des professionnels, à certains contenu, l’aspect sémantique étant apporté par le fait que l’opération est effectuée par un être humain. Pour d’autres, ce qui distingue l’indexation sémantique de la forme traditionnelle de l’indexation par sujet, c’est que le processus se concentre sur les concepts à l’intérieur d’un document plutôt que sur le document en tant que globalité. Dans le monde de l’extraction de l’information, les nouvelles technologies telles que la catégorisation automatique ou l’analyse textuelle automatisée relèveraient du «semantic tagging» intégré aux moteurs de recherche. Enfin, du côté de l’indexation sociale, l’étiquetage distribué et relié en réseau à des synonymes ou à une carte standardisée de sujets constitue un service de «semantic tagging».

L’auteure conclut que le «semantic tagging» peut être défini comme l’indexation pour le web sémantique. Cela implique que les étiquettes (tags) sont reliées aux spécifications RDF (Resource Description Framework) ou au OWL (Web Ontology Language) du W3C. Bref, il ne s’agit pas simplement d’associer des sujets à des termes mais d’ajouter des métadonnées à propos des étiquettes apposées. Ceci donne une autre perspective à l’indexation sociale se résumant à traduire la popularité d’un terme et s’oriente davantage vers une facilitation du repérage de l’information (meilleure réponse possible).

  

Frendo, Ruth. 2007. Disembodied information : metadata, file plans, and the intellectual organisation of records. Records Management Journal, vol. 17, no 3 : p. 157-168

Note sur l’auteur et la publication

Ruth Frendo est une étudiante à l’Université de Glasgow où elle étudie dans le cadre d’un MSc en Information Management and Preservation.

 Le Records Management Journal traite de tous les aspects concernant la gestion des documents (dans le sens records management).

 Résumé

L’auteure fait un état de la question autour des pratiques contemporaines de gestion de l’information dans un contexte où cette dernière est de plus en plus isolée de son contexte et dématérialisée. La problématique se rapporte au traitement et à la circulation de l’information tout au long de son cycle de vie au sein d’une organisation. Alors qu’une entreprise a besoin de connaître le contexte de création de ses documents, de prouver qu’ils sont authentiques et non altérés, les métadonnées deviennent les témoins d’une traçabilité qui aide à établir ces faits dans un contexte numérique. Cependant, les métadonnées peuvent ne pas suffire pour établir le contexte de création puisque leur lien est fragile avec le document qu’elles décrivent ou qualifient. Mis à part l’avantage de pouvoir automatiser l’indexation, l’usage unique des métadonnées comporte des désavantages : la machine n’est pas aussi intelligente qu’on le souhaiterait (elle ne repère pas les ambiguïtés, ne comprend pas les concepts, ni les liens entre ceux-ci par elle-même) d’où la nécessité d’une taxonomie pour structurer les données et reconnaître le degré de profondeur d’un concept. Cependant, même une taxonomie ne s’avère pas suffisante pour révéler le contexte de création d’une information ce qui est nécessaire pour une information organique et l’est moins pour une information ayant fait l’objet d’une publication où le lien de propriété intellectuelle est plus facilement identifiable. Les métadonnées sont pertinentes quand l’information est un produit de consommation et un outil de marketing, mais le sont-elles pour la gestion de l’information ? En conclusion, les métadonnées sont pratiques d’usage et sans doute moins coûteuses à mettre en place. Leur implantation est viable à court terme. Mais, elles ne peuvent totalement remplacer le rôle d’un plan de classification dont l’objectif est d’aider à planifier le cycle de vie et mettre en contexte l’information reçue et créée par les entreprises dans le cadre de leurs activités : ce qui est important au présent comme au futur pour une saine gestion et préserver la signification de l’information.

 Conclusion

Les articles retenus présentaient des points de vue complémentaires et différents sur le concept de taxonomie.

 Les professionnels de l’information ont d’importants atouts pour prendre leur place dans le domaine de la taxonomie. En effet, cette dernière n’est pas simplement un outil technique de structuration de l’information ajouté aux commodités possibles d’un site web, tel que les professionnels en technologies de l’information ou les ergonomes ont tendance à l’utiliser ou le comprendre. Une taxonomie peut être essentielle pour aider l’utilisateur à trouver l’information dont il a besoin, même s’il ne sait pas exactement ce qu’il cherche. Exercé à organiser la complexité du savoir, à comprendre les questionnements et les attentes des utilisateurs, ainsi que l’ambiguïté des termes, les professionnels de l’information sont bien placés pour être les interlocuteurs privilégiés dans le cadre de la mise en place d’une taxonomie pour le système d’information d’une entreprise conjointement avec les autres professionnels et les utilisateurs.

 Outil de repérage aux multiples visages et toujours en évolution, la taxonomie peut également être un outil de marketing, comme nous l’a montré l’article sur la segmentation stratégique des marchés ou l’utilisation des étiquettes pour exprimer ou repérer la popularité d’un terme et donner plus de visibilité à certaines informations. Dans le mouvement de dématérialisation de l’information (contenu séparé du support mais aussi de plus en plus décontextualisé), la taxonomie permet de maintenir des liens entre différents concepts ou au sein d’un même concept et, donc, une meilleure compréhension de l’information et de sa validité.

 Cependant, en s’étendant en dehors du périmètre contrôlé d’un site web ou d’une interface utilisateur, l’usage d’une taxonomie seule n’est pas suffisant pour retracer l’authenticité, la validité ou témoigner de l’existence originelle et intentionnelle de cette information. Si appliquée à une information organique (créée dans le cadre des activité d’une entreprise), une taxonomie doit être accompagnée d’un plan de classification calqué sur les activités de l’entreprise concernée.

 Ce que nous retenons, c’est qu’il est nécessaire de rester conscient qu’aucune taxonomie n’est neutre, ni n’est destinée à être objective. Dans le cadre particulier d’une entreprise, nous ne nous inscrivons pas dans une perspective humaniste et universelle de l’organisation du savoir. Nous savons qu’une taxonomie révèle et doit refléter la culture de la société ou d’une organisation. Elle se doit de coller à la réalité qu’elle représente en répondant à des objectifs précis. L’information n’est pas organisée pour la beauté de l’exercice, une taxonomie répond à des fins qu’il est bon d’identifier.

 La taxonomie est un outils complémentaire à la recherche plein texte, puisqu’elle permet de plus rapidement identifier les concepts et d’éviter les ambiguïtés, ce que ne permet pas la recherche plein texte à elle seule. Une taxonomie qui mixte hiérarchie et facette semble le plus efficace pour permettre de naviguer du global au spécifique et inversement. Les relations entre différents «silos», c’est-à-dire une navigation horizontale et transversale, permet de compenser quelque peu le risque de rester dans une trop grande spécificité, laissant croire à l’utilisateur que l’information n’existe pas ou n’est pas disponible à tort s’il s’engage dans une branche qui ne contient finalement pas l’information qu’il cherche.

Si l’indexation sociale laisse entrevoir d’autres possibilités et permet aux utilisateurs de s’approprier un contenu, l’intervention d’un contrôle et d’un cadre de référence n’en est pas moins important pour assurer une cohérence globale et répondre au besoin de base pour lequel le concept de taxonomie est né : permettre d’avoir une vue d’ensemble et faciliter le repérage de l’information particulièrement quand il faut gérer la complexité. Complexité qui s’accroît d’ailleurs d’autant avec la diversité des interprétations possibles et l’accroissement exponentiel de la quantité d’information disponible.

 Enfin, étant donné qu’un système d’information corporatif ne se limite pas à son intranet (compris en tant qu’information rendue disponible et partagée via un navigateur) mais intègre également les informations créées par et nourrissant des activités administratives, financières, légales et spécifiques à une entreprise, il est important de voir et réfléchir à la question de savoir si une taxonomie peut être ou est un outil valable, efficace et pertinent, à lui seul et à quelles conditions, pour organiser l’information organique et baliser son traitement tout au long de son cycle de vie, de sa création à son élimination ou son versement aux archives définitives, donc dans une perspective de conservation pérenne et à long terme. L’information organique aussi peut être et devrait être considérée comme un intrant et une source de savoir dans le cadre d’une gestion des connaissances, pour ne citer que cet exemple. Les enjeux et les points de vue de la documentation (trouver l’information pertinente) et de gestion (organiser l’information pour répondre à des obligations administratives, légales et financières) ne sont pas en compétition mais bien en complémentarité, particulièrement dans un contexte corporatif, tout en ayant chacun leurs exigences spécifiques. Dans le contexte du numérique, il devient d’autant plus pertinent et important pour les professionnels de l’information de connaître à tout le moins les bases régissant ces différents aspects concernant l’information et les ressources informationnelles que l’on aura à gérer.


Recommandations

Dans notre exploration des articles, nous n’avons volontairement pas insisté sur les logiciels ou applications qui intègrent, aident à la création manuelle ou permettent l’automatisation ou l’importation d’une taxonomie. Il en existe plusieurs et l’industrie, comme le reste de l’industrie des technologies de l’information, est en constante évolution. Chaque application répond à des besoins et des objectifs différents (applications dédiées, portails, fournisseurs de services, etc.). L’évaluation de chaque logiciel ou service doit s’effectuer en fonction de besoins précis.

 Pour information, voici quelques joueurs et produits parmi les plus répandus pour développer des taxonomies personnalisées manuellement (Hedden, avril 2008) : MultiTes Pro (www.multites.com), Term Tree (www.termtree.com.au), TCS-10 (www.webchoir.com).

 Une taxonomie doit, entre autres, :

         Être collée à la réalité des besoins informationnels des utilisateurs et à la culture de l’entreprise où elle sera implantée .

         Être homogène et cohérente : il n’est pas idéal de mêler produits et fonctions par exemple. Dans ce cas, l’un peut être une des facettes de l’autre mais non se retrouver au même niveau.

         Être évolutive : l’information est comme un organisme vivant, elle évolue. Les grandes classes doivent être suffisamment larges pour permettre aux catégories inférieures de croître tout en évitant une trop grande profondeur, si possible (ergonomiquement, cela impliquerait trop de clics et découragerait le furetage).

–    Attention aux chevauchements d’une catégorie à l’autre, cela engendre un risque d’ambiguïté ;

         Correspondre au vocabulaire utilisé par les utilisateurs. Dans le cas d’un intranet, il faut repérer la terminologie utilisée et à mettre en valeur pour assurer que les employés parlent le même langage et se comprennent les uns les autres : si l’on arrive à déterminer une base commune la communication est facilitée d’un département à l’autre. D’un autre côté, identifier des experts de contenu, pour les unités qui utilisent un vocabulaire très spécifique, est indispensable pour s’entendre la définition d’un terme et valider s’il s’agit bien du concept tel que compris et utilisé. Cela permet, de plus, d’intégrer plus rapidement les nouveaux employés.

         Ne pas être utilisée comme seul moyen d’organisation (soit en tant que métadonnées, essentiellement de description et par sujet) de l’information au sein d’un système d’information corporatif. L’implantation d’une taxonomie ne dispense pas de la pertinence d’utiliser un cadre de classification en fonction des activités de l’entreprise afin d’assurer une gestion cohérente et permettre de faire une transition plus facile entre les besoins à court terme (décisions, compétitivité, production, etc.) et à long terme (patrimonial, scientifique et historique).

 En résumé, une taxonomie est bâtie sur la base d’un dialogue entre plusieurs interlocuteurs : utilisateurs, experts de contenus, professionnels des technologies de l’information et ergonomes avec l’appui des hauts responsables dans le respect de la vision, de la culture et des objectifs de l’entreprise.

 

Bibliographie

Côté, Jo Anne. 2005. Knowledge taxonomies. Information Outlook, vol.9, no 6, juin 2005 : p. 45-52

Frendo, Ruth. 2007. Disembodied information : metadata, file plans, and the intellectual organisation of records. Records Management Journal, vol. 17, no 3 : p. 157-168

Hedden, Heather. 2008. Semantic tagging increases findability. EContent, vol. 31, no 8, octobre 2008 : p. 38-43.Hedden, Heather. 2008. Taxonomy tool roundup. EContent, avril 2008 : p.40-44. Disponible en ligne via Maestro pour les étuidiants de l’UdeM.

Hedden, Heather. 2008. Better living through taxonomies. Digital Web Magazine, 5 février 2008. En ligne <http://www.digital-web.com/articles/better_living_through_taxonomies >

Weinberger, David. 2005. Taxonomies to tags : from trees to piles of leaves. Release 1.0, vol. 23, no 2, février 2005. En ligne < http://downloads.oreilly.com/radar/r1/02-05.pdf >

Classé dans:Documents (accès, organisation, structuration), Folksonomie, Métadonnées,

Karin Michel, M.S.I.
Architecte d’information et de données, Gouvernance de l’information et des données

M.S.I obtenue à l'École de bibliothéconomie et des sciences de l'information
Université de Montréal
Québec - Canada

Les propos tenus sur ce blogue sont des réflexions personnelles et n'engagent en rien mon employeur ou quelque personne que ce soit avec laquelle je travaille.

Intérêt en
gouvernance des données, architecture d'entreprise, modélisation de données, knowledge management, RIM, GID / GED, architecture de l'information et de données, ..., analyses de besoins, etc.
Logo AIIM SharePoint Practioner

Pages