Fil d'ariane

Icône

Se retrouver dans le dédale du savoir et de l'information – Pour une gestion structurée de l'information

L’intelligence artificielle et l’apprentissage machine sont les instruments d’un processus de curation et d’édition de sources d’information sélectionnées pour un but donné

Avec la grande excitation actuelle autour de l’apprentissage machine et de l’intelligence artificielle, il faut se rappeler que les algorithmes ne doivent pas se résumer pas à de l’analyse probabiliste mais qu’ils doivent être également orchestrés à l’aide de référentiels gérés et gouvernés pour structurer, extraire correctement l’information et y donner accès de façon contextualisée – je préfère cette notion à celle d’intelligente – : c’est l’humain qui prend des décisions intelligentes, l’information n’est pas intelligente en soi, ni la gestion automatisée de celle-ci – pas encore.

L’humain a la responsabilité de contrôler les biais de la quantité. Des éléments qualitatifs (qui ne s’assimilent pas au ‘sentiment analysis’) et extrinsèques aux algorithmes doivent aussi contribuer à la construction du contexte, et de là au savoir et/ou à la décision.

L’apprentissage machine et les analytiques textuelles sont avant tout des instruments pour aider à traiter la masse de données et d’informations disponibles, mais ne sont certainement pas un remplacement du jugement de l’humain pour en tirer de l’intelligence. Le but est d’accélérer le traitement des flux et des stocks d’information, l’humain doit apprendre à comprendre et utiliser correctement cet outil, être vigilant face aux promesses de « vérité », et veiller à ne pas se décharger de son rôle moral: c’est le résultat de la machine et des procédures donc je ne suis pas responsable… L’histoire pas si lointaine (ex: certains, selon des critères pré-établis, sont plus humains que d’autres, donc on peut les écarter, voire les exterminer…) nous a montré où l’instrumentalisation peut mener, que cela implique des machines ou non.

Pour le moment, l’intelligence artificielle ne peut que reproduire les schémas humains (voir *1) puisque le corpus qui est traité est un sous-ensemble de ce que l’humain a lui-même créé, sélectionné pour traitement, selon des modèles dessinés par ceux-ci en fonction d’un objectif soit scientifique, soit commercial, soit de surveillance.
Tout est toujours question de perspective. Le travail entourant les algorithmes, que ce soit dès l’entrée de données, la sélections des sources de données, le traitement et le nettoyage des données, est avant tout un travail d’édition et de curation parce que cela implique de privilégier certains scénarios et certaines hypothèses plutôt que d’autres. C’est le travail d’équipe d’individus de profils différents mais complémentaires.

Parmi les rôles requis ne se trouvent pas uniquement les scientifiques de données (les statisticiens, les actuaires, les économétristes, etc.)
mais aussi ceux qui participent également à la sélection des référentiels utiles, jugent de leur validité intrinsèque et extrinsèque, orchestrent les liens entre les sources d’information pour l’exploration, modélisent des structures de base pour que l’algorithme normalise et nettoie les entités structurelles,

d’où viennent ceux qui ont ces compétences?
Certains penseront informatique: gestion des bases de données, développeurs ETL, etc.
D’autres penseront intelligence d’affaire (BI).
Pourtant, il s’agit plus d’un état d’esprit que de compétences issues d’une formation académique.
Vous trouverez aussi d’excellents candidats auprès des métiers financiers (à la fin de chaque année financière une armada de champions Excel sont mobilisés pour nettoyer et arranger des sources financières pour consolider les comptes et compenser pour ce qui semble être des incohérences au moment de cet exercice), du développement des affaires …
ET des sciences de l’information
Aux États-Unis et dans le Canada anglophone, cette reconnaissance de compétence pour ces derniers est présente, mais l’est beaucoup moins au Québec par les francophones…

…. et ainsi permettre aux scientifiques de données de passer moins de temps à nettoyer les données et plus à les analyser et à bâtir des visualisations efficaces.

À ce jour, la machine n’est pas intelligente, elle respecte des scénarios scriptés par des humains, il ne faut pas l’oublier. Cela n’empêche pas de constater et d’apprécier sa puissance.

Il y a effectivement de quoi s’inquiéter (voir *2) si l’opacité concernant les scénarios privilégiés, justifiée au nom de la propriété intellectuelle, nuit à la compréhension des résultats et à la transparence des décisions, et empêche de connaître la portée des morceaux d’information qui sont jugés ‘pertinents’ d’être exposés ou non dans différents contextes et quelles sont les hypothèses retenues. Cependant, l’exclusion du droit d’accès au financement, aux assurances et autres profilages a précédé l’existence de l’intelligence artificielle; ce qui change, c’est la rapidité, le volume et l’automatisation (décision assistée par ordinateur) et le risque (cité plus haut) de désengagement moral et d’accentuation de la déshumanisation, via la rarification à l’extrême de la compassion, face à des situations qui entrainent l’exclusion et le déni d’accès à certains services sous prétexte de critères arbitraires qui classent les uns et les autres dans une catégorie ou une autre. L’arbitraire précède les algorithmes et est la source analogique de ces algorithmes, seulement maintenant cet arbitraire est traité automatiquement et en masse par des machines. Des mécanismes d’appel aux décisions devront être plus accessibles et facilités pour compenser l’absence de compassion. L’humain peut avoir de la compassion, pas la machine.

*1- http://ici.radio-canada.ca/nouvelle/1028772/intelligence-artificielle-assimilent-nos-prejuges-biais-langue-langage-humain

*2 – http://www.ledevoir.com/societe/science-et-technologie/492029/le-pouvoir-des-codes-la-main-invisible-des-algorithmes

Classé dans:Ère du numérique, Classification, Gestion de l'information, Knowledge Management

Défendre le dossier des moteurs de recherche en entreprise

Tel que nous l’avions déjà indiqué dans les articles précédents (ici, ici et ici), il est rare qu’une entreprise ait une stratégie de gestion du ou des moteurs de recherches, et encore moins qu’une telle stratégie soit intégrée dans un cadre plus large de gestion de l’information, tel que présenté ici.

Comment le dossier des moteurs de recherche entreprise pourrait-il être défendu ? Un expert dans le domaine, Martin White, offre un atelier pour aider à élaborer ce type de dossier. Je me suis inscrite à l’un de ceux-ci ce printemps. Je n’ai malheureusement pas pu m’y rendre en raison d’un contretemps, j’ai par contre eu accès au contenu dont je vais résumer dans plusieurs billets ce dont j’en retire (mon interprétation, mais aussi mon expérience). Le premier volet abordé porte sur les justifications du dossier. En d’autre mots, quels sont les arguments permettant de justifier pourquoi il est important de gérer et créer une équipe dédiée à la gestion du ou des moteurs de recherche auprès de ceux qui sont susceptibles de donner un appui politique et financier à une telle démarche.

L’enjeu est de réussir à convaincre les décideurs que cela vaut la peine d’investir non pas seulement dans une ou des technologies mais bien dans le processus en entier, donc aussi de créer des roles dédiés, de nature pluridisciplinaire, afin de permettre de mieux exploiter les technologies disponibles et ainsi être plus efficace à trouver l’information ou à bâtir des applications riches basées en partie sur les fonctionnalités d’un moteur de recherche.

Il n’y pas de recette clé en main qui fonctionnera par magie. Il faudra s’armer de beaucoup de patience et de persévérance avant de trouver les bons arguments adaptés aux bons interlocuteurs : une section sera pertinente pour un type de gestionnaire, une autre pour d’autres interlocuteurs, etc. Donc, la difficulté se décline en trois parties:

  • qui sont les bons interlocuteurs?
  • quels sont les bons arguments?
  • quel est le bon timing?

La réponse variera d’une organisation à l’autre et la seule constante est que vous devrez vous remettre au moulin plus d’une fois avant de parvenir ne serait-ce qu’à:

  1. être entendu,
  2. (puis) écouté,
  3. compris;
  4. à trouver le messager convaincu qui défendra le dossier au niveau décisionnel (entendu, soutien politique et finalement $$$)
  5. qui vous demandera de formuler et toujours reformuler d’abord l’initiative, puis éventuellement le projet,
  6. dont la mise en place demandera un changement organisationnel (engendrera donc de la résistance au changement) dans un contexte plus que non favorable parce que les priorités dans le monde des affaires ne cessent de changer;
  7. et ainsi de suite, et ce à la fois aux niveaux organisationnels stratégiques, financiers, tactiques puis opérationnels (chaque niveau aura sa propre compréhension de l’enjeu d’où la nécessité de reformuler et la lenteur perçue).

Le parcours est loin d’être simple et il y a peu de chance de recevoir une valorisation à court terme ou même tout court. Être le pionnier ne veut pas nécessairement dire être celui qui récolte les fruits. Participer à ce genre de démarche est un travail de longue haleine et plutôt ingrat qui ne vous met pas au premier plan. Donc si vous chercher à briller ou à recevoir des lauriers, ceci n’est pas pour vous. Il n’y a rien de glamour dans cette démarche. Ce n’est pas hot de défendre ce genre de dossier. Les attentes sont élevées mais personne ne mesure les efforts qu’il faut mettre pour que cela ait l’air facile. C’est un dossier où vous n’obtiendrez jamais 100% de satisfaction parce que c’est tout simplement impossible, puisque chaque individu a sa propre lecture de ce qui est utile et pertinent pour lui.

Comme pour n’importe quel dossier, il faudra d’abord identifier les enjeux et les risques occasionnés par l’absence ou la mauvaise gestion de cette fonction.

Là où ça fait mal ou qu’est-ce qui empêche les décideurs de dormir?

Qu’on le veuille ou non, nous sommes dans une société capitaliste. Le motto est de faire toujours plus au moindre coût, et non pas d’être plus efficace pour le plaisir d’être plus efficace ou de bien faire.

Cependant une étude coûts avantages (ou coûts bénéfices) n’aurait qu’un impact faible. Les études, comme celle qu’a réalisé l’IDC en 2009, et bien que citées très souvent dans ce type de dossier, n’ont eu que peu de retombées. Même si les résultats commencent à dater, il est fort à parier que le portrait n’a pas beaucoup changé. L’enquête IDC a pourtant montré que
« Les travailleurs de l’information, en moyenne
– passent 8,8 heures pour semaine à chercher de l’information
– gaspillent 3,7 heures par semaine à chercher de l’information sans la trouver.

En d’autres mots, la recherche [le moteur de recherche] faillit à son rôle de renvoyer des résultats utiles à 42% du temps » (traduction libre tirée de (2))

Les formules quantitatives du type suivant (découvert via (2)) parleront peut-être, et encore, aux financiers de l’ancienne école , mais je doute du réel effet de levier de ce type d’argument tout comme l’auteure de (2)).

A leading Canadian IT consulting firm, NLC, recently tackled the (metrics) question head on in their ‘Building the Business Case for Enterprise Search‘ whitepaper last week. While maintaining that a formal analysis ‘misses’ the real value of Enterprise Search, the paper does go on to provide a formal approach based on the IDC report, The Hidden Costs of Information Work (May 2009). The proposed formula boils down to measuring:

Search Cost Today = # of knowledge workers X avg. salary (incl. benefits) X % of time spent searching

Potential Annual Benefit = Search Cost Today X The Search Lift Ratio (%)

Si l’analyse de coût reste votre approche, vous pourrez explorer les sources qu’a épluchées Felix Arseneau sur son blogue dans son article sur le coût d’une mauvaise gestion de l’information.

L’approche de Martin White est plus pragmatique parce qu’en fait, il ne s’agit pas de focaliser sur la recherche en tant que telle mais bien d’identifier le processus qui est affecté par trop d’échecs ou l’absence de fonctionnalités liées à la recherche. La lumière est alors mise sur les résultats d’exploitation et la perte d’efficacité est associée à un processsus clé de l’organisation qui est fragilisé ou moins optimal qu’il pourrait l’être. La proposition devient alors une forme d’innovation et d’amélioration continue, et non une vente technique.

Ainsi, on peut prendre pour exemple, dans le domaine de la vente, combien de contrats ont-ils été échappés parce que les représentants commerciaux n’ont pas réussi à avoir l’information exacte et à jour, ont dû recréer un document existant plutôt que le réutiliser parce qu’ils ne l’ont pas trouvé ou n’avaient aucun moyen de savoir qu’il existait déjà ? Cela n’appporte-t-il pas de la valeur ajoutée d’avoir accès aux échanges qui ont déjà eu lieu entre le client potentiel et d’autres services pour démontrer une connaissance approfondie des tenants et aboutissants du dossier, y compris les détails de ce qui a déjà été discuté, s’il y a eu des plaintes ou l’inverse, ou d’autres contacts chez le même client qui ont été satisfaits ?

On parle alors du coeur et de la raison d’être d’une organisation, pas des bonnes pratiques en gestion de l’information, etc. Ces pratiques intéressent les praticiens pour échanger entre eux, pas les décideurs ou ceux que l’on conseille.

En d’autres termes, quels sont les domaines qui sont importants pour vos interlocuteurs, pas pour vous. S’il y a moyen de faire des liens, alors vous avez un espoir. Si non, alors regardez ailleurs à un autre niveau. Il n’est pas nécessaire que cela concerne toute l’entreprise ou un secteur à haute visibilité, il suffit d’une niche pour que le bouche à oreille fasse son chemin jusqu’à un niveau que l’on appelle en science des réseaux de « percolation ». Cela peut démarrer lentement, mais une fois le point de contagion (percolation) atteint, ça pourrait aller très vite en fonction du noeud qui aura été convaincu.

Dans le contexte actuel, les vecteurs les plus susceptibles d’attirer l’attention des décideurs sont :
– le développement des affaires
– la relation avec les clients ou le public
– l’aide à la prise de décision
– la gestion des risques

À partir de là, il vous faut trouver les justifications qui parleront à ces derniers. Cela vous permettra éventuellement de lancer une initiative officielle plutôt que de tenter quelque chose à temps perdu (quand il en reste).

Cependant, si cibler le « haut » (top-down), donc les décideurs, est incontournable pour obtenir des fonds et un soutien politique. Il n’est pas exclut en parallèle de commencer à préparer le terrain au niveau opérationnel et tactique (bottom-up).

Voici pour le premier volet d’une stratégie concernant la fonction « trouver et exploiter efficacement l’information » stockée et échangée à l’interne ou avec l’externe. Il est à noter qu’attendre le « bon moment » ne donnerait rien de plus parce qu’il ne se présentera que si le terrain est préparé à l’avance…

Bibliographie

(1) IDC. 2009. Information Access in Tomorrow’s Enterprise.

(2) Julie Hunt. 2012-09-25. Enterprise Search: Un-Cool and Mission Critical. In CMC : Content Management Connection.[consulté le 2013-10-30]

(3) Martin White. 2013. Developing an Enterprise Search Strategy. Enteprise Search Summit 2013, N.Y.

Classé dans:Moteurs de recherche, ,

Qui a dit qu’on n’avait pas besoin d’apprendre à utiliser Google ?

Certainement pas Google…

Expliquez-moi donc pourquoi si peu d’entreprises forment leurs employés à la recherche dans un intranet au même titre que la bureautique ?

Quoique, combien de personnes sont effectivement formées de manière régulière pour mieux utiliser les outils bureautiques de nos jours? Alors qu’il va de soi que l’on doit apprendre à conduire : quelqu’un doit nous montrer et nous accompagner pour nous expliquer, sans compte la nécessité de connaître le code de la route (il y a des règles à connaître et des pièges à éviter, des dangers et des impacts possibles sur des tiers ou soi-même), ça l’est moins concernant l’apprentissage de base des codes et pratiques sur Internet ou sur l’usage des outils bureautique pour lesquels une mise à niveau est nécessaire (technologique et donc d’apprentissage) tous les 3 ans (pour être très conservateur, les cycles commerciaux sont beaucoup plus agressifs, à nous saturer et rendre nos pratiques obsolètes très rapidement – mais c’est un autre débat).

Comme on apprend à écrire une nouvelle langue (et même sa langue maternelle), il est nécessaire d’apprendre à utiliser les outils informatiques, y compris un moteur de recherche, que ce soit de manière formelle ou non, ou de manière autodidacte à l’aide de manuels.

Page d'accueil de http://www.powersearchingwithgoogle.com/, qui donne accès à deux cours sur comment tirer meilleur parti de l'engin de recherche Google sur Internet. Donc la version accessible au public.

Page d’accueil de http://www.powersearchingwithgoogle.com/, qui donne accès à deux cours sur comment tirer meilleur parti de l’engin de recherche Google sur Internet. Donc la version publique.

Une formation sur l’utilisation d’un moteur de recherche peut très bien être incluse dans un cours de formation continue associée à une mise à niveau sur la bureautique. Cette informatique-là n’est pas l’apanage de quelques spécialistes en TI sur lesquels on peut se fier. C’est vrai autant pour les individus nés à l’ère numérique que pour ceux qui sont nés avant (comme moi). Certes, les premiers savent sans doute mieux utiliser un clavier, des touches, un écran tactile ou une manette qu’un stylo, mais cela ne veut pas dire qu’ils savent en faire usage correctement et avec discernement, tout comme ça demande de la pratique d’apprendre à écrire sur une ligne, à écrire droit, à écrire lisiblement et de manière compréhensible pour pouvoir communiquer, même si l’on a commencé à tenir un crayon pour dessiner avant d’aller à l’école. Même pour le dessin occasionnel et spontané, il y a des pratiques qui sont transimes On dessine sur un support temporaire que l’on peut choisir de garder ou de jeter, pas sur un mur, le sol ou une table… Si ce n’est pas le cas, il y a des circonstances particulières qui font qu’on peut dessiner sur un mur, une table, etc. On dessine sur un espace délimité, il y a un ordonnancement à respecter pour arriver à une certaine esthétique, etc.

Alors pourquoi cela n’est-il pas un reflexe d’apprendre à utiliser un outil complexe comme un moteur de recherche ? Sans doute parce que la complexité de ces systèmes n’est pas perçue. Ça semble facile, on met des mots clés dans une petite boîte et des résultats sortent. Mais les résultats sont-ils ce que je devrais ou veux trouver ? Quand je veux ouvrir un robinet, j’ai bien appris à faire attention si c’est de l’eau chaude ou froide, si l’eau est potable ou non. Ça paraît simple, mais la prémisse est que le tuyau est bien branché sur la canalisation de l’eau potable et non les égouts. Or cette prémisse de se brancher sur les dépôts de données de qualité n’est que trop rarement prise en considération lors de l’implantation d’un moteur de recherche. On le branche sur le réseau, point final. On lui demande de ramasser tout ce qui traîne, sans réfléchir si cela a du sens. Ou l’inverse, ce qui est couvert (indexé) est restreint. Alors, il est normal de ne pas trouver ce qu’on cherche, surtout si personne n’a pris la peine de préciser : voici ce que vous pourrez trouver ou non, et encore moins comment.

Classé dans:Moteurs de recherche, , , ,

Définir un cadre de gestion de l’information, qu’est-ce que ça veut dire ?

Avant de continuer sur l’élaboration d’une stratégie spécifique concernant la gestion de la capacité à trouver de l’information, à savoir une stratégie de gestion du ou des moteurs de recherche d’entreprise, il est recommandé d’avoir une stratégie globale de gestion de l’information communiquée via un cadre de gestion. Ce sera l’object de cet article.

D’abord, un chiffre

Est-il courant que les entreprises établissent une stratégie de gestion de l’information? Nous ne parlons pas ici d’une politique de gestion documentaire par-ci, de dépôts de données plus ou moins gouvernées par-là, de procédures de gestion de contenu et des publications ou de la propriété intellectuelle ailleurs, mais d’une vue englobante et articulée de l’ensemble de l’information d’entreprise en tant qu’actif stratégique au même titre que les ressources humaines, les produits vendus et leur marchandisage, et les ressources financières.

Forrester a effectué récemment une enquête sur ce thème, dont le rapport a été publié fin août dernier (1, 2013). Le résultat statistique n’est pas généralisable mais parle sans doute aux professionnels de l’information. Sur le nombre de répondants volontaires à deux enquêtes (113 répondants pour l’une, 179 pour l’autre), tous des répondants TI, 78% ont déclaré qu’il n’y avait pas de stratégie globale de l’information. À noter que l’angle des analystes de Forrester, comme je vais le détailler plus loin, relève plus d’une stratégie de gestion des contenants et fonctionnalités (soit l’architecture pour le domaine des TI) facilitant l’opérationalisation de la gestion de l’information, que de la gestion de l’information elle-même.

Une stratégie globale de gestion de l’information, pourquoi?

  1. Une observation que l’on peut faire tous les jours, soi-même ou lire dans différents articles : le problème actuel n’est pas la rareté de l’information mais la surabondance de celle-ci. Il existe une offre toujours plus grande d’information, qui contraste avec la difficulté toujours plus accentuée de prendre des décisions basées sur les éléments qui comptent à cause de l’accélération des changements, de la rapidité des communications – qui laissent moins de temps pour prendre du recul et effectuer des analyses -, et de l’émotivité ambiante, maintenant visible via les médias sociaux. La rapidité des réactions devient quasiment un facteur plus important que l’exactitude ou la nuance des faits.

    Dans une mer agitée, par temps de brouillard ou dans l’obscurité, les phares sont des repères importants pour les marins pour éviter le danger qui se trouve là peu importe les circonstances. Bâtir un cadre stratégique de gestion de l’information permet d’établir des repères et de rendre compréhensible la complexité, ce qui facilite l’investissement des efforts dans ce qui a du poids et d’éviter de se diperser ou de paralyser devant l’ampleur du problème. C’est une façon de reprendre le contrôle et de tirer des avantages compétitifs.

  2. Une stratégie globale de gestion de l’information est un outil utile dans plusieurs domaines :
    • La gestion du risque : combien coûte de perdre de l’information (coût pour refaire, coût pour assurer la continuité des affaires, coût de la perte de savoir-faire, coût de contentieux, etc.) ?
    • Assurer la capitalisation de la propriété intellectuelle : combien rapporte une idée originale émergée de l’expérience accumulée ?
    • La planification des technologies de l’information et des communications : combien de stockage planifier ? quel cycle de vie des systèmes ? quelle feuille de route pour les fonctionalités ? etc.
    • Assurer la relève et le transfert du savoir-faire chez les employés
    • Etc., la liste n’est pas exhaustive.

Un cadre stratégique de gestion de l’information, ça ressemble à quoi?

Il y a sans doute plusieurs méthodologies et plusieurs visions, après tout, chaque stratégie doit être basée sur les orientations stratégiques et la réalité de chaque organisation. Par contre, un cadre stratégique, peu importe le domaine est composé de plusieurs éléments clés de base :
– une vision globale définissant l’ensemble et exprimant les orientations ciblées
– des plans spécifiques avec leurs propres objectifs répondant à cette vision globale
– un cadre réglementaire : politiques, procédures, directives
Le tout s’articule dans un horizon temporel et doit être révisé périodiquement, par itération, pour tenir compte des changements et contraintes externes comme internes.

En fouillant, j’ai trouvé deux représentations qui me parlent pour illustrer ce à quoi peu ressembler un cadre stratégique de gestion de l’information.

1. Le premier exemple que je partage ici est fortement, voire littéralement, inspiré du cadre élaboré par le Government of Western Australia, Department of Local Government (3, 2013). Je le trouve bien fait du point de vue conceptuel et il couvre pas mal des aspects du paradigme de la gestion de l’information dans un contexte organisationnel, ce modèle peut tout à fait s’appliquer aux entreprises privées et pas seulement aux organisations gouvernementales.

J’ai coloré chaque section illustrée pour identifier la fonction principale qui gère ou pourrait gérer les éléments notés, il s’agit d’une simplification (pour applanir la complexité des rôles et interdépendances qui existent dans la réalité de tous les jours) et d’une interprétation de ma part. Aucune fonction n’a la responsabilité opérationnelle et/ou stratégique de manière exclusive des éléments identifiés et c’est discutable selon la réalité et la vision de chaque organisation. Il ne s’agit pas d’une vérité absolue mais d’un moyen de cibler des actions et des périmètres de responsabilité pour ces actions. De plus, chaque élément doit être clairement défini pour éviter les confusions (je ne vais pas ajouter les définitions ici). L’équipe qui a inspiré cette représentation l’a fait.

Cadre de référence de la gestion de l’information

La complexité est donc segmentée et chaque point peut être traité en parallèle ou selon un agenda différent selon les priorités, tout en tenant compte des interdépendances qui pourront être détaillées dans chaque plan. L’information devient alors gérable et il est possible d’avoir le portrait sur la maturité de ce que l’on gère ou ne gère pas, et donc, de mesurer les risques qui deviennent connus et plus précis. Bref, on sait où on est, où on va, qui est responsable, qui est concerné, et si on avance tel que prévu ou pas, dans la bonne direction.

2. Le second exemple est tiré et transformé à partir du modèle de référence de Forrester (2, 2012) sur la gestion de l’information. Comme je l’ai dit précédemment, ce modèle parlera aux architectes du monde des TI et il s’agit de la dimension gestion de l’information « incorporée » dans les systèmes informationnels qui sont ici catégorisés en fonction de leur rôle principal dans un portfolio technologique et fonctionnel.

Les départements autre que les TI, comme les ressources humaines, les finances, les affaires juridiques, les communications et le marketing, etc., sont normalement responsables du contenu qu’ils créent, distribuent et utilisent. Ce sont eux qui devraient aider à définir le niveau de service que les TI offrent du point de vue de la sécurité, des flux et de la disponibilité à travers les systèmes maintenus à l’interne ou hébergés à l’externe (infonuagique) et autres aspects. Si ce premier point est assez bien appréhendé en général, il en est autrement quand on arrive aux questions de stockage et de qualité du contenu, soit à l’information elle-même, pour ne citer que cela. Il existe souvent dans la tête des intervenants une grande confusion à ce sujet. Par exemple, les TI ne peuvent aider à valider la qualité de l’information que si des critères de validité sont définis par les propriétaires de l’information. Et je dit bien aider à valider, en mettant en place des mécanismes pour contrôler la qualité. Mais au final, c’est bien le propriétaire de l’information qui est responsable de cette qualité. Ce qui est fréquemment sous-estimé, c’est à quel point une information créée par un processus d’affaire est utile et réutilisée par un autre processus d’affaire, les deux processus ayant chacun une exigence différente sur la qualité de l’information. Personne ne veut assumer la charge (coût en argent ou en effort) pour parvenir à un point d’entente sur le niveau de qualité requise, sauf si des contraintes externes l’exigent, que ce soit une réglementation ou une question de compétitivité et de productivité, … ou une contrainte interne comme… une stratégie de gestion de l’information qui définit quel est le niveau de service et de qualité exigés, particulièrement quand il est question de relations interprocessus et intersystèmes (donc concernant les questions d’interopérabilité ou de services de données, par exemple). Donc, plus souvent qu’autrement, les TI se trouvent dans la situation de devoir compenser l’absence de vision en terme de gestion de l’information. Ceci s’avère très coûteux parce que cela engendre des frais supplémentaires. D’où la perception généralisé que les TI, c’est cher et ça ne rapporte rien…

Cadre de gestion de l'information et des technologies d'après Forrester

Le cadre proposé par Forrester peut aider à communiquer et à cibler ces difficultés ou défis par rapport à la gestion de l’information parce qu’elle est encapsulée et visible via un certain nombre de systèmes. C’est un fait. Les discussions tournent souvent autour des systèmes plutôt qu’autour de l’information parce que les technologies, même si l’on n’est pas un spécialiste, paraissent plus tangibles et plus concrètes. Très souvent, les besoins sont exprimés en demandant des fonctionnalités. Or quand une fonctionnalité est demandée, c’est qu’il y a un problème ou un besoin sous-jacent qui n’est pas technologique dans la majorité des cas.

Pour revenir à la question des moteurs de recherche…

Une stratégie concernant la pratique de gestion du ou des moteurs de recherche est donc un sous-ensemble d’une stratégie globale de gestion de l’information parce sans un encadrement de la pratique de gestion de l’information, les entreprises sont victimes du phénomène du « garbage in, garbage out« . Ce qui résulte en un gaspillage des investissements dans des technologies coûteuses qui ne peuvent répondre aux promesses des vendeurs. La premisse étant, avec une gestion de l’information, l’information de qualité est d’autant plus facilement repérable et identifiable à défaut d’une baisse en quantité et diversité des sources d’information. Ce qui serait déjà un gain.

Bibliographie

(1) Alan Weintraub, et al. 2013. The Enterprise Information Management Barbell Strengthens Your Information Value. Forrester
(2) Gene Leganza, et al. 2012. A Framework For Information Management And Consumption Technology. in Tools And Technology: The Information Strategy And Architecture Playbook. Forrester
(3) Government of Western Australia, Department of Local Government. 2013. Information and Communications Technology (ICT) Strategic Framework.

Classé dans:Gestion de l'information, Moteurs de recherche, , , , , ,

Moteurs de recherche : outils sous-exploités en entreprise (3)

Satisfaction vis à vis des moteurs de recherche d’entreprise

Plusieurs enquêtes auprès des entreprises (les sondages annuels de Findiwse, les sondages du Worldwide Intranet Challenge, et autres analyses effectuées par Forrester, Gilbane, etc.) indiquent des taux d’insatisfaction similaires (plus de 50% sont peu ou pas satisfaits de la fonctionnalité de recherche), peu importe la technologie de moteur de recherche implantée.

Les utilisateurs éprouvent les difficultés suivantes (selon l’enquête Findwise 2013):
– Où chercher et quoi chercher (difficulté à définir leur besoin de recherche et à savoir où se trouve l’information), ils n’ont même aucune idée si cette information est indexée ou non par le moteur de recherche ou s’ils se trouvent dans le bon système : pourquoi devraient-ils le savoir ?
=> cette difficulté pourrait être gérée par l’aggrégation d’informations issues de divers systèmes et de sources mixtes d’information (documentaire et transactionnelle aggrégée), technique qui serait valable pour certains processus. Une autre technique serait l' »accès unifié à l’information » dont la définition reste assez ambigüe (tendances identifiées et confirmées par Gartner* et Forrester* dans leurs analyses).

– Difficultés à identifier si les résultats de recherche sont pertinents étant donné que les métadonnées sont mal ou non gérées
=> Gestion de contenu, processus de publication, cadre de gouvernance des métadonnées sous frome de taxonomie ou de classification

– trop d’information, particulièrement, trop d’information redondante et non qualifiée (le contenu est-il validé par une quelconque autorité)
=> Gouvernance de l’information + processus de publication

Note : nous parlerons des moyens possibles (évoqués ci-haut) pour gérer ces problématiques dans des articles ultérieurs.

Pourquoi les utilisateurs ont-ils tant de mal à trouver l’information?

L’univers technologique toujours plus complexe et intriqué a particulièrement un impact en entreprise, notamment sur la localisation de l’information (où elle est stockée), son traitement et sa circulation. Les silos sont à la fois organisationnels et technologiques. Quand bien même, des efforts sont mis pour réduire les silos organisationnels non justifiés, il reste des barrières technologiques non négligeables, et ce, malgré l’évolution des connaissances en informatique. Les cycles commerciaux agressifs dont font l’objet les technologies ne font qu’exacerber les silos au lieu de les amoindrir. Chaque vendeur technologique cherche à s’attacher (dans le sens propre : rendre dépendante) sa part de marché.

Contexte numérique - Les silos technologiques

L’intégration entre les systèmes est loin d’être simple et peu coûteuse à réaliser malgré l’exitence de normes mondiales et de bonne pratiques reconnues. L’écosystème informationnel des entreprises se trouve donc aussi dispersé pour des raisons technologiques, et non uniquement en raison de la culture ou de la croissance (ex. par acquisition) d’une entreprise:
– Multiples applications
– Multiples dépôts d’information
– Interfaces non connectées, pas de cohésion de l’expérience utilisateur d’un espace à l’autre
– Terminologies différentes, dans l’interface (comme la navigation) mais aussi au niveau du contenu.

Il en résulte des frustrations, des pertes de temps, une augmentation des risques de décisions prises sur la base d’informations non mises à jour, non conformes, non fiables ou complètement oubliées (elles existent mais on ne le sait pas).

Ce que les travailleurs veulent, ce serait un accès unifié à l’information, tel qu’illustré ci-dessous. Les utilisateurs se moquent dans quelle technologie l’information est encapsulée, il veulent la trouver quand ils en ont besoin.

Contexte numérique - Accès unifié à l'information

Malgré une prise de conscience sur la nécessité d’avoir une stratégie globale de gestion de l’information pour améliorer les expériences utilisateurs concernant la capacité de trouver la bonne information au bon moment et la connaissance de l’impact sur la perte de productivité, très peu d’entreprises mettent cette activité dans leur liste de priorité. La raison principale étant la difficulté de prouver statistiquement et de manière comptable l’impact direct en terme de perte de contrat, perte de temps, hausse des coûts opérationnels, coûts liés aux contentieux, etc.

* Les entreprises comme IDC, Gartner et Forrester sont en somme comme les « Standard & Poors » ou autres organismes de notation des cotes de crédits des pays et entreprises dont les analyses influencent les prises de décisions dans le domaine des investissements dans les technologies de l’information et les bonnes pratiques en gestion de l’information avec une lecture très TI de la pratique de gestion de l’information. Cependant, au lieu de prendre cela comme une menace, autant savoir en tirer les bénéfices, puisque les décideurs sont habitués au vocabulaire de ces firmes, lorsque l’on veut défendre son dossier.

Bibliographie

– IDC. 2013. Unified Information Access: The Evolution of Search, Analytics and Business Intelligence. Webinaire diffusé le 2013-02-12
– Findwise. 2013. Enterprise Search & Findability Report 2013.
– Jane McConnell. 202. The Digital Workplace Trends.
– Gartner, Forrester : analyses sur les stratégies et les pratiques de gestion de l’information, etc.

Classé dans:Accès à l'information, Moteurs de recherche, ,

Moteurs de recherche : outils sous-exploités en entreprise (2)

… et méconnus ou pourquoi ça ne fonctionne pas comme Google sur Internet ?

L’illustration ci-dessous permet de comparer le contexte des moteurs de recherche pour Internet avec le contexte des moteurs de recherches implantés au sein des entreprises. Il s’agit d’une comparaison haut niveau qui démontre que les enjeux sont différents. Cependant, des stratégies mises en place pour le monde internet peuvent être transférables à l’interne pour obtenir de meilleurs résultats. Il y a également bien d’autres détails à prendre en compte dont nous parlerons dans d’autres billets.

La réalité des moteurs de recherche web comparée à celle des intranets.

Bibliographie

À titre indicatif, voici quelques sources qui ont fourni quelques éléments permettant cette synthèse, vous en trouverez d’autres sur le web ou via des groupes d’intérêts spécialisés. Cependant, l’essentiel de mes propos est basé sur mon expérience depuis les 3 ou 4 dernières années:

Kehoe, Miles. 2011?. Overview of Search Platform Vendors or Which Search Technology is Right for You? Présenté lors des ateliers pré-congrès du KMWorld 2011 / Enterprise Search Summit Fall 2011 à Washington (selon mes souvenirs).
Findwise. 2013. Enterprise Search and Findability Survey 2012.
– n.d. 2012. Improving Search Findability at Ernst & Young. Présenté à l’Enterprise Search Summit – Spring 2012.

Classé dans:Accès à l'information, Moteurs de recherche, ,

Moteurs de recherche : outils sous-exploités en entreprise (1)

Cet article ouvre une série d’articles qui auront pour sujet l’usage des moteurs de recherche en entreprise. La documentation sur ce sujet uniquement, et en français particulièrement, est rarissime. Le point de vue ne sera pas technologique (bien qu’il soit inévitable de l’aborder) mais du point de vue des besoins d’affaires dans un contexte d’intranet : Que veut-on réaliser au juste? Pour quel processus d’affaire?

Intranet est ici compris dans un sens large. Il ne s’agit pas seulement du site web interne de publication d’une entreprise, destiné à joindre ses employés. J’inclus dans la notion d' »intranet » (réseau interne de l’entreprise) tous les éléments de circulation de l’information numérique d’une entreprise. Il ne s’agit donc pas de la compréhension répandue de l’intranet. Cela comprend:
– les répertoires réseaux,
– les sites web ou systèmes de gestion documentaire/de contenu internes,
– les sites web d’équipe (souvent nés avec l’apparition de SharePoint et qui était au départ une vue web des traditionnels répertoires réseaux),
– les services de courriel,
– les systèmes transactionnels,
– tout espace de stockage qu’il soit sur site de l’entreprise (physiquement dans son réseau, derrière le parefeu) ou hébergé à l’extérieur, ce qu’on appelle aujourd’hui l’infonuagique, qui elle-même peut se décliner en services applicatifs (l’application est hébergée et gérée par une tierce partie – SaaS, en privé ou en colocation) ou en externalisation de l’infrastructure informatique (l’infrastructure n’est plus dans les locaux de l’entreprise mais elle est offerte et maintenue par un fournisseur mais l’entreprise gère elle-même ses propres applications – IaaS),
– les systèmes de réseautage social internes, etc.

Tout cela démontre la complexité avec laquelle il faut compter à l’intérieur d’une entreprise. Personne n’est satisfait des résultats de recherche à l’intérieur d’une entreprise, s’attendant à une expérience « à la Google », mythique et sur-valorisée, alors que les besoins, et surtout les attentes, sont en fait totalement différents entre ce que l’on s’attend à trouver sur le web et à l’interne. Pourtant, rare sont les entreprises qui investissent dans la pratique de gestion du ou des moteurs de recherche dans le(s)quel(s) ils ont pourtant investit un montant non négligeable, en se lamentant ensuite de l’absence de retour sur investissement. Chacun cherche le « Saint Graal » DU bon moteur de recherche qui fera des miracles. Or, celui-ci n’existe pas sans qu’il y ait du personnel qualifié qui s’en occupe à plein temps, et surtout sans gestion de l’information.

Qu’est-ce qu’un moteur de recherche d’entreprise?

De manière générale, un moteur de recherche est un système qui donne accès à des sources d’informations multiples et hétérogènes à des utilisateurs dont les attentes et les besoins sont divers et variés.

Il sagit de la traduction libre d’une phrase tirée d’un livre blanc publié par des consultants spécialisés dans le domaine, Search Technologies, intitulé Enterprise Search Fundamentals datant de 2012 (si on se fie aux métadonnées). Je trouve qu’elle résume bien l’usage primaire d’un moteur de recherche et comprend tous les concepts de bases importants sans trop entrer dans les spécicificités technologiques.

Ces concepts de base sont :

Système : un moteur de recherche est un système d’information mais surtout un système tout court qui doit être configuré et géré pour fonctionner correctement. Installer un moteur de recherche n’est pas suffisant pour en tirer toute la richesse de fonctionnalités et d’expérience utilisateur possible.
Accès : un moteur de recherche est une porte d’accès à de l’information, tout en respectant, comme il se doit les prérogatives de sécurité. Un utilisateur ne peut voir et lire que ce à quoi il a accès.
Information hétérogène et de sources multiples : un moteur de recherche peut contribuer à applanir les silos des systèmes d’information.
Attentes et besoins sont divers et variés : même si avec différentes techniques il est possible de déterminer les traits principaux des besoins d’un groupe d’utilisateurs, et donc, de catégoriser ces utilisateurs dans des ensembles partageant des caractéristiques communes, la perception de pertinence ou non des résultats de recherche reste très individuelle, ainsi que les stratégies de recherche et les attentes.

Classé dans:Accès à l'information, Moteurs de recherche, ,

Comment se retrouver parmi les différentes offres de systèmes du monde de la gestion documentaire ou de contenu?

L’écosystème des produits et applications connexes à la gestion documentaire, à la gestion de contenu ou à la gestion des archives ne cesse d’évoluer, chacun tentant de garder ou de faire évoluer sa niche en fonction de la arrivée de nouveaux paradigmes comme l’entrerpise E 2.0, le big data et  l’émergence des réseaux sociaux. La frontière entre l’interne/externe, le public/privé, du domaine de l’information d’entreprise tend à devenir de plus en plus floue avec l’émergence de ces nouvelles façons de partager et trouver l’information qui se développent sur Internet et qui finissent par influencer les façons de travailler à l’intérieur de entreprise.

J’ai ressenti le besoin de faire une carte afin de mieux comprendre les composantes que les uns et les autres offrent dans le domaine de la gestion de contenu (dans le sens large) mais aussi de plus en plus dans le domaine des systèmes transactionnels et financiers. On observe une tendance où la frontière entre l’information structurée et non structurée devient de plus en plus floue, voire obsolète. Dans un futur proche, les utilisateurs n’auront plus à se préoccuper de savoir dans quel système se trouve quelle information. Tout ce qui les intéresse, c’est d’avoir sous la main l’information dont ils ont besoin pour exécuter leur travail ou prendre des décisions, qu’elle se trouve dans un système transactionnel, de gestion documentaire ou dans la tête d’un collègue ou d’un expert.

Cette carte, que je partage avec vous, reflète la place qu’occupe ou souhaite occuper SharePoint 2010 actuellement par rapport à d’autres produits qui souhaitent garder ou compétitionner avec Microsoft qui fait preuve d’un énorme pouvoir d’adaptation en l’espace de peu de temps sous la pression des autres joueurs comme Apple, Google ou Facebook, pour ne citer qu’eux. Je ne prétends pas qu’il s’agisse d’une vérité aboslue, mais est le reflet de comment je perçois le paysage des produits TI et des fonctionalités qu’ils offrent à leurs clients.

La perspective est globale, à savoir que ce qui est perçu ou reconnu comme étant un intranet par des employés est en fait composé d’une association complexe de solutions qui répondent à des besoins d’affaire, eux-même compris et exprimés différemment et en parallèle par nombre d’acteurs et de décideurs qui ne se parlent pas nécessairement entre eux ou n’ont simplement pas connaissance de la vue globale et dans quel contexte leur demande s’incrit.

Fonctionalités des différents systèmes de gestion de contenu, de collaboration et documentaire.

Une entreprise est un système ouvert et en éternelle recomposition, en voici juste un petit extrait du point de vue de l’offre de services appuyant la gestion des connaissances (knowledge management), les communications internes/externes et les processus quotidiens et de base sources de création de contenu.

Classé dans:Ère du numérique, Gestion de l'information, Logiciels et applications, Moteurs de recherche, Web 2.0

Principe de séparation contenu, structure et présentation et autres irritants concernant SharePoint et autres systèmes d’entreprise

Ce principe de base connu depuis au moins une bonne décennie n’est toujours pas respecté par SharePoint, pas même SharePoint 2010, et autres grands joueurs de l’industrie. L’industrie, que ce soit Oracle, IBM ou autre ne semble pas accorder une grande importance à ce principe, ni celui de l’usage de la codification UTF8 ou autre codification étendue de chaînes de caratères ne se limitant pas à la langue anglaise.

Illustration

  • Au niveau fondation, les bases d’information servant de colonne vertébrale entre différents systèmes ou applications comme l’AD (Active Directory) ne supportent toujours pas les caractères accentués. Et, bien qu’il serve de plus en plus et en grande partie à être le dépôt d’informations de contact et de réseautage entre utilisateurs, le principe de base spécifiant qu’il faut séparer contenu, structure et sa présentation n’est toujours pas respecté : on ne peut utiliser qu’une seule langue d’affichage à la fois, donc si l’on veut supporter plusieurs langues, il est nécessaire de tout mettre dans un seul champ, des champs de libellé supplémentaires pour des langues alternatives n’étant toujours pas disponibles. Et si jamais par miracle, cela se produirait, svp, n’oubliez pas d’ajouter l’attribut de langue…
  • Les colonnes de SharePoint, toute version confondue,
    • l’identifiant de la colonne = son libellé : au mieux, il est possible de revenir en arrière pour renommer le champs selon un libellé plus humain si
      • on voulait avoir des url propres et constantes : ex. Intuitivement quand on crée une colonne, comme un seul champ apparaît, l’utilisateur a le réflexe d’écrire dans sa langue. Donc, si l’on veut par exemple créer la colonne « élément d’application », on se retrouve avec un champ qui renvoie %C3%A9l%C3%A9ment%5Fx0020%5Fd%5Fx0027%5Fapplication dans l’url, ce qui est très explicite quand on veut : référérer au lien ou au champs dans un code ou pour indexation
      • pourtant d’autres systèmes supportent depuis un moment la modification des espaces en _ ou en – au choix de l’administrateur de système, pour éviter cette prolifération de %20 illisibles et incompréhensibles pour les utilisateurs. Et proposent même de remplacer automatiquement les caractères ou signes diacritiques comme les é ou les ‘, le premier par le é sans accent et le second par, encore une fois, _ ou -, au lieu de %C3%A9 et %5Fx0027%5F, qu’il faudra retraduire dans une autre chaîne de caractères (même code) pour usage dans un autre système.
      • Il est même dans certains cas impossible de séparer l’identifiant unique d’un champ de son libellé, nous nous retrouvons donc prisonnier de ce charabia même en étant discipliné.
    • SharePoint n’utilise pas correctement et ni par défaut les métadonnées Titre, Keywords ou Description, par défaut, c’est le nom de fichier qui est utilisé et le champ titre n’est pas utilisé. 
      • Les métadonnées ne sont pas inscrites dans des tags xhtml, ce qui nuit à la trouvabilité et à l’optimisation du référencement. Cela crée par conséquent une surcharge de travail qui serait facilement épargnée sans ce comportement incompréhensible du point de vue de la gestion de l’information et des recommandations connues du W3C.
    • Dans SharePoint 2010, certes, je ne vais pas me plaindre de l’arrivée du Term Store, donc de la disponibilité de base d’un outil de gestion d’une ou plusieurs taxonomies.
      • Par contre, ce dernier même s’il permet de rendre disponible quelques fonctionnalités de thésaurus et peut faciliter, sans le garantir, une certaine cohérence dans  l’étiquetage des contenus à travers les sites, n’est pas connecté au moteur de recherche, que ce soit Microsoft Search, Fast ou un tiers outil. Il est nécessaire de maintenir les synonymies à deux endroits différents. Encore une fois, une surcharge de travail pour aider les utilisateurs à retrouver le contenu
      • Mais, ouf, les libellés multilingues sont supportés… C’est donc possible chez Microsoft quand ils veulent bien!!!

Les vendeurs comme Microsoft, IBM, Oracle et d’autres s’en sauvent en informant maintenant leurs clients qu’il existe une règle du 80/20, soit :

Pour implanter et configurer un système d’information, particulièrement un ECM (Enterprise Content Management), il faut répartir les efforts de la manière suivante:

  • 20% d’effort sur l’implantation technologique
  • 80% d’effort sur la gestion et la gouvernance de l’information

Or, cette pseudo règle de Paretto ne fonctionne pas puisque si le 20% dépend bien des TI, le reste est de la responsabilité, à tout le moins devrait être, sous le leadership autre que les TI, or la réalité est bien souvent la suivante : 100% du budget est dépensé sur la technologie et rien n’est prévu pour rendre les ressources disponibles du point de vue de la gouvernance et de la qualité de l’information. Plus souvent qu’autrement, les entreprises dépensent dans les technologies sans mettre l’effort utile pour rentabiliser leur investissement en espérant que cela se fasse comme par magie. Pour illustrer, c’est comme implanter une infrastructure d’écoulement des eaux usées, des égoûts et une robinetterie de la meilleure qualité qui soit tout en allant pomper l’eau dans une source polluée sans prendre la peine de filtrer l’eau, ni même de mettre en place une réglementation et des standards de qualité, avec mesures de conformité. Il en résulterait alors que l’eau ne sera pas potable et serait de la même qualité que celle des égoûts… C’est exactement ce qu’il se passe. Les gens d’affaire ne comprennent pas le rôle actifs qu’ils doivent jouer et la responsabilité qu’ils ont pour obtenir le retour sur investissement tant attendu.

Or, le 80% d’investissement dans l’information : aider à la rendre disponible tout en s’assurant que le système engendre le moins de distorsion possible, sa qualité et encadrer sa gestion (les différents flux et usages) n’est ni effectué durant l’élaboration de systèmes, ni durant leur livraison. Comment donc s’étonner que la productivité tant promise ne se réalise pas? Et cela n’est pas manque d’effort de la part des services des TI dans les entreprises.

Classé dans:Ère du numérique

Architecture de l’information en marche

Il y a longtemps que je n’ai plus écrit sur ce blogue pour plusieurs raisons : dont l’apprentissage d’un métier et du fonctionnement d’une organisation assez complexe et particulière.

Mon rôle chez SNC-Lavalin me passionne. Ce n’est pas une situation « traditionnelle » pour quelqu’un qui a obtenu un diplôme en sciences de l’information, dans le sens de bibliothéconomie et archivistique, mais pas plus traditionnelle non plus, du point de vue des technologies de l’information.
Je suis entrée à l’emploi en tant que taxonomiste sans trop savoir ce que ça impliquait vraiment, pas plus que ceux qui m’ont embauché d’ailleurs. Ces circonstances aurait pu mener nulle part : pourquoi un département d’informatique embauche une taxonomiste alors qu’il n’y même pas encore de projet concret, et qu’en plus, les technologies de l’information gèrent certes les systèmes d’information, mais ne sont pas responsables de la qualité du contenu (l’information en tant que tellle) et en sont encore moins le propriétaire moral, administratif ou même légal.
J’ai d’ailleurs passé un certain temps à :
– essayer de trouver un moyen d’expliquer mon rôle à mes collègues alors même que j’avais moi-même besoin de le comprendre. J’avais saisi l’idée globale que je devais aider à trouver l’information. Là où ça devenait compliqué, c’était de donner un exemple concret et parlant parce qu’il n’y en avait pas encore. Le travail était encore à l’état de concept, d’hypothèses de mise en application, sans garantie d’obtenir les ressources, financières ou technologiques nécessaires pour la mise en pratique puisque, justement, comment obtenir un budget et une approbation pour quelque chose qui semble ésotérique et très peu relié aux affaires (puis ça change quoi dans la livraison de nos services ?). Donc, vous aurez compris que j’aussi dû…
– trouver un moyen d’expliquer mon rôle à des personnes, hors du département d’informatique, pour essayer de leur faire comprendre en quoi mon travail pourrait aider le leur et que j’avais besoin de leur collaboration, notamment m’aider à repérer le vocabulaire, le catégoriser et l’organiser de manière à aider à retrouver leur information et le savoir-faire inscrit, éparpillé et noyé dans une masse énorme d’information (une centaine de sites web de projets, presque une 10aine de millions de documents indexés par un moteur de recherche d’entreprise, dont des duplicatas obsolètes et non contrôlés, des fichiers temporaires non détruits, sans compter les répertoires réseaux de groupes ou personnels, les fichiers attachés dans les courriels, etc.). Si donc, la plupart saisissent l’idée, il leur est difficile de voir comment cela pourrait se concrétiser et surtout de savoir ce que ça implique… Et tant qu’on ne voit pas, on a des doutes. Je savais que ça marcherait potentiellement mais expliciter comment ça fonctionne et pourquoi ça fonctionne, sans pouvoir le démontrer concrètement, c’est autre chose.

Finissant par avoir moi-même besoin de voir concrètement comment cela pourrait se mettre en place, j’ai donc travaillé avec les moyens dont nous disposions, à savoir, en exploitant la technologie existante et les moyens du bord. Mon expérience passée en gestion de systèmes et mes connaissances en gestion de réseau m’ont permis d’avoir la crédibilité nécessaire pour obtenir la permission de faire des expérimentations avec le moteur de recherche, dans un environnement de développement (sans nuire pas au fonctionnement réel de tous les jours). J’ai ainsi pu apprendre à exploiter les fonctionnalités du moteur de recherche et commencer à utiliser, par exemple, la fonction thésaurus et les possibilités d’exploiter les métadonnées des documents pour fournir des résultats de recherche plus parlant et filtrables via des facettes… La taxonomie prenait une forme concrète. Il suffisait de montrer ce qu’il était possible de faire juste en exploitant ce qui existait déjà mais restait invisible.
Je suis ainsi devenue la spécialiste fonctionnelle du moteur de recherche. Le moteur de recherche plus utilisé et mieux perçu, mais ce n’est pas gagné… La masse informationnelle augmente très, très rapidement, donc se limiter à ce qui est fait spontanément n’est pas suffisant, il faut continuer à convaincre, à éduquer et … à faire ce qu’on peut avec les moyens du bord.

De fil en aiguille, le moteur de recherche ont été associé à moi. « On a de la difficulté à retrouver notre information, il paraît que vous pouvez nous aider… » Ces appels ont été de petites victoires qui m’ont aidé à avoir puis entretenir ma crédibilité, à me rassurer sur le fait de ne pas lâcher et que j’étais sur la bonne voie. Le moteur de recherche est devenu le moyen pour démontrer en quoi une information mieux gérée : catégorisée, décrite, filtrée, triée ou détruite quand nécessaire, facilite la trouvabilité.

Puis, environ six après mon embauche, le fonctionnement du département d’informatique a été revu et je me suis retrouvée dans une nouvelle équipe : l’architecture globale d’entreprise. Je ne me serais jamais trouvée au sein de cette équipe si je n’avais pas obtenu ces petites victoires, et, encore moins, si mon supérieur ne m’avait pas laissé faire, n’avait pas compris ce que j’essayais de faire et utilisé ces exemples lui-même dès qu’il en avait l’occasion pour démontrer qu’il était possible d’agir et que ce n’était pas seulement théorique.

De taxonomiste, je suis devenue spécialiste en architecture et je travaille en collaboration avec des architectes technologiques (ce que j’appelle la tuyauterie, la logistique de transport et de communication : le réseau de circulation des données et des informations), des architectes systèmes (la vue micro des systèmes : quels sont les processus pour réaliser une transaction, une action, quels sont les intrants et les extrants) et des architectes de données/information (comment les données passent d’un système à l’autre?, sont produites, par qui, quoi? contrôlées par qui, comment? y’en-a-t-elles qui sont communes entre les systèmes, ont-elles la même définition? etc.).

L’aventure est donc devenue collective et ensemble, particulièrement avec les architectes de système et de données, nous essayons de développer une pratique d’architecture de l’information d’entreprise, à savoir une architecture informatique qui intègre les données structurées (les bases de données, notamment) et les informations non structurées (les contenus web, les fichiers bureautiques, les dessins industriels – qui peuvent être des fichiers CAD mais sont de plus en plus des bases de données -).

Le travail du taxonomiste ou de l’architecte de l’information (pas dans le sens d’ergonome web) ne se limite donc pas au web mais pourrait trouver sa place en collaboration avec les architectes de données et de système. L’autre voie possible est d’aider à rendre les technologies sémantiques plus performantes : à titre d’analyste de résultats ou pour le développement de tels outils.
Le paradigme binaire 0-1 ou vrai-faux qu’offre l’informatique n’est plus suffisant. Les décideurs ne disposent que de peu de temps de réaction pour décider sur la base d’une masse d’information qui n’est humainement pas appréhendable aussi rapidement. L’environnement est complexe et change très vite, arriver avec un nombre limité d’options entre lesquelles il faut trancher n’est pas si évident, la réalité est bien plus dans les nuances que dans le noir et blanc. Les outils sémantiques sont donc une voie possible pour assister les prises de décisions et pour compléter les solutions traditionnelles de BI (business intelligence) qui fouillent des données structurées. Or ces outils sémantiques sont basés sur des modèles statistiques articulés sur des ontologies, des moyens qui restent donc mécaniques. Or rien n’est pertinent ou non pertinent en soi. Tout dépend du contexte et du sens. Une machine peut déterminer selon un modèle que cela est le plus probable, sans juger du résultat, mais cela ne veut pas dire que cela a du sens et est vrai… . L’humain reste l’élément capable de juger si cela est possible ou non. L’humain seul peut réintérroger le résultat et déterminer s’il est satisfaisant ou non. Ainsi, les taxonomistes qu’ils viennent de la linguistique, de l’informatique, l’ingénierie, des sciences pures ou de la bibliothéconomie ont donc une belle voie d’avenir devant eux.

Personnellement, j’aime mon travail parce que justement il n’y a pas de réponse toute prête et qu’il faut inventer. Les tâches que j’exécute se formulent au fur et à mesure que des besoins émergent ou des possibilités/obstacles se présentent.

Classé dans:Classification, Documents (accès, organisation, structuration), Métadonnées, Taxonomie, Web sémantique,

Karin Michel, M.S.I.
Architecte d’information et de données, Gouvernance de l’information et des données

M.S.I obtenue à l'École de bibliothéconomie et des sciences de l'information
Université de Montréal
Québec - Canada

Les propos tenus sur ce blogue sont des réflexions personnelles et n'engagent en rien mon employeur ou quelque personne que ce soit avec laquelle je travaille.

Intérêt en
gouvernance des données, architecture d'entreprise, modélisation de données, knowledge management, RIM, GID / GED, architecture de l'information et de données, ..., analyses de besoins, etc.
Logo AIIM SharePoint Practioner

Pages