Mot-clé - grain de sel

Fil des entrées

mardi 10 novembre 2009

Compte-rendu d'InCos2009

Avant-propos

Pour ce billet, je vais essayer quelque chose de nouveau en y introduisant une touche de sémantique. Ainsi, les passages strictement scientifiques seront en gras, mes remarques personnelles en italique (à lire à la manière d'apartés), et le reste en normal. Naturellement, des combinaisons sont possibles : je peux très bien faire une remarque scientifique en gras et italique.

De cette façon, les personnes voulant aller droit au but pourront juste se contenter de lire les parties qui les intéressent, alors que celles prenant un café auront le temps de le terminer en considérant mes bafouilles :)

Le déplacement

Plaza real Armé de ma profonde non-maîtrise de la langue espagnole (pour tout vous dire, mon espagnol est encore plus mauvais que mon néerlandais, et je n'arrive à parler néerlandais que lorsque je suis totalement ivre; c'est dire le niveau), j'ai donc débarqué à l'aéroport de Barcelone. Aéroport qui, naturellement, ne porte le nom de Barcelone que par un surprenant hasard vu la distance qui sépare ces deux endroits…

Plage de Barcelone Honnêtement, Barcelone est une ville superbe : des vieux quartiers, des œuvres d'art moderne un peu partout, des immeubles au style design… En plus, il y fait beau et chaud, mais pas trop. La mer est juste aux pieds de la ville, et surtout le nombre de palmiers au mètre carré est limite indécent. Je vous le dis, moi : il faut relocaliser SILEX à Barcelone :)

La conférence

Il s’agissait de la première édition de la conférence, ce qui expliquait son flottement sur le papier. En revanche, une fois sur place tout était clair.

Séance de postersJ’ai donc assisté aux présentations qui nous intéressent dans SILEX; deux thèmes se sont dégagés :

  1. réseaux sociaux : interconnections, services web, exploitation, analyse nœuds forts, critiques, etc)
  2. e-learning :
    • en s'appuyant sur les plates-formes sociales
    • s'appuyer sur Wikipédia (récupérer automatiquement des groupes de ressources liées au thème)

Globalement, la conférence avait un niveau moyen, mais correct. Les thématiques flottaient un peu, mais les organisateurs ont maintenant une vision plus claire de ce qu'ils veulent faire. Pour moi, le principal intérêt de cette conférence était de discuter avec les espagnols qu’on ne voit habituellement quasiment jamais en France.

Comment reconnaître un espagnol dans une soirée ? C'est celui qui parle le plus fort. Comment savoir qu'on est à une conférence espagnole ? Tout les locaux parlent fort !

Il y avait beaucoup, beaucoup, mais alors beaucoup d'asiatiques (chinois, japonais, thaïlandais); ils sont partout désormais ! Ce qui les intéresse surtout :

  • télécom, surtout mobilité
  • e-learning :
    • langue (anglais oral, pour conversation)
    • reprise individuelle des cours d'un professeur (rejouer les annotations et schémas du prof au lieu d'avoir juste le résultat statique)

L’authentification biométrique, c'est un peu la loose quand ça ne fonctionne pas, surtout en plein écran sur le vidéo projecteur : être logué en dehors de sa machine car on a les doigts gras, c'est pas lol du tout :) Bref, les chinois ont pleins de gadgets sympa dans les poches, mais la qualité est… chinoise, on dira.

Travaux intéressants vus sur place

Je n’ai rien vu qu’y ait spécialement retenu mon attention, mais j’ai malgré tout noté quelques petites choses qui m’ont titillé.

Group Intelligence: a distributed cognition perspectivePoster « Group Intelligence: a distributed cognition perspective » : vision du web 2 selon un point de vue de cognition distribuée.

Educational Games based on Open ContentPoster « Social Educational Games based on Open Content » : le but de leurs travaux est, entre autre, d'arriver à mettre en place un système d'e-learning ludique construit automatiquement à partir de ressources libres; ça peut être des jeux de questions-réponses, de coloriage de cartes, etc. J'aime bien l'idée, mais je n'en sais pas suffisamment sur leurs approches pour dire ce que ça vaut.

Miloš Kovačević, un serbe, qui travaille sur la création automatique de moteurs de recherche spécialisés à partir d'une simple liste d'URL. Par exemple, on lui fourni une collection de liens pointant vers des ressources choisies par un enseignant pour documenter son cours, et l'outil va construire automatiquement un corpus étendu à partir des liens hypertextes initiaux, pour ensuite alimenter un moteur de recherche; du coup, avec juste quelques liens on se retrouve avec un vaste ensemble de documents. Il cherche à améliorer son travail en collectant automatiquement des ressources jugées pertinentes, en se basant sur la navigation de l'utilisateur, ses échanges avec d'autres personnes, etc. Donc, hop des traces.

Ma présentation

Passant en dernier, j’avais décidé de réveiller la salle en dynamisant un peu la présentation; pas de doute, ça a marché : c'est moi qui ai distribué le plus de cartes de visite dans le panel (bon, OK, les traces modélisées ont intéressées les gens bossant sur la collaboration et l'apprentissage; mais quand même). Un des participants du panel n’étant pas présent, j’ai pu (discrètement :) récupérer son temps de parole pour continuer à discuter sur les traces.

D'ailleurs, le LIRIS devrait vraiment donner des cartes de visite aux doctorants, car là j'ai lâché mes cartes pro à moi, et pas celles aux couleurs du labo… (mais je ne me plains pas, hein ;)

Retours et questions

Expliqué simplement, avec moult dessins et pas de choses qui font peur, le concept de la trace modélisée est facilement compris; surtout en l'appuyant dès le début avec des exemples concrets. Les questions ont porté sur :

  • la possibilité de raisonnement à partir des traces : j'ai tracé en deux lignes le RàPET
  • la nature du modèle : j'en parlais beaucoup mais n'en montrais jamais concrètement. J'ai commencé par sortir un bout de RDF, mais comme j'ai senti que ça ne passait pas j'ai repris ma métaphore de la boîte à chaussure et du catalogue; et là c'était bon.
  • l'utilisation des traces pour fournir à une classe d'élèves des information sur leur travail, leur activité, etc. Comme je ne sais pas vraiment ce qui se fait dans l'équipe en terme de traces dans les EIAH, j'ai renvoyé vers le site de SILEX.
  • les gens du e-learning sont d'accord avec le fait qu'on ne peut pas se passer de l'intention et de l'objectif quand on travaille avec des traces modélisées pour l'humain
  • quid de l'utilisations des traces passées ? J'ai déroulé l'exemple de KM à base d'insertion d'image dans Word (très très bien cet exemple pour faire comprendre aux gens l'utilisation de traces)
  • est-ce qu'on n'a pas peur de rater des informations sur l'utilisateur dans son activité ? J'ai répondu que dans notre cas de l'apprentissage collaboratif synchrone, cela est très peu probable car on construit le modèle en fonction de l'objectif, de l'activité réalisé et des ressources impliquées. Mais c'est à voir dans d'autres circonstances; rapide évocation de la génération automatique de modèle

Beaucoup de questions, donc, aussi bien théoriques que très pratiques : comment construit-on un modèle ? Quelles sont les possibilités de liaisons avec des outils existants ? Comment exploiter les traces pour faire telle ou telle chose ? Ce qui est régulièrement revenu est la question de faire des inférences automatiques sur les traces, pour produire des nouvelles choses.

Et maintenant ?

Que faire pour exploiter les retours de cette conférence ? Très simplement, il me vient immédiatement à l’esprit qu’il faut :

  • une page web de vulgarisation pour présenter les traces
  • une courte liste de nos principales publications pour la compréhension des traces
  • renforcer la communication au sein de l'équipe (mais je l'ai déjà dit ça, non ? :)
  • renforcer le travail en commun au sein de l'équipe

On peut également songer à faire une base de connaissance pour nos déplacements : hôtels où descendre, pièges à éviter, etc. Par exemple :

Barcelone

Hôtel :

  • Pension 45, juste à côté de la Placa de Catalunya; fortes connexions pour les transports en commun
  • confort simple, tranquille, le wifi gratuit est bon quand il n'est pas saturé par une andouille qui pompe des torrents

Aéroport :

  • les navettes avec Barcelone se trouvent au Terminal 1, et se nomment « aérobus »; 5 euros le trajet, des billets A/R existent; vont jusqu'à la Placa de Catalunya
  • difficile de trouver des prises de courant dans le Sky Center; il faut les chercher au pied des blocs élévateurs

Transport :

  • le ticket à l'unité est cher
  • il existe un ticket donnant droit à 10 trajets, pour pas cher du tout
  • les portillons du métro sont fourbes : selon le dispositif, soit il faut passer à gauche de la borne, soit il faut passer à droite

Vie quotidienne :

  • on survit très bien avec juste quelques mots de vocabulaire, et une langue bien pendue
  • les barcelonaises sont faciles à aborder et aident volontiers les touristes

Les documents

J'ai mis, comme d'habitude, mes documents sur SlideShare. Voici les widgets embarqués dans le billet.

Et bien sur, le carton qui-va-bien Best Paper Award

Damien recevant le Best Paper Award

mercredi 28 octobre 2009

Classement des auteurs pour un article

Une fois de plus revient ce vieux serpent de mer qu'est la question de l'ordre des auteurs d'un article rédigé à plusieurs mains. On aurait pu croire le problème simple, mais manifestement ce n'est pas le cas (pour tous). Je ne peux pas résister au plaisir de faire un billet rapide sur la question (juste pour vous faire réagir :)

PhDcomics_author_list.gif Illustration tirée de Cham, Jorge : Author List, dans Piled Higher and Deeper, 13/3/2005

Quand il s'agit de déterminer l'ordre des auteurs d'un article, les gens sont capable d'une imagination débordante : simple ou double tris imbriqués selon le poste, l'âge, le domaine ou encore la météo du jour, ou bien par importance de contribution, de besoins administratifs ou encore de positionnement. Chaque fois qu'on pense avoir tout vu, on tombe sur une nouvelle fantaisie.

Au final, si c'est très distrayant à regarder, c'est surtout très casse-pied à démêler. Surtout quand on est face à un discours multiple :

  • d'un côté, il y a (quasi ?) unanimité sur l'absurdité de la bibliométrie telle qu'elle est pratiquée par les agences gouvernementales en charge de la recherche;
  • d'un autre côté, quand on regarde la liste des auteurs d'un article inconnu, on ne peut faire aucune déduction sur l'intention qu'ont eu les auteurs en adoptant un ordre précis. Est-ce que Machin est plus respectable que Truc, ou a encore plus contribué que Bidule ? Impossible à savoir;
  • et bien sur, il y a également l'aspect de déterminer quel ordre va adopter un groupe de personnes quand il s'agira, pour elles, de publier.

La solution est à mes yeux évidente : affirmer ses idées et n'utiliser que l'ordre alphabétique [1], au besoin en mentionnant ce détail pour plus de clarté.

Comme de toute façon personne ne peut en déduire quoi que ce soit, et que tout le monde s'en fout, autant faire simple. Honnêtement, vous faites l'effort de suivre des auteurs pour savoir si leur position dans la liste des rédacteurs de leurs publications augmente ou régresse ? Moi pas.

L'ordre alphabétique est simple, compréhensible par tous, « juste » (quand on connait l'importance de ce critère...) et permet surtout de se débarrasser d'un problème humain empoisonnant.

Note

[1] le choix des méthodes de comparaison est laissé comme amusette à l'intention du lecteur : comment déterminer la précédence entre caractères accentués (é, ê et e, par exemple), ou pire entre caractères non-latin (チ, ϐ, Ж...) ?

mardi 13 octobre 2009

BiblioCNRS, un FAIL en perspective

Avant les grandes vacances, je me suis retrouvé embarqué (je ne sais plus comment) pour betatester le futur service unifié de recherche bibliographique du CNRS : BiblioCNRS. Et bien moi, je vous le dis, c'est pas gagné.

BiblioCNRS

À base de Netvibes, le portail a la pesanteur d'un mammouth farci à l'herbe à chat. Ça rame, ça rame, ça rame. On a beau supprimer des widgets, désactiver tous les effets et même coller une CSS perso, ça rame.

L'organisation est... non, en fait il n'y a pas d'organisation : on y comprend rien, les actualités sont rangées entre un lien vers l'AERES et l'annuaire du personnel; ou l'inverse, c'est selon la session.

Pensant pouvoir s'échapper, on clique sur des mots familiers écrits en gros « ST2I » ou « Mon BiblioCNRS ». Et bien non, c'est juste une illustration qui sert à montrer que, ben, rien justement.

De dépit, on se résout à cliquer sur un onglet en haut de page (BiblioST2I dans mon cas), et là encore, ça rame. Horreur ! On se retrouve face à une page semblable à la précédente, mais avec *encore* plus de widgets. Y'en a plein, partout, tellement que ça ne tient même pas à l'écran !

C'est bourré de textes en noir, rouge et orange. Des widgets entiers sont remplis de juste une URL indicible surmontant un texte incompréhensible si on n'a pas fait 20 ans dans un labo. On devine bien ce qu'on peut faire avec certains formulaires, mais à ce point on commence à redouter ce qui se cache derrière.

Vraiment, c'est innommable comme portail de recherche de publications. Moi, je voulais juste un truc tout simple, avec quelques options stockées dans un cookie. Genre Google Scholar, quoi, mais directement sur les catalogues du CNRS. Et bien non, apparemment quelqu'un a décidé que l'Avenir c'était le mashup lourdingue tendance « débrouille toi ». Dommage.

mercredi 23 septembre 2009

Interconnexion application flash ↔ KTBS

Bonne nouvelle, les interconnexions sont en train de se mettre en place entre le KTBS et différents prototypes. Par contre, il reste du boulot.

Enfin bon, ça commence à tourner, c'est le principal. Voici un extrait de code en ActionScript montrant comment faire un aller-retour entre une application Flash et le KTBS. Notez la création simple de la liaison pour le service web via le HTTPService(). En revanche, ne me demandez pas (encore) comment on fait si la connexion timeout, saute, se bouche ou autre. Il est également possible d'utiliser directement des sockets, ce qui est pratique pour affiner les choses à la main.

Sérieusement, ce langage est immonde. Ça a la lourdeur du javascript, et la grammaire a été conçue par un polonais shooté à la vodka : ça ressemble presque à un langage normal, sauf quand ils se sont amusé à permuter l'ordre des éléments sans aucune raison valable (genre variable:type ← franchement, faut être malade pour inventer ça...). C'est supposé être un langage de haut niveau, userfriendly et tout, mais on se tape les contraintes héritées des années 70 (marqueur de fin de ligne, typage fort, etc). Et surtout ils ont tout pété entre les versions 2 et 3 du langage. Sans compter que le compilateur (en java) a le dynamisme d'une vache salers explosée au Lexomil.

Dernier détail : sur le papier, l'eventListener fonctionne, mais en pratique il ne me donne rien; je soupçonne fortement un tripatouillage interne des données, genre « bouge pas, je vais te mettre ça en forme et nettoyer ce qui ne sert pas ». Ben tiens...

// l'objet décrivant le SGBT
private var _sgbt :HTTPService;


/*
 * constructeur de KTBS
 */
public function SGBT() :void {
// création d'un service web sur le KTBS de PA
	_sgbt = new HTTPService();
	_sgbt.url = "http://ip6-localhost:8001/";
	_sgbt.method = "GET";
	_sgbt.contentType = "application/rdf+xml";
// reniflage de la réponse du KTBS, avec appel à reponse() en lui passant les données retournées
	_sgbt.addEventListener(ResultEvent.RESULT, reponse);
	_sgbt.send();
}


/*
 * traite les données reçues du KTBS
 * retourne : rien
 * mesData est l'événement provenant du listener sur requête du KTBS
*/
public function reponse(mesData :ResultEvent) :void {
	_sgbt.removeEventListener(ResultEvent.RESULT, reponse);
// trace() est une primitive de déboguage écrivant sur la sortie standard
	trace(mesData.result.toString());
}

jeudi 30 juillet 2009

Pourquoi je ne crois pas (encore) en la trace modélisée

Non, non, ne hurlez pas; je vous vois venir avec vos mais qu'est-ce qu'il va encore nous inventer cette fois-ci ? :)

Lisez, vous allez voir, ça va vous intéresser.

Avant-propos

Je travaille depuis maintenant un bon moment à mettre en place une partie de nos idées sur les traces, concernant la visualisation d'activité (individuelle ou collaborative, a/synchrone, ici on s'en fout). Architecture, conception de modèles, instrumentation d'application, couche réseau, formats de données, parsers, etc; vous l'avez compris, tout passe entre mes mains excepté le SGBT qui est pour moi une boîte noire. Si vous pouvez imaginer quelque chose relatif aux traces (RàPC excepté), alors je me suis certainement penché dessus à un moment durant ces six derniers mois.

Je vous présente ici un retour sur l'expérience que j'ai développé, à base de réflexions personnelles. Le constat est plutôt mitigé, je vous préviens d'avance. Rien de dramatique, mais il faudra en tenir compte pour la suite de nos travaux car ça a des conséquences importantes. Je vais essayer de faire un découpage propre, mais vous allez voir que tout est lié.

Ma réflexion est orientée sur le transfert vers l'entreprise (non, ce n'est pas un gros mot) de nos travaux de recherche. C'est à dire : « qu'est-ce qu'il faut prendre en compte lorsqu'on va essayer de vendre la trace modélisée à un industriel ».

La conception de modèle

La première étape de l'enrichissement d'une situation informatique par les traces (sous-entendu, après tout le blabla d'analyse) est la conception d'un modèle de traces de logiciel(s). Cela :

Demande des compétences très spécialisées

Soyons réalistes, comprendre la théorie de la trace modélisée et être capable d'expliciter des interactions dans son formalisme n'est pas à la portée de tout le monde. Non pas que cela soit particulièrement complexe, mais cela exige un certain nombre de connaissances et de compétences qui ne se trouvent pas partout.

Que ce soit par une méthode ascendante ou descendante, concevoir des modèles de trace d'applications ne peut être fait que par un petit nombre de personnes. Or, ce qui est rare est cher. Il va donc falloir convaincre l'entreprise de réaliser cet investissement. Cela peut passer par une mission d'un expert extérieur, la formation d'une personne déjà en place, un partenariat avec une structure compétente, etc. Plusieurs possibilités existent, mais toutes ont un coût qui n'est pas négligeable.

Nécessite beaucoup de temps

Un logiciel, même très simple, est riche en possibilités d'interactions. On peut retenir l'utilisation de menus, de boutons, de paramètres, de zones de saisie, de fonctions, etc, ainsi que des opérations plus globales impliquant les périphériques d'entrée et de sortie.

Au final, on se retrouve à manipuler un très grand nombre d'observés et de relations, ce qui nécessite plusieurs jours semaines de travail. La richesse en observés étant exponentielle par rapport à la complexité d'un logiciel, essayez de visualiser ce à quoi pourrait ressembler le modèle de trace d'OpenOffice. Oui, c'est plus que gros : c'est énorme. Et on ne peut pas se permettre de laisser de côté certaines parties du modèle car cela impliquerait de ne pas être capable de représenter correctement les interactions de l'utilisateur sur ce logiciel.

L'entreprise ayant besoin de tracer une activité, un environnement ou que sais-je encore, va devoir y passer du temps (qui est aussi de l'argent, comme nous le rappel le célèbre adage). Ce temps sera pris au dépend d'autres activités, peut-être plus facilement et rapidement rentables.

Comprend aussi la conception des règles de transformations usuelles

Tout comme sans maîtrise, la puissance n'est rien, des traces qu'on ne peut pas manipuler sont tout de suite moins intéressantes. La conception de jeux de règles de transformations adaptées aux modèles de traces est un des à-côté du travail conceptuel de la trace.

En effet, on ne peut pas simplement donner un modèle de trace à une entreprise en lui disant « voilà, tu as ton modèle, à toi de te débrouiller pour faire ce que tu veux avec ». Il faut donc en parallèle du modèle construire les règles de transformations qui vont les utiliser, afin d'obtenir un résultat final qui corresponde aux attentes de l'entreprise. L'entreprise pourra certes produire en interne de nouvelles règles de transformations (par une tactique de copie/adaptation), mais il faudra lui préparer le terrain. Et qui est-ce qui va se taper le travail ? Gagné, c'est l'expert qui s'occupe déjà du modèle. Cela augmente sensiblement sa charge de travail, et donc le coût pour l'entreprise.

Instrumentation des logiciels

Selon le logiciel à instrumenter, le travail technique pour réaliser la collecte d'observés varie grandement. J'ai identifié 3 catégories d'instrumentation :

  • édition en profondeur du code source : méthode qui nécessite d'avoir accès au code source du logiciel, et d'être en mesure d'y apporter des modifications;
  • création de greffons présentant des interfaces pour interroger le contenu de variables d'état : ici, on ajoute des fonctionnalités à l'application en s'appuyant sur ses API. On est limité par ce que propose l'application en terme d'accès aux ressources internes.
  • création de préparateurs de traces qui récupèrent des données exportées par l'application pour produire des observés : cette approche consiste à récupérer des informations sorties de l'application via ses méthodes standard (par exemple, flux RSS ou AppleEvent). Cette méthode apporte le découpage le plus fort dans le tandem application/traçage, et est limitée par l'application elle-même.

Selon les applications à instrumenter et les méthodes utilisées, le coût de l'adaptation logicielle varie énormément. Malheureusement, il n'est pas possible d'identifier un petit nombre de critères précis permettant de quantifier simplement ce coût. C'est uniquement en prenant en compte une combinaison de nombreux facteurs qu'on peut le déterminer. À titre d'idée, on peut citer sans s'y restreindre :

  • la complexité du travail;
  • la durée du travail;
  • le langage de programmation (allez trouver quelqu'un qui fait encore du COBOL, tiens :)
  • la documentation disponibles (humain, référentiel de développement, etc);
  • l'urgence;
  • etc.

Il y a également les coûts liés; par exemple, les structurels : achat d'un serveur pour le SGBT, mise à jour des matériels, adaptation de l'architecture réseau...

Les cycles de vie logiciel dans environnements tracés

Un logiciel peut être vu comme quelque chose de « vivant », évoluant au fur et à mesure des versions. Ces évolutions sont nécessaires pour de nombreuses raisons : changement dans l'environnement d'accueil (le système d'exploitation), sécurité, nouvelles fonctionnalités, etc.

Tout naturellement, il faut que les éléments du traçage accompagnent ces évolutions. Tout s'enchaînent très rapidement de façon implacable :

  1. modifier le logiciel tracé (peut) oblige(r) à modifier la collecte
  2. modifier le logiciel tracé oblige (pas moyen d'y échapper, là) à modifier le modèle de traces
  3. modifier le modèle de traces oblige à modifier les transformations de traces (et oui...)
  4. modifier les transformations de traces impacte sur la visualisation des traces (j'y reviendrais plus tard)

On se rend compte alors que la mise à jour est coûteuse car il faut de nouveau faire appel à notre expert. Vous souvenez de lui, celui de la 1e étape, qui avait conçu les modèles ? Et bien il va falloir retourner le voir pour lui demander de se pencher sur les modifications. Ceci dit, ça tombe bien car il pourra tout traiter d'un seul coup : l'évolution des modèles et celle des transformations. Et si en plus derrière il peut assurer la formation ça ne sera pas perdu.

Le plus problématique est qu'il faut répéter ce cycle à chaque nouvelle version du logiciel. C'est réellement un surcoût, car la rentabilité n'est pas évidente à dégager (comptablement parlant).

Mentalement, insérez ici un joli schéma de traces complet d'une application, montrant côte à côte les modèles de traces pour la version N et la version N+1. Imaginez de gros, gros (mais alors gros), graphes avec des nœuds et des arcs dans tous les sens, qui seraient différents de seulement quelques détails : observés en plus ou en moins, déplacement de relations, changement d'attributs, etc.

Je mettrais les schémas quand je les aurais fini, le but est ici de vous faire prendre conscience du volume de travail que ça représente.

Pratiques des utilisateurs liées aux traces

En ce qui concerne l'utilisateur final, c'est plus simple pour lui. Une évolution de son environnement tracé se traduit non seulement par une modification de sa pratique métier, mais également de sa pratique réflexive via les traces. Ben oui, vous ne croyez quand même pas qu'au final rien ne change ? Et comme nous le savons, tout ce qui change les habitudes de l'utilisateur le fait râler (sauf si c'est Génial, mais ça seul Apple arrive à le faire :)

De petites modifications dans un logiciel peuvent avoir de grandes répercutions sur le modèle de trace, et donc sur la visualisation interactive de la trace par l'utilisateur. Il va donc lui falloir un temps d'adaptation (ce qui influera sur sa productivité), voir même une formation.

Également, les changements dans les traces et modèles pourront se propager à d'autres environnements, tracés ou non. C'est le cas lors de la documentarisation de traces en vue de générer des productions (textes, hypermédia, etc.) Même si ces outils ne sont pas tracés, ils sont impactés par les changements sur les données d'entré.

Que retenir au final ?

On peut dire qu'instrumenter un environnement pour lui faire générer des traces est long, pas toujours simple, et n'est pas nécessairement faisable de façon clairement rentable.

Les problèmes apparaissent à tous les niveaux : conceptuel (modèles), technique (instrumentation) et humain (usage). Les principaux étant le coût (je crois l'avoir suffisamment répété :) de la mise en œuvre de la trace dans un système existant, et les compétences spécialisées requises dans chacune des étapes de la réalisation.

Convaincre un industriel d'investir dans la trace est alors réellement un problème, car les gains à dégager sont difficilement calculables, et la mise initiale est élevée.

Au final, pour moi la théorie de la trace est attirante sur le papier, mais les difficultés liées à la réalisation sont vraiment rebutantes.

Pistes envisageables

Tout n'est pas perdu ! Maintenant que nous avons regardé le problème droit dans les yeux, on peut louvoyer en évitant ce qui justement nous embête.

Ainsi, on peut songer à cibler en priorité les systèmes figés, qui n'évoluent pas ou très peu :

  • machine-outil : une chaîne de production change rarement, car son utilisation est planifiée en amont. Du coup, pas besoin non plus de faire évoluer les trucs-de-la-traces \o/
  • systèmes critiques : les outils comme ceux du contrôle aérien n'ont pas le même cycle de vie que les logiciels grand public; on ne passe pas son temps à les mettre à jour. Il sont conçus pour durer, et c'est au contraire les autres systèmes qui s'adaptent pour interagir avec eux. En gros, une fois le traçage dedans, il n'en bouge plus.
  • logiciels arrivés à maturité; ils peuvent être complexes (Lotus Notes) ou très simples (calepin de Windows). De par leur nature, rôle ou histoire, certains logiciels sont intouchables; on se contente au plus de les recompiler, mais en veillant à ne rien changer afin de ne pas provoquer d'effets de bord (comme par exemple un changement de modèle de trace).

Une autre approche est de se poser la question de savoir qui a suffisamment d'argent à dépenser pour se lancer dans un projet pareil, sans que le responsable risque de se faire virer après la réception de la facture par le service compta :

  • les grands comptes : la Poste, EDF (eh, ça tombe bien :), etc;
  • la fonction publique : quand l'administration investie, elle ne le fait pas à moitié; souvenons-nous du « Plan informatique pour tous »;
  • les Décideurs Pressés qui imposent contre l'avis de leurs DSI des solutions qu'ils jugent intéressantes. Avec un joli PowerPoint®™©, on arrive à vendre des glaçons au Pôle Nord.

Vous l'avez compris, j'exclus tout ce qui est grand public dans les cibles potentielles. Il y a éventuellement le monde du Libre qui pourrait mettre en place et maintenir des utilisations de traces modélisées, mais il faudrait vraiment que ça soit pertinent.