Mot-clé - problème

Fil des billets - Fil des commentaires

mercredi 2 septembre 2009

À la recherche du positionnement perdu

Le problème

Pour savoir où l'on va, il est utile de déterminer où l'on est; cela se fait en observant ce qui nous entoure et en dressant des cartes. Avant d'entamer des métaphores, comparaisons et autres analogies géographiques bancales, passons tout de suite à la question essentielle : comment situer mes travaux dans l'existant ? Je touche en effet à beaucoup de domaines, et au final il y a toujours ce risque que je bascule d'un côté, alors que je dois rester en équilibre, quelque part dans tout cela.

J'ai donc sorti ma fidèle table périodique des visualisations, et je me suis mis au travail.

L'évolution des représentations

Trouver la méthode de représentation qui-va-bien n'est en soit pas très compliqué. Avec le temps, on prend ses habitudes, on réutilises ses patrons de schémas et zou; la subtilité réside alors dans l'arrangement esthétique. En effet, la complexité d'un schéma augmentant avec le nombre de ses éléments, le nombre de permutations possibles entre ses éléments croit de même, sinon plus (cette démonstration est laissée comme amusette à l'attention du lecteur :).

Représentation par un diagramme de Venn classique

Point bleu de Google Maps

Puisque j'avais à faire avec une carte montrant les recouvrements entre différents concepts, avec quelque part un point bleu nommé « mon travail est ici », ma première idée a été de faire dans la simplicité en invoquant Venn et son diagramme.

J'ai commencé par représenter les trois domaines initiaux que j'avais identifié dans mon travail de doctorat :

  • l'informatique
  • les sciences cognitives
  • les sciences de l'enseignement

Même si mon sujet de thèse a récemment évolué vers la visualisation interactive de traces d'interactions, les fondamentaux restent les mêmes : la couverture sera juste tirée un peu plus d'un côté au lieu d'un autre.

De ces domaines initiaux, j'en ai tiré des domaines secondaires. Secondaires non pas par l'importance, mais par le fait qu'ils existent grâce à la rencontre des domaines premiers. On pourrait couper les cheveux en quatre et se lancer des briques au visage pour décider si ma vision est bonne ou pas, mais à ce point je m'en moque un peu (la source des schémas est sur le dépôt SVN de l'équipe, vous pouvez les reprendre si vous le souhaitez :)

Finalement, dans tous ces domaines j'ai placé quelques concepts-clés pour préciser les spécificités concernées. Et je me suis placé au milieu.

Positionnement classique

Le résultat est moche (comprendre : pas sexy, banal, évident et à la limite de l'ennuyeux), il faut être honnête. Certes, on voit dans l'ensemble où je veux en venir et comment je surf sur une foultitude de domaines, mais la seule réaction que cela m'évoque (en dehors d'un « c'est moche » dubitatif) est que si le fond a du potentiel, la forme est à revoir.

Représentations par barres

Positionnement par barres

Mon deuxième essai a été d'envisager une approche similaire, mais plus propre. Puisque les patatoïdes de Venn rendaient mal à cause de leurs nombreuses intersections, je me suis dit qu'une approche plus carrée fournirait un résultat plus net. Hop, les traits se raidissent et les angles apparaissent. Malheureusement, je constate immédiatement que cela ne règlera pas le problème des intersections.

Ou alors, il faudrait ajouter une dimension spatiale et faire une schémas en 3D isométrique. On aurait alors une superposition sur l'axe des Y des différents domaines principaux : informatique, science cognitive, etc. Les domaines résultant de croisements (EIAH = informatique + enseignement) étant alors représentés par des volumes de coupe, occupant sur les axes X et Y des espaces de spécialisation.

Jolie idée, pouvant fonctionner. Mais elle implique de dégainer un outil de modelage 3D pour produire un tel schéma, car les outils de diagrammes habituels (comme dia et OmniGraffle (non, Visio®™© n'est pas un bon outil)) ne sont pas adaptés à ce genre de réalisation. Certes, on pourrait y arriver par des losanges et des effets de transparence, mais… non, vraiment non, en fait.

Essayons autre chose.

Représentation par blocs

Décidément, plus je gribouille des trucs sur le tableau et que je joue avec différentes méthodes de représentation, et plus je me dis que les diagrammes de Venn sont probablement l'approche la plus adaptée (je vous fais grâce des étapes intermédiaires, pour la faire courte); mais en laissant tomber quelques aspects formels, pour me simplifier la tâche. Au besoin je reprendrais alors le schémas pour le régulariser.

Positionnement par blocs

Et donc, mes patatoïdes initiaux discutent avec mes barres pour donner des blocs. La nature est parfois étrange, mais le résultat est très intéressant. J'obtiens quelque chose de propre, clair, et surtout immédiatement lisible. L'œil est flatté et le cerveau repus; j'approche de la solution, pas de doute !

Mais non en fait : il me reste un gros problème. Regardez là. Oui, là ! Mon bloc « trace modélisée » en haut à droite, il ne vous choque pas ? Non ? Regardez au centre, le bloc « visualisation interactive de traces d'interactions dans les activités collaboratives synchrones d'apprentissage »; et ouiiii, ils ne se recouvrent pas. Autrement dit, les deux domaines sont complètement disjoints. Et ça, ce n'est Pas Bon car la visualisation de traces est liée à la théorie de la trace. De la même façon, mon bloc « activité collective » est isolé alors qu'il est primordial.

Bon, clairement ça ne fonctionne pas. il faut que je reprenne mon approche.

Représentation par rosace

Voyons voir… Ce qui compte dans le schéma, c'est moi. En effet, ce que je veux représenter, c'est comment MOI je me situe par rapport aux domaines. La première étape consiste donc à me poser (ou plus exactement, mon sujet de thèse) au milieu d'un espace vide pour ensuite positionner le monde autour de moi. Une approche très narcissique, certes, qui a parfaitement fait ses preuves.

Et hop, ensuite je trace un premier patatoïde qui m'englobe. Hum, qui m'englobe partiellement ou complètement ? Partiellement, cela veut dire que je ne touche pas à l'ensemble du domaine; complètement, je couvre tout. Cela demanderait réflexion si le leitmotiv de Yannick ne me revenait pas en tête : « ton travail, c'est tout cela ». Paaaarfait, j'ai ma réponse sans avoir à réfléchir.

Positionnement par rosace

La suite de la conception est mécanique : je prend tous les domaines, premiers et secondaires, pour les mettre au même niveau et je les répartis autour de moi. Copier, coller, changer la rotation, changer la légende, changer la couleur. Hop, ça c'est fait. OoooOoOoooh, ça fait une rosace. Shiny.

J'ajoute un fond pour borner la figure (et du coup me rapprocher du formalisme de Venn en définissant l'univers), et je le dégrade pour faciliter la lecture des textes clairs (sérieusement, les développeurs d'Omnigraffle, il faudrait leur envoyer des fleurs : ce logiciel est tout simplement divin).

J'ajoute enfin quelques concepts-clés, pour donner matière à discussion (ruse : pendant que les gens pinaillent dessus, ils ne parlent pas du reste ;) et je n'oublie pas de bien mettre en avant l'aspect « trace modélisée » de la chose.

Je termine en rédigeant ce billet, et je pars manger.

Et maintenant ?

C'est, ma foi, une fort belle première étape (sisi). Non seulement elle donne un support visuel permettant de discuter, mais aussi de déjà illustrer mon travail. Mais on peut faire mieux, j'en suis sur. On pourrait, par exemple, réfléchir sur :

  • le recentrage d'éléments, ou en mettre certains en valeur. Ainsi, je ne suis pas cogniticien mais informaticien, donc est-ce qu'il ne faudrait pas faire la taille des pétales en fonction de l'importance du domaine dans mes travaux ?
  • la précision de concepts-clés : je peux en ajouter, ou alors en faire passer certains sous forme de pétales s'ils sont suffisamment important;
  • jouer à positionner des choses (travaux, idées, outils, etc) sur la rosace, pour voir si ça tient. Si j'arrive à tout caser dedans, est-ce que cela ne serait pas une forme de validation de ma représentation ?
  • la généricité et la spécialisation : comment réutiliser et décliner ce schéma ? Au vu des travaux que font les membres de l'équipe, comment pourrait-on envisager une harmonisation globale pour avoir des représentations simples des positionnements de SILEX sur des thématiques précises ?

jeudi 30 juillet 2009

Pourquoi je ne crois pas (encore) en la trace modélisée

Non, non, ne hurlez pas; je vous vois venir avec vos mais qu'est-ce qu'il va encore nous inventer cette fois-ci ? :)

Lisez, vous allez voir, ça va vous intéresser.

Avant-propos

Je travaille depuis maintenant un bon moment à mettre en place une partie de nos idées sur les traces, concernant la visualisation d'activité (individuelle ou collaborative, a/synchrone, ici on s'en fout). Architecture, conception de modèles, instrumentation d'application, couche réseau, formats de données, parsers, etc; vous l'avez compris, tout passe entre mes mains excepté le SGBT qui est pour moi une boîte noire. Si vous pouvez imaginer quelque chose relatif aux traces (RàPC excepté), alors je me suis certainement penché dessus à un moment durant ces six derniers mois.

Je vous présente ici un retour sur l'expérience que j'ai développé, à base de réflexions personnelles. Le constat est plutôt mitigé, je vous préviens d'avance. Rien de dramatique, mais il faudra en tenir compte pour la suite de nos travaux car ça a des conséquences importantes. Je vais essayer de faire un découpage propre, mais vous allez voir que tout est lié.

Ma réflexion est orientée sur le transfert vers l'entreprise (non, ce n'est pas un gros mot) de nos travaux de recherche. C'est à dire : « qu'est-ce qu'il faut prendre en compte lorsqu'on va essayer de vendre la trace modélisée à un industriel ».

La conception de modèle

La première étape de l'enrichissement d'une situation informatique par les traces (sous-entendu, après tout le blabla d'analyse) est la conception d'un modèle de traces de logiciel(s). Cela :

Demande des compétences très spécialisées

Soyons réalistes, comprendre la théorie de la trace modélisée et être capable d'expliciter des interactions dans son formalisme n'est pas à la portée de tout le monde. Non pas que cela soit particulièrement complexe, mais cela exige un certain nombre de connaissances et de compétences qui ne se trouvent pas partout.

Que ce soit par une méthode ascendante ou descendante, concevoir des modèles de trace d'applications ne peut être fait que par un petit nombre de personnes. Or, ce qui est rare est cher. Il va donc falloir convaincre l'entreprise de réaliser cet investissement. Cela peut passer par une mission d'un expert extérieur, la formation d'une personne déjà en place, un partenariat avec une structure compétente, etc. Plusieurs possibilités existent, mais toutes ont un coût qui n'est pas négligeable.

Nécessite beaucoup de temps

Un logiciel, même très simple, est riche en possibilités d'interactions. On peut retenir l'utilisation de menus, de boutons, de paramètres, de zones de saisie, de fonctions, etc, ainsi que des opérations plus globales impliquant les périphériques d'entrée et de sortie.

Au final, on se retrouve à manipuler un très grand nombre d'observés et de relations, ce qui nécessite plusieurs jours semaines de travail. La richesse en observés étant exponentielle par rapport à la complexité d'un logiciel, essayez de visualiser ce à quoi pourrait ressembler le modèle de trace d'OpenOffice. Oui, c'est plus que gros : c'est énorme. Et on ne peut pas se permettre de laisser de côté certaines parties du modèle car cela impliquerait de ne pas être capable de représenter correctement les interactions de l'utilisateur sur ce logiciel.

L'entreprise ayant besoin de tracer une activité, un environnement ou que sais-je encore, va devoir y passer du temps (qui est aussi de l'argent, comme nous le rappel le célèbre adage). Ce temps sera pris au dépend d'autres activités, peut-être plus facilement et rapidement rentables.

Comprend aussi la conception des règles de transformations usuelles

Tout comme sans maîtrise, la puissance n'est rien, des traces qu'on ne peut pas manipuler sont tout de suite moins intéressantes. La conception de jeux de règles de transformations adaptées aux modèles de traces est un des à-côté du travail conceptuel de la trace.

En effet, on ne peut pas simplement donner un modèle de trace à une entreprise en lui disant « voilà, tu as ton modèle, à toi de te débrouiller pour faire ce que tu veux avec ». Il faut donc en parallèle du modèle construire les règles de transformations qui vont les utiliser, afin d'obtenir un résultat final qui corresponde aux attentes de l'entreprise. L'entreprise pourra certes produire en interne de nouvelles règles de transformations (par une tactique de copie/adaptation), mais il faudra lui préparer le terrain. Et qui est-ce qui va se taper le travail ? Gagné, c'est l'expert qui s'occupe déjà du modèle. Cela augmente sensiblement sa charge de travail, et donc le coût pour l'entreprise.

Instrumentation des logiciels

Selon le logiciel à instrumenter, le travail technique pour réaliser la collecte d'observés varie grandement. J'ai identifié 3 catégories d'instrumentation :

  • édition en profondeur du code source : méthode qui nécessite d'avoir accès au code source du logiciel, et d'être en mesure d'y apporter des modifications;
  • création de greffons présentant des interfaces pour interroger le contenu de variables d'état : ici, on ajoute des fonctionnalités à l'application en s'appuyant sur ses API. On est limité par ce que propose l'application en terme d'accès aux ressources internes.
  • création de préparateurs de traces qui récupèrent des données exportées par l'application pour produire des observés : cette approche consiste à récupérer des informations sorties de l'application via ses méthodes standard (par exemple, flux RSS ou AppleEvent). Cette méthode apporte le découpage le plus fort dans le tandem application/traçage, et est limitée par l'application elle-même.

Selon les applications à instrumenter et les méthodes utilisées, le coût de l'adaptation logicielle varie énormément. Malheureusement, il n'est pas possible d'identifier un petit nombre de critères précis permettant de quantifier simplement ce coût. C'est uniquement en prenant en compte une combinaison de nombreux facteurs qu'on peut le déterminer. À titre d'idée, on peut citer sans s'y restreindre :

  • la complexité du travail;
  • la durée du travail;
  • le langage de programmation (allez trouver quelqu'un qui fait encore du COBOL, tiens :)
  • la documentation disponibles (humain, référentiel de développement, etc);
  • l'urgence;
  • etc.

Il y a également les coûts liés; par exemple, les structurels : achat d'un serveur pour le SGBT, mise à jour des matériels, adaptation de l'architecture réseau...

Les cycles de vie logiciel dans environnements tracés

Un logiciel peut être vu comme quelque chose de « vivant », évoluant au fur et à mesure des versions. Ces évolutions sont nécessaires pour de nombreuses raisons : changement dans l'environnement d'accueil (le système d'exploitation), sécurité, nouvelles fonctionnalités, etc.

Tout naturellement, il faut que les éléments du traçage accompagnent ces évolutions. Tout s'enchaînent très rapidement de façon implacable :

  1. modifier le logiciel tracé (peut) oblige(r) à modifier la collecte
  2. modifier le logiciel tracé oblige (pas moyen d'y échapper, là) à modifier le modèle de traces
  3. modifier le modèle de traces oblige à modifier les transformations de traces (et oui...)
  4. modifier les transformations de traces impacte sur la visualisation des traces (j'y reviendrais plus tard)

On se rend compte alors que la mise à jour est coûteuse car il faut de nouveau faire appel à notre expert. Vous souvenez de lui, celui de la 1e étape, qui avait conçu les modèles ? Et bien il va falloir retourner le voir pour lui demander de se pencher sur les modifications. Ceci dit, ça tombe bien car il pourra tout traiter d'un seul coup : l'évolution des modèles et celle des transformations. Et si en plus derrière il peut assurer la formation ça ne sera pas perdu.

Le plus problématique est qu'il faut répéter ce cycle à chaque nouvelle version du logiciel. C'est réellement un surcoût, car la rentabilité n'est pas évidente à dégager (comptablement parlant).

Mentalement, insérez ici un joli schéma de traces complet d'une application, montrant côte à côte les modèles de traces pour la version N et la version N+1. Imaginez de gros, gros (mais alors gros), graphes avec des nœuds et des arcs dans tous les sens, qui seraient différents de seulement quelques détails : observés en plus ou en moins, déplacement de relations, changement d'attributs, etc.

Je mettrais les schémas quand je les aurais fini, le but est ici de vous faire prendre conscience du volume de travail que ça représente.

Pratiques des utilisateurs liées aux traces

En ce qui concerne l'utilisateur final, c'est plus simple pour lui. Une évolution de son environnement tracé se traduit non seulement par une modification de sa pratique métier, mais également de sa pratique réflexive via les traces. Ben oui, vous ne croyez quand même pas qu'au final rien ne change ? Et comme nous le savons, tout ce qui change les habitudes de l'utilisateur le fait râler (sauf si c'est Génial, mais ça seul Apple arrive à le faire :)

De petites modifications dans un logiciel peuvent avoir de grandes répercutions sur le modèle de trace, et donc sur la visualisation interactive de la trace par l'utilisateur. Il va donc lui falloir un temps d'adaptation (ce qui influera sur sa productivité), voir même une formation.

Également, les changements dans les traces et modèles pourront se propager à d'autres environnements, tracés ou non. C'est le cas lors de la documentarisation de traces en vue de générer des productions (textes, hypermédia, etc.) Même si ces outils ne sont pas tracés, ils sont impactés par les changements sur les données d'entré.

Que retenir au final ?

On peut dire qu'instrumenter un environnement pour lui faire générer des traces est long, pas toujours simple, et n'est pas nécessairement faisable de façon clairement rentable.

Les problèmes apparaissent à tous les niveaux : conceptuel (modèles), technique (instrumentation) et humain (usage). Les principaux étant le coût (je crois l'avoir suffisamment répété :) de la mise en œuvre de la trace dans un système existant, et les compétences spécialisées requises dans chacune des étapes de la réalisation.

Convaincre un industriel d'investir dans la trace est alors réellement un problème, car les gains à dégager sont difficilement calculables, et la mise initiale est élevée.

Au final, pour moi la théorie de la trace est attirante sur le papier, mais les difficultés liées à la réalisation sont vraiment rebutantes.

Pistes envisageables

Tout n'est pas perdu ! Maintenant que nous avons regardé le problème droit dans les yeux, on peut louvoyer en évitant ce qui justement nous embête.

Ainsi, on peut songer à cibler en priorité les systèmes figés, qui n'évoluent pas ou très peu :

  • machine-outil : une chaîne de production change rarement, car son utilisation est planifiée en amont. Du coup, pas besoin non plus de faire évoluer les trucs-de-la-traces \o/
  • systèmes critiques : les outils comme ceux du contrôle aérien n'ont pas le même cycle de vie que les logiciels grand public; on ne passe pas son temps à les mettre à jour. Il sont conçus pour durer, et c'est au contraire les autres systèmes qui s'adaptent pour interagir avec eux. En gros, une fois le traçage dedans, il n'en bouge plus.
  • logiciels arrivés à maturité; ils peuvent être complexes (Lotus Notes) ou très simples (calepin de Windows). De par leur nature, rôle ou histoire, certains logiciels sont intouchables; on se contente au plus de les recompiler, mais en veillant à ne rien changer afin de ne pas provoquer d'effets de bord (comme par exemple un changement de modèle de trace).

Une autre approche est de se poser la question de savoir qui a suffisamment d'argent à dépenser pour se lancer dans un projet pareil, sans que le responsable risque de se faire virer après la réception de la facture par le service compta :

  • les grands comptes : la Poste, EDF (eh, ça tombe bien :), etc;
  • la fonction publique : quand l'administration investie, elle ne le fait pas à moitié; souvenons-nous du « Plan informatique pour tous »;
  • les Décideurs Pressés qui imposent contre l'avis de leurs DSI des solutions qu'ils jugent intéressantes. Avec un joli PowerPoint®™©, on arrive à vendre des glaçons au Pôle Nord.

Vous l'avez compris, j'exclus tout ce qui est grand public dans les cibles potentielles. Il y a éventuellement le monde du Libre qui pourrait mettre en place et maintenir des utilisations de traces modélisées, mais il faudrait vraiment que ça soit pertinent.

dimanche 21 juin 2009

Vie quotidienne au CNRS : censure des opinions personnelles

Thibaud Hulin travaille avec moi au LIRIS, CNRS UMR5205, dans l'équipe SILEX. Thibaud Hulin et moi partageons le même statut, à savoir contractuel et non pas titulaire.

Dans le contexte de l’affaire Vincent Geisser, Thibaud relai les évènements en cours et les commente. Quelques jours plus tard, il reçoit un appel téléphonique (quand on connait l'état de l'annuaire du LIRIS, c'est déjà en soit une surprise :) du directeur de laboratoire lui demandant de supprimer son billet; la demande venant du service du Fonctionnaire de Sécurité Défense (FSD).

Au delà d'un soutien normal envers mon collègue de travail, je ne peux pas m'empêcher de m'interroger sur les prérogatives et droits de ce fameux FSD qui agit tant mais dont on ne sait rien.

Sur cette affaire, je ne prend pas position sur les travaux de Vincent Geisser, que je ne connais pas, mais sur le contrôle de la liberté de parole des personnes travaillant au CNRS.

En savoir plus :

vendredi 15 mai 2009

Résoudre les problèmes de son sur Ubuntu, version Jaunty Jackalope

Très simplement, les mêmes causes produisant les mêmes effets, la version Jaunty Jackalope d'Ubuntu souffre de problèmes de son. Comme avec Intreprid Ibex, des logiciels tels que Flash ou Skype restent muets et sourd.

La solution est simple : il suffit d'appliquer la même méthode que pour Intrepid Ibex, à savoir supprimer PulseAudio.

mercredi 25 mars 2009

Vie quotidienne au CNRS : la rationalisation du téléphone

Les membres du LIRIS, personnels titulaires et non-permanents, ont reçu le message suivant du directeur de laboratoire.

Bonjour,

Afin d'harmoniser les pratiques sur chacun de nos sites en matière de communication téléphonique, nous avons fixé quelques règles de bon sens :

Professeurs et HdR : ligne internationale jour et nuit

MCF : ligne nationale + portable jour

PR invité : ligne nationale + portable jour

Administratif/techniques : ligne nationale + portable jour

Post Doc/Doc : ligne nationale jour

Stagiaires : ligne régionale jour

Fax : ligne internationale jour et nuit

J'invite les responsables site (Saïd, Serge et Liming) à faire un état des lieux et de converger vers cette utilisation.

merci

Étant doctorant au LIRIS, cette nouvelle politique me concerne directement.

Le problème principal est que, de nos jours, tout le monde a des portables. Ne pas pouvoir composer de 06* signifie ne plus pouvoir joindre les collègues en déplacement ou communiquer avec les personnes en dehors du LIRIS.

Accéder aux numéros en 09* est aussi critique pour les téléphones VoIP (genre Freebox, PBX d'entreprise, etc).

Rationaliser l'accès aux ressources part d'une bonne idée, mais si pour passer un coup de fil il faut remplir un formulaire, cela ne va pas améliorer les conditions de travail et la productivité générale.

Pour améliorer le fonctionnement du LIRIS, il faudrait peut-être plutôt commencer par faciliter la vie des personnes, et non pas poser davantage de restrictions. Il y a plein de petites améliorations simples à apporter au quotidien et qui rendrait vraiment service.

Par exemple, améliorer le système de sauvegarde pour automatiser la conservation des données des ordinateurs portables (actuellement, c'est à faire manuellement), ou encore déployer un outil permettant simplement de créer et de gérer des listes de diffusion internes au laboratoire afin de faciliter la communication.

mardi 3 mars 2009

Vie quotidienne au CNRS : l'achat d'une webcam

Contexte

Au moment où je commence la rédaction de ce billet (début mars 2009), le CNRS et les universités sont en lutte contre les réformes universitaires imposées par le gouvernement.

Mais en parallèle, la vie quotidienne se poursuit, avec son ensemble de petits tracas. Un exemple concret des problèmes qui encombrent la recherche publique est l'achat de petit matériel. Dans mon cas, il s'agit d'une webcam, la Logitech QuickCam Communicate Deluxe, disponible chez LDLC à 39,90€.

Il se trouve que mon équipe de recherche, SILEX a besoin d'une webcam pour réaliser des expérimentations et des visioconférences. Sans être extraordinaire, cette webcam a besoin d'avoir des caractéristiques précises : compatibilité avec nos systèmes existants, capacités techniques, etc.

Notre choix s'est porté sur cette QuickCam qui équipe bon nombre de foyers français, et qui est disponible un peu partout. Sauf pour le CNRS, qui doit suivre des procédures d'achats particulières : le Marché public (brrr).

Voici donc comment se passe concrètement de nos jours l'achat d'une webcam au CNRS. Et après on s'étonne que la recherche publique va mal…

Fin novembre 2008

Fin novembre 2008, la décision est prise de réaliser l'achat. Muni de l'autorisation officielle de mon supérieur hiérarchique (un courriel), je discute donc avec la secrétaire du laboratoire afin de faire une demande d'achat pour l'équipe.

La démarche est très simple, je n'ai qu'à donner la référence du produit (avec en plus dans mon cas le lien vers la fiche de LDLC) et le secrétariat s'occupe du reste.

Sauf que… plus possible de faire d'achats, le budget annuel est bouclé : il faut attendre mi-janvier 2009 que le nouveau budget soit ouvert et que les vacances soient terminées. Soit.

Mi-janvier 2009

Je réactive la demande d'achat; mais la réponse arrive très rapidement : impossible de commander la webcam. Il faut obligatoirement passer par le marché pour réaliser cet achat, catégorisé par le CNRS dans les « consommables ». Il faut donc faire notre choix dans le catalogue proposé par l'entreprise ayant remporté ce marché.

Mais ce catalogue n'a qu'une seule webcam en référence, qui :

  1. ne correspond pas du tout à nos besoins;
  2. est plus chère de 15% que le prix constaté dans le commerce.

Il nous faut donc trouver une solution. Nous décidons de négocier directement (comprendre, « par email et par fax ») avec l'entreprise ayant remporté le marché sur cette catégorie, afin qu'elle nous propose un produit, à un prix acceptable, qui corresponde à nos besoins. Je ne suis pas sûr que cette démarche soit conforme aux procédures, mais les autres alternatives ne sont pas envisageables :

  • lancer une procédure de demande d'achat hors-marché : c'est long, très long, car ça passe par différentes commissions pour être validé et n'a aucune garanti d'être accepté;
  • réaliser l'achat sur mon salaire, et faire une demande de remboursement : ce qui veut dire ne pas avoir de certitude sur le fait d'être remboursé (car la procédure n'a pas été suivie), et que de toute façon les délais seront astronomiques (environ 6 mois).

L'entreprise répond qu'elle va établir un devis pour nous le soumettre. Entre-temps, la secrétaire fait remonter à l'administration (laquelle ? Je ne sais pas) les prix anormalement élevés du marché (qui a choisi ce fournisseur ? je l'ignore).

Début mars 2009

Rien. Pas de nouvelles précises si ce n'est que « les démarches sont en cours ». Cela fait désormais un peu plus de trois mois que j'ai demandé une webcam à 39€ pour travailler, et je n'ai toujours rien.

Mi-mars 2009

La webcam est arrivée au secrétariat du laboratoire. Il aura en tout fallu 3 mois et demi, ainsi que de nombreux échanges par email, fax et téléphone pour obtenir une webcam grand public achetable partout en France et sur internet.

Conclusion ?

D'un point de vue très concret, une des améliorations simples envisageables pour faciliter la recherche en France serait de simplifier les procédures administratives. Le principe des marchés publics avait à l'origine comme but de favoriser la baisse des prix via des achats de masse, et d'éviter les abus de favoritisme. Mais de nos jours, ce mécanisme des marchés publics bride le travail au quotidien.

Ainsi, le nouveau système mis en place pour les missions impose de déclarer au minimum 7 jours à l'avance les achats de billets de train. Il devient alors très difficile (et long) de se faire rembourser des déplacements impromptus mais tout à fait légitimes.

Parmi toutes les réformes de la recherche publique, il ne faudrait pas oublier celle-ci : simplifier les achats de petits matériels.
 

jeudi 15 janvier 2009

Résoudre les problèmes de son sur Ubuntu, version Intrepid Ibex

Historiquement, la gestion du son avec GNU/linux a souvent été une bataille pour l'utilisateur. Même si Ubuntu prend soin d'éviter de retomber dans les guerres de tranchées historiques, il n'en reste pas moins que les problèmes continuent d'exister.

Ubuntu a fait le choix de s'appuyer sur PulseAudio pour présenter à l'utilisateur la gestion du son. Pour faire simple, même si PulseAudio peut travailler de façon autonome le plus souvent il se comporte comme une surcouche à ALSA et à OSS, avec quelques fonctionnalités spécifiques supplémentaires.

Pour l'utilisateur, la principale différence avec OSS et ALSA est l'intégration de PulseAudio dans l'environnement du bureau : applet de gestion, vuemètres des entrées-sorties, panneau de préférences accessibles, etc. Rien de bien indispensable, mais qui donne une vision simple et pratique du réglage et de l'utilisation du son sur l'ordinateur.

Mais le problème est que PulseAudio ne peut pas être utilisé directement par les logiciels audio, ils doivent être programmés en conséquence. Et c'est alors que se pose le problème du point de vue technique, car de nombreux outils et services, anciens et répandus, travaillent différemment sur les niveaux de la pile des services audio. Des passerelles existent pour faire cohabiter et communiquer les logiciels entre-eux, mais le résultat n'est pas satisfaisant pour l'utilisateur final qui doit jongler entre plusieurs technologies.

Quelles sont pour l'utilisateur grand public les conséquences de l'utilisation de PulseAudio ? Principalement, il n'est pas assuré de parvenir à faire fonctionner un logiciel. Ainsi, Skype est réputé pour ses problèmes d'utilisation dans Ubuntu à cause des mixeurs; FlashPlayer nécessite l'installation de bibliothèques particulières pour accéder à PulseAudio; et c'est sans parler des logiciels comme RecordMyDesktop qui réalisent des captures de session.

Une solution simple à ces problèmes est de supprimer PulseAudio du système, afin de basculer complètement sur ALSA. Cela implique de quitter les technologies préconisées par Ubuntu pour s'occuper nous-mêmes de la chaîne audio. Il s'agit naturellement d'une manipulation entièrement réversible.

La première étape consiste à supprimer les paquets de PulseAudio :

apt-get --purge remove pulseaudio* libpulse*

On constate que la dépendance sur le paquet ubuntu-desktop va intervenir et nous obliger à retirer ce paquet. Aucun souci ici, il suffira de le remettre en place avant la prochaine mise à jour du système vers Jaunty Jackalope. Ensuite, nous installons des outils pour gérer ALSA, qui vont nous amener également par le jeu des dépendances les bibliothèques nécessaires (qui sont normalement déjà présentes sur le système) :

apt-get install alsa-utils gstreamer0.10-alsa

Il ne reste qu'à redémarrer la machine pour nettoyer les services. Le résultat est que Skype, FlashPlayer et d'une façon générales toutes les applications utilisant l'audio fonctionnent correctement, sans réglage particulier. Mais on a perdu au passage les jolis vuemètres de PulseAudio.

On pourra affiner le réglage des entrées-sorties audio par les outils alsamixer et gnome-sound-properties.

page 2 de 2 -