septembre 2012 (3)

jeudi 27 septembre 2012

Compte-rendu de la Conférence OpenData

J'étais invité à participer à La conférence OpenData, organisée au Ministère de l’Économie et des Finances, Paris Bercy. L'objectif était de rassembler différentes acteurs qui pensent, conçoivent et réalisent les données ouvertes en France, en apportant l'éclairage de ce qui se fait ailleurs dans le monde.

Logo Conférence OpenData

L’Open Data : fer de lance de la réforme de l’État ?

Gilles Babinet

  • but de l’intervention : poser le cadre des données ouvertes dans l’état
  • toujours des réticents des administrations
  • administrations impuissantes face aux demandes des citoyennes et aux exigences complexes de la loi
  • besoin des données ouvertes pour informer les citoyens sur le statut des administrations (taille des listes d’attente, etc.)
  • des administrations bloquent l’ouverture des données pour des raisons inconnues, ou pour limiter leur charge de travail
    • la CNAM interdit la reprise des données depuis ameli.fr
    • Pole Emploi refuse d’ouvrir la base de ses CV
    • les écoles ne publient pas leurs évaluations
    • l’INPI vent la base de données de ses marques alors qu’ailleurs en Europe elles sont publiques
  • au final, très difficile d’avoir la transparence des administrations et des élus car il y a une absence d’informations publiées
  • il est critique de ne pas bloquer les initiatives citoyennes, même si elles ne plaisent pas aux administrations
  • la CNIL bloque les avancées par crainte de perte de contrôle de la vie privée. Il faut sortir de cette angoisse

L’Open Data offre des perspectives de co-création entre Gouvernements et Communautés

Jonathan Reichantal

  • but de l’intervention : retour d’expérience de la ville Palo Alto
  • quand les villes ouvrent leurs données, elles provoquent le changement dans le gouvernement national
  • la technologie de consommation de la donnée influe sur la façon de publier les données. À Palo Alto, 25% des connexions via des terminaux mobiles
  • importance des hackathons au niveau de la ville, avec présence et participation de venture capitalists pour créer des entreprises sur les projets intéressants
  • la ville montre aux citoyens comment elle travaille, et avec quelles données, pour susciter la participation et l’aide
  • fortes interactions entre la municipalité et l’université pour développer des outils qui répondent aux besoins de la ville (bugtracker citoyen, interfaces mobiles, etc)
  • approche start-up pour aller rapidement, essayer et améliorer : faire vite et pas cher dans une démarche émergente et pas monolithique
  • des citoyens mieux informés prennent de meilleures décisions
  • les entreprises se lancent dans l’exploitation des données avec un décalage sur leur publication; et uniquement si elles sont effectivement disponible de façon pérenne

La diplomatie digitale : les états au cœur de la révolution des données

Jeanne Holm, Jeff Kaplan

  • le but final de l’opendata n’est pas de publier des données mais de les exploiter. Il est critique pour les administrations de construire, stimuler et alimenter les communautés de réutilisateurs
  • aider l’ensemble des nations à se mettre aux données ouvertes via la réutilisation d’une plate-forme libre d’OpenGov.
  • forte différence culturelle entre les États-Unis d’Amérique et la France : la France voit en premier les risques, là où les USA voient en premier les opportunités d’innovations et de business
  • travailler pour inciter les citoyens à s’engager dans les projets de données ouvertes : animations sur les réseaux sociaux, organisation d’ateliers, présentation de démonstrateurs, etc. Montrer que l’administration est impliquée → évangélisme
  • éviter absolument de se positionner dans une approche de retour sur investissement pour les données publiques
  • privilégier une fédération organisée de plate-formes de publication de données plutôt qu’un gros portail unique. Mais à moduler selon la situation des pays
Example de bugtracker citoyen : la ville de Chicago

Open Data 2.0 : la valorisation des données avant tout

Philippe Reynaud

  • difficulté aujourd’hui de libérer la valeur des données ouvertes pour la création de richesse et de citoyenneté → fossé entre les attentes et la réalité
  • enjeu fort de la pertinence et de la qualité des données pour réaliser la création de richesse.
  • la démarche de l’offre est insuffisante, il y a une nécessité d’amorcer le marché des entreprise
  • aller vers la publication des données plus riches et complexes : données dynamiques, temps réel, non-structurées, préalablement traitées, etc (par exemple : les capteurs publics)
  • ne pas juste proposer des données mais aussi proposer des services
  • privilégier la publication des données ouvertes centrées sur la réutilisation à forte valeur ajoutée

Open Data : enjeux et perspectives des nouvelles diplomaties digitales

Joa Holanda, Amparo Ballivian

  • à l’étranger, on se demande pourquoi la RATP refuse de publier ouvertement les horaires de ses transports
  • retour d’expérience sur l’ouverture des données publiques au Brésil :
    • problème au niveau local car les données exposent la corruption : danger pour les personnes
    • publication des salaires de tous les fonctionnaires
    • l’opendata n’est pas une solution aux problèmes mais une des approches de résolution
  • les citoyens sont très peu concernés directement par les données publiques, mais bénéficient grandement des réutilisations qui en sont faites
  • dans les pays en voie de développement, il faut s’appuyer davantage sur le téléphone mobile que sur internet : très forte couverture télécom, mais internet est lent et éradique. Ça change la réalisation de l’ouverture des données

How it all began and where it is going…

Nigel Shadbolt

  • au début, publication scientifique d’un journal contenant toutes les données liées à un code postal. C’était une démarche illégale en UK en 2009
  • les données ouvertes sont comme le web : pour tout le monde
  • Open : licences, standards, data, participation, source. Tout doit être ouvert
  • la publication des données publiques met une pression sociale sur les administrations les moins efficaces
  • présentation de quelques publications de données publiques anglaises, et pourquoi elles sont importantes : obésité, météo, criminalité, budgets…
  • un des enjeux est la capacité à lier les différents jeux de données (ce que la CNIL en France redoute par dessus tout)

Comment l’Open Data responsabilise-t-elle l’administration face aux citoyens ?

Agnès Verdier-Molinie, Kevin Hauswirth, George-Étienne Faure

  • la ville de Chicago fait énormément d’efforts pour impliquer et stimuler les communautés locales afin de susciter la réutilisation des données publiques
  • les citoyens ne peuvent pas faire seuls le travail d’épluchage des données : il faut le soutien des administrations, de la presse, etc.
  • grâce aux données ouvertes, l’iFRAP a mis en évidence en Île de France des associations qui recevaient des subventions publiques sans publier au Journal Officiel leurs comptes, conformément à la loi
  • en France, il faut réaliser des investissements pour le développement des écosystèmes sur les données ouvertes. Et ça ne doit pas être que le rôle du gouvernement
  • en France, le cas de la CNAM qui s’oppose à la réutilisation des données publiées sur Ameli. un des exemples où une administration torpille une start-up qui réalise un usage innovant des données publiques
  • en France, toutes les institutions ne sont pas obligées de publier leurs informations. Il faut songer à étendre la loi de 1978 ?
  • Chicago : deux millions de connexions par an sur le bugtracker citoyen pour s’informer de suivre la résolution des problèmes

L’Europe en avant-garde du mouvement

Thibaut Kleiner

  • l’Europe a un rôle d’aiguillon pour inciter les états à aller plus loin dans l’opendata
  • il y a des projets au niveau du parlement européen et de la commission européenne
  • le problème et l’enjeu : comment transformer les données en une croissance économique

Technologie et tendances provenant de la Silicon Valley

Georges Nahon

  • des outils de traitement automatique de données de plus en plus performants (suggestions Amazon, etc.)
  • accélération du changement engendré par l’évolution des outils
  • le coût de création d’une start-up a énormément baissé en dix ans: aujourd’hui ça ne coûte plus grand chopes de lancer une entreprise innovante sur l’informatique
  • les réseaux sociaux ont créé des sortes de webs parallèles avec leurs propres écosystèmes économiques (applications internes sur API, etc.)
Participants à La Conférence OpenData

SNCF OpenData : Ouvrons la voie à des services innovants

Patrick Ropert

  • la SNCF est plus intéressée par les questions de mobilités que par les données
  • l’opendata est une nouvelle culture de la donnée
  • example de réutilisation : Home’n’go pour trouver un logement en fonction de critères comme le loyer et le temps de trajet maison ↔ entreprise
  • c’est le tir au pigeon sur le représentant de la SNCF : les participants à la conférence font remonter tout un tas de différents problèmes rencontrés par les gens pour accéder aux données sur les trajets de la SNCF : lignes, horaires, disponibilité, etc.

Open knowledge : Open conversations

Peter Murray-Rust, Primavera de Filippi

  • en science, privilégier les données en licence CC-0 et les textes en CC-by
  • content mining for data is a right : le droit de lire est le droit de fouiller
  • guerre ouverte entre les chercheurs et les éditeurs de publications, afin de garantir la liberté des publications scientifiques

Les applications d’après-demain

Bernard Benhamou, Daniel Dardailler, Jean-Marc Lazard

  • 65% des métiers qu’exerceront les jeunes actuels n’existent pas encore aujourd’hui
  • depuis cinq ans, montée en puissance des terminaux mobiles. mais ils ne sont pas la fin : les objets connectés sont dans le viseur
  • l’information issue des capteurs va dépasser de très loin les informations crées par les humains
  • inflexion de la donnée générique vers la donnée personnelle
  • les premières demandes des citoyens concernent des données géolocalisées
  • allers vers plus de rigueur dans la manipulation des données : validation, certification d’authenticité (signature cryptographique), métadonnées, qualité de mise à disposition, etc.
  • importance de plus en plus grande de l’aspect temporel des données : évolution dans le temps des jeux de données
  • un enjeu critique est la capacité à évaluer la véracité des données

Résultat de l’enquête GFII-Serdalab sur les données publiques réutilisables

Marc Ribes, Louise Guerre

  • Intervention sans aucun intérêt. Pas d’information sur les personnes interrogées, la méthodologie employée, et la portée de l’étude : impossible de se faire une opinion sur l’interprétation des résultats présentés. Il n’est pas prévu de publier les données brutes de l’étude. Des chercheurs et collectifs citoyens interviennent pour critiquer ces manques, la représentante de GFII-Serdalab botte en touche. Fail.

Et si l’Open Data faisait rêver ?

Hervé Derycker

  • synthèse large et blabla sans lien avec l’opendata

Notes sur la Conférence OpenData

  • Tiens, on croise aussi des gens d’OVEI2 à la Conférence OpenData :)
  • Douze appareils bluetooth sont visibles depuis ma place, aucun avec un partage public de documents mais le tethering internet est ouvert et les appareils publient sauvagement des informations nominatives innocentes. Mais que font la CNIL et la HADOPI ? Ah oui, c’est vrai : elles s’acharnent à vouloir imposer des législations obsolètes :)
  • Yeah ! On m’a félicité pour mon « super t-shirt de geek » \o/ Il s’agit de celui d’XKCD : « Science : it works, bitches »
  • On mange bien au Ministère de l’Économie et des Finances, et les portions sont généreuses (trois merguez et une tranche de bacon, ¼ de camembert, etc.) au point que je n’ai pas réussi à finir mon plateau-repas.
  • Le Ministère est vaste, avec de grands espaces dégagés et nets. On a une impression d’ordre et de recherche de fonctionnalités. Bonus : dans les bureaux on peut apercevoir des calendriers avec des chats : ça doit être un endroit agréable pour y travailler
  • Dans la salle de conférence la 3G ne passe presque pas, le wifi est bridé sur des ports, et pas d’IPv6
  • La sécurité des lieux est assurée par les douanes qui passent tous les piétons aux détecteurs de métaux. Problème : les gens entrant en voiture ne sont pas fouillés (pas même le coffre), et il est possible de faire passer n’importe quoi au travers des grilles de l’enceinte qui entourent le Ministère. Quand j’ai fait remarquer cela aux douaniers, ils ont très mal reçus mes remarques sur la protection effectives des lieux. Le théâtre de la sécurité a encore de beaux jours devant lui.
  • la tendance du moment pour les SVP : ne plus mettre son email mais son compte Twitter
  • présence de Regard Citoyen et OpenData71
  • participants fortement internationaux, âgés principalement entre 35 et 40 ans. Bonne présence des femmes. C’est appréciable
  • présence de quelques geeks : je suis le seul en tenue classique t-shirt+barbe+cheveux longs, mais un autre est habillé en orange flou avec une casquette. WTF ?
  • les français qui insistent pour s’exprimer en en anglais sans maîtriser correctement la langue, ça gonfle tout le monde.
  • info amusante : juste à côté du Ministère de l’Économie et des Finances se trouve une agence du Pôle Emploi :)
  • des photos de la Conférence OpenData

mercredi 26 septembre 2012

Compte-rendu de la seconde édition d’OVEI

OVEI, seconde édition

Dans la suite de la première édition, j’ai été invité à participer à OVEI2. Rappel : l’objectif d’OVEI est de permettre la rencontre informelle entre des élus, hauts responsables d’administrations, et experts techniques de la vie civile.

Arrivée des participants

Cette seconde édition d’OVEI avait lieu au Palais d’Iéna qui accueille le Conseil économique, social et environnemental, un soir en semaine, avec un format plus cadré que la fois précédente puisque trois ateliers étaient proposés après une session plénière. J'ai participé au premier qui traitait des questions de souveraineté et de gouvernance sur internet.

Il y avait environ une centaine de participants, avec des proportions égales de geeks et de politiques. La presse spécialisée était également cette fois plus présente, la presse généraliste représentée indirectement.

Discours d'ouverture

Jean-Paul Develoye, président du CESE :

  • c'est la crise. Saura-t'on faire évoluer les structures — et surtout les gens — pour s'adapter ?
  • difficulté au changement : problème culturel français
  • jusqu'où aller dans l'ouverture et la transparence ?
  • internet est encore décrit comme « l'aventure »
  • retour sur l'expérience d'évolution du CESE : email remplace papier, livetweet des séances, streaming vidéo. Fait peur au début, mais une fois apprivoisé est très stimulant
  • la France est un pays qui — curieusement — a peur de l'innovation
  • nécessité de la prise de contrôle par les citoyens de l'espace politique pour construire les projets de société
  • les élus et les institutions sont les responsables du status quo politique en France/ Besoin de rouvrir les camps pour les faire bouger
  • les gens sont connectés (à internet) mais déconnectés (de la politique) : ça parle mais ça ne s'implique pas

Laure de La Raudière, députée :

  • but d'OVEI : assurer un dialogue entre les geeks (qui connaissent et font internet) et les politiques (qui représentent les citoyens et leurs intérêts) sans lobbies
  • il n'y a pas de questions naïves
  • il faut comprendre le fonctionnement d'internet pour pouvoir légiférer correctement à son sujet

Benjamin Bayart, président de FDN :

  • il y a toujours un intérêt à mieux se connaître et à mieux se comprendre. Qui ça concerne ? Le monde d'internet et le monde politique
  • difficulté d'expliquer l'importance du net aux personnes qui ne le comprennent pas
  • importance de dénoncer les absurdité de la législation faite par des gens ne comprenant pas internet : droit à l'oubli, filtrage de contenus, zone de non-droit, etc.
  • la notion clé est la peur : c'est sur internet donc c'est grave/dangereux car incontrôlable
  • c'est la société qui a choisi d'utiliser internet pour réaliser son changement (technologie adaptée au bon moment), ce n'est pas internet qui change la société
  • aberration du droit à l'oubli : une fois que c'est publié sur internet, on ne peut pas forcer les gens à oublier ou à ne pas lire. Les archives sont la mémoire : on ne doit pas imposer des lobotomies; ouverture sur des dérives ultérieures de réécriture du passé

Atelier 1 : Gouvernance d'internet et souveraineté

Quinze personnes, dont six filles et zéro chat

Participants à l'atelier Souveraineté nationale et trans-frontalité d’internet d'OVEI2
  • Tour de table : chercheurs, entrepreneurs, institutionnels, direction ICANN, bidouilleurs de l'hébergement, journaliste, attachés parlementaires, hacktivistes du net
  • Problématique de la gouvernance d'internet en France : pas de responsable clairement désigné pour coordonner. Cas d'ACTA : pas de ministère initialement en charge (culture, extérieur, industrie, etc, qui bottent en touche). Réaction des citoyens qui ont pointé du doigt les délégués français, et qui leur ont demandé de rendre des comptes
  • Difficulté : pas de représentant des internautes en France, comme Chirac était le représentant des agriculteurs. Pas d'incarnation du net.
  • La culture diplomatique française est de signer des accords puis de négocier des exceptions. Problème : pas réaliste dans le cadre d'internet
  • Le politique n'a rien à gagner dans le net, donc ne s'investit pas → donc les lobbies industriels prennent le contrôle
  • Des politiques ont le réflexe d'un (supposé) pilotage du net par poussage de boutons : couper les DNS, filtrer les paquets, etc
  • Les plate-formes deviennent des territoires : dans Facebook on respecte la loi de Facebook, sur les services et serveurs Google on respecte la loi de Google. Glissement de la notion de souveraineté vers des espaces dirigés par le privé et non plus par les états.
  • Exposition des problèmes sur la souveraineté des nations sur le net
  • Pour l'ICANN : le problème n'est pas tant le poids du gouvernement US que celui du droit californien
  • La gouvernance sur internet est moins un problème de droit qu'un problème d'influence : comment obliger les autres à respecter notre volonté ?
  • Au final, on a le contrôle uniquement sur ses équipements physiques nationaux

Notes sur l’atelier « Atelier gouvernance et souveraineté »

  • très fortes discussions sur l'ICANN, son rôle (et sa supposée justification), et les acteurs qui l'influencent
  • les représentants de l'ICANN défendent farouchement leur bifteck… et son existence
  • discussion uniquement techniques entre geeks, les politiques restent en retrait. Pas sûr qu'ils aient retenu (compris ?) ce qui a été dit dans les discussions
  • durée trop courte de l'atelier
  • l'atelier aurait du être nommé « l'ICANN », ou mieux « Pour Nicolas Arpagian l'ICANN est un organisme de centralisation du net sous la trop grande influence des USA ». Là au moins on aurait compris ce qui allait être rabâché durant une heure…
  • les tentatives d'aborder un autre angle des problématiques ont toutes été torpillées pour revenir de force sur la question de l'ICANN : systèmes anationaux ou transnationaux (Freenet, TOR…), racines alternatives du DNS, systèmes parallèles et réorganisations, etc. Rien à faire : il fallait absolument parler de l'ICANN et du gouvernement américain ; très gênant car la thématique de l'atelier n'a été abordée qu'avec un angle unique, celui des institutionnels qui veulent une gouvernance forte et centralisée permettant — hypothétiquement — d'appliquer une contrôle strict sur internet. Cette centralisation étant alors contraire aux fondements technologiques d'internet, cela pose problème.

Notes sur OVEI2

Le palais d’Iéna est un bâtiment un peu étrange, avec des allures d’ancien habillé d’une décoration contemporaine. L’impression qui s’en dégage est celle des hôtels internationaux : consensuel, neutre et immémoriale. On ne retient pas son existence. Peut-être est-ce voulu pour encourager l’attention à se porter sur le travail ? Mais ça laisse un goût de fade en bouche

Cette seconde édition d’OVEI est une demi-réussite. Les geeks ont bien sûr répondu présents sans hésiter, mais si la participation des élus était légèrement en hausse elle était bien en deçà de ce que l’on pouvait espérer. Même avec une organisation en semaine en plein Paris — contrairement à l’hippodrome de Rambouillet un dimanche — les politiques ont été peu nombreux à faire le déplacement. Il y en avait des déjà sensibles aux questions du numériques — directement présents ou via leur assistant — mais les principales personnes qui auraient gagné à s'intéresser à internet n'ont pas fait l'effort du déplacement malgré tout le poids institutionnel donné à l'événement.

Les ateliers apportent un gros plus pour la stimulation des discussions, mais peuvent encore être améliorés : ils étaient trop courts, pas assez cadrés thématiquement, et avec une faible préparation des participants. Un de leurs inconvénients est de fortement segmenter les discussions ; on perd la sérendipité du rassemblement de personnes aux profiles très variés, qui discutent spontanément sur des sujets libres. Le buffet final permet de rattraper cela, mais gagnerait à être introduit par une courte synthèse des ateliers afin de favoriser le brassage pour que les groupes se mélangent au lieu de poursuivre des discussions précédentes.

La prochaine étape ? L'organisation d'un « OVEI à Lyon » !

Ressources

mardi 11 septembre 2012

La rédaction moderne : utiliser XeLaTeX et biblatex ensemble

Le problème

LaTeX a pu évoluer pour supporter des fonctionnalités « modernes » comme UTF-8, les polices TrueType, etc., mais a désormais atteint ses limites. Pour bénéficier des nouvelles technologies de la composition informatique, il faut passer à un autre système, comme XeLaTeX.

Pour la bibliographie, on se tourne vers biblatex qui prend la suite de bibtex ; avec là encore un support de l'UTF-8, des nouveaux attributs, etc.

Biblatex: Bibliographies in LaTeX using BibTeX for sorting only. Biblatex is a complete reimplementation of the bibliographic facilities provided by LaTeX in conjunction with BibTeX. It redesigns the way in which LaTeX interacts with BibTeX at a fairly fundamental level.

With biblatex, BibTeX is only used (if it is used at all) to sort the bibliography and to generate labels. Formatting of the bibliography is entirely controlled by TeX macros (the BibTeX-based mechanism embeds some parts of formatting in the BibTeX style file. Good working knowledge in LaTeX should be sufficient to design new bibliography and citation styles; nothing related to BibTeX's language is needed. In fact, users need not remain bound to BibTeX for use with biblatex: an alternative bibliography processor biblatex- biber is available.

Development of biblatex and biblatex-biber is closely coupled; the present release of biblatex is designed to work with biblatex-biber version 0.9.6. The package needs e-TeX, and uses the author's etoolbox and logreq packages. For users of biblatex-biber, version 0.9 is required (at least; refer to the notes for the version of biblatex-biber that you are using). Apart from the features unique to biblatex, the package also incorporates core features of the following packages: babelbib, bibtopic, bibunits, chapterbib, cite, inlinebib, mcite and mciteplus, mlbib, multibib, splitbib. Biblatex supports split bibliographies and multiple bibliographies within one document, and separate lists of bibliographic shorthands. Bibliographies may be subdivided into parts (by chapter, by section, etc.) and/or segmented by topics (by type, by keyword, etc.). Biblatex is fully localized and can interface with the babel.

Biber: A BibTeX replacement for users of biblatex. Biber is a BibTeX replacement for users of biblatex. Biber supports full UTF-8, can (re)-encode input and output, supports highly configurable sorting, dynamic bibliography sets and many other features.

The CTAN distribution offers a compressed tar archive of the sources, etc., together with "binary" distributions for a variety of platforms. Note: on SourceForge biber is formally named "biblatex-biber", to distinguish it from an earlier (now apparently moribund) project called "biber".

L'objectif n'est pas ici de faire une présentation de ces différents outils ni de comment les utiliser, mais de montrer comment faire travailler ensemble ces deux éléments. Pour ce faire, nous allons considérer 3 ECM.

Utiliser XeLaTeX et biblatex ensemble

Prérequis :

  1. avoir installé — et testé — une distribution de XeLaTeX[1]
  2. avoir installé le paquet biblatex et ses suppléments de styles
  3. avoir installé le paquet biber

Les documentations se trouvent dans l'arborescence de Tex Live :

  • biblatex : $TEXLIVE/2012/texmf-dist/doc/latex/biblatex/
  • biber : $TEXLIVE/2012/texmf-dist/doc/bibtex/biber

En pratique on n'aura besoin que de celle de biblatex afin d'ajuster le style de rendu des citations.

Nos exemples :

  • ecm.tex : notre exemple complet minimal, qui sera développé. Il permet de s'assurer que XeLaTeX fonctionne correctement pour nos besoins
  • ecm_biblatex.tex : notre exemple complet minimal pour biblatex, qui sera développé. Il permet de s'assurer que biblatex fonctionne correctement pour nos besoins
  • ecm_biblatex_mieux.tex : notre exemple riche d'utilisation de biblatex avec XeLaTeX, avec une personnalisation du rendu
  • MaBiblioPerso.bib : bibliographie pour la démonstration

La partie qui nous intéresse principalement est dans le préambule du document :

\usepackage[
  backend=biber,         % choix de l'outil de traitement
  babel=hyphen,          % environnement linguistique dédié aux entrées en langues alternatives (utilise l'attribut « hyphenation »)
  backref=true,          % liens dans la bibliographie pour remonter dans le texte
  backrefstyle=none,     % afficher toutes les utilisations de la référence
  bibstyle=alphabetic,   % style pour les clés des références dans la bibliographie : [initialesAnnée]
  citestyle=alphabetic,  % style pour les clés des références dans le texte : [initialesAnnée]
  sorting=none,          % bibliographie triée par ordre d'utilisation des références
]{biblatex}                  % support des bibliographies
\bibliography{MaBiblioPerso} % appel à la bibliographie externe

Pour compiler les exemples, on utilise la séquence suivante :

  1. xelatex ecm+biblatex+mieux # calcule le rendu partiel du document
  2. biber ecm+biblatex+mieux # prépare la bibliographie
  3. xelatex ecm+biblatex+mieux # fini le rendu du document, avec bibliographie, hyperliens, numéros de pages, etc.

XeLaTeX utilise la classe biblatex, appelée dans les sources du document. Dans une approche similaire Biber est utilisé en place de bibtex sans options particulières.

Aller plus loin, avec des exemples d'utilisations de styles personnalisés :

Note

[1] TeX Live est actuellement ce qui se fait de mieux ; nous nous appuierons dessus pour les exemples