Le grand pare-feu d'Australie, déjà mort-né, vient de succomber une deuxième fois après la publication des mécanismes de filtrages mis en œuvre. Le contenu ciblé est sans surprise la pornographie, mais également des ressources politiques, médicales ou culturelles.

Beaucoup de personnes et d'organisations font l'analyse politique et technique d'un tel dispositif, je relèverais juste ici quelques détails qui m'ont amusé.

Par exemple, au moment de sa publication la liste contenait des références déjà obsolètes : noms de domaines inutilisés, adresses IP changées, etc. Pour être efficace, une filtrage doit être réactif. Dans l'approche du chat et de la souris retenue (les autorités australiennes identifient une nouvel élément, puis l'ajoutent à la liste noire), l'avantage est à l'« attaquant » (personne publiant des informations) car ce dernier dispose de l'initiative en choisissant où, quand et comment publier; le « défenseur » (le gouvernement australien) ne pouvant que répondre à l'attaque en bloquant. Le délais entre l'attaque et la défense devant être le plus court possible, cela impose au défenseur un effort important qui fini par le faire renoncer.

Également, du point de vue technologique les approches retenues sont bien trop naïves, avec des identifications partielles. Les URI sont incomplètes : la liste noire comporte ainsi www.water-melon.jp/shop/img/1008_1.jpg sans préciser le protocole utilisé pour accéder à la ressource. Est-ce http, https, ftp, gopher, wais, bittorrent, GNUtella, autre chose ? Sans identification complète de la ressource, la liste noire désigne paradoxalement à la fois trop largement des éléments, ce qui bloque des publications légales, et ne parvient pas à cibler précisément le contenu à censurer.

Mais aussi, bien sur, un filtrage simple sur un nom de domaine est inefficace car il suffit d'en créer un nouveau; les moteurs de recherche et le bouche à oreille suffisant pour maintenir le référencement auprès des utilisateurs.

Il faut aussi mentionner le chiffrement des connexions rendant inapplicable ce genre de filtrage, ainsi que les effets de différents aspects du routage (NAT, proxies, réécriture d'adresse, cache, etc) qui rendent compliqué ou impossible l'identification de la source et de la destination d'une transaction informatique.

Ce qu'il faut juste retenir est que le filtrage d'internet est actuellement impossible, du point de vue technique. Qu'on se félicite ou non d'un tel état n'a guère d'importance, ce qui compte est de l'accepter afin de pouvoir avancer. Si on part du principe qu'on ne résout pas un problème humain avec un outil technique, il faut alors mettre l'effort ailleurs si « on » souhaite « protéger » les citoyens d'une exposition à des publications estimées dangereuses. Par exemple, en investissant dans l'enseignement et l'éducation au lieu de faire des dépenses dans la répression. Mais au final, il s'agit bel et bien d'un choix de société qui doit impliquer la concertation entre le législateur et le peuple, pour aboutir sur un consensus explicite.

Au final, quelque soit la solution retenue, le résultat sera toujours le même : les utilisateurs faisant un effort minimal pour se protéger ne seront pas affecté par le filtrage, et la très grosse majorité des personnes inquiétées juridiquement ne seront pas représentatives de la cible originale du dispositif de filtrage. Tiens, curieusement cela me rappelle l'histoire des DRM. Ces mesures techniques de protection auront vécu deux années en France pour ensuite disparaître; et si on gagnait du temps en renonçant dès à présent chez-nous à un filtrage similaire ?

Références