Un livre n’a pas d’adresse, l’après-Web non plus

Olivier Ertzscheid attire notre attention vers la fin programmée des liens hypertextes au profit les statuts sociaux, de Google et de tous les opérateurs centralisés, les silos du Net. Un signe : la prochaine version de Chrome risque de ne plus avoir de barre d’adresses. On ne fera plus que du search (ce que font déjà la plupart des utilisateurs).

J’évoque cette transition depuis 2007, parce que j’en ai été la victime, quand Google s’est attaqué à tous les annuaires de liens et quand, dès cette époque, les liens entre nos sites ont commencé à perdre du poids dans les algorithmes de référencement, et ont même commencé à nous pénaliser, d’où la disparition de la liste des sites amis sur nos blogs (nous étions en train de concurrencer Google qui décida de punir cette pratique).

Dès lors, il était évident que Google n’avait plus intérêt à ce que nous nous liions les uns aux autres, lui seul devait pointer vers nous. Nous arrivons à la fin de ce processus. Quelques acteurs du Web en sont devenus les arroseurs privilégiés selon une logique broadcast. Les autres leur sont subordonnés. Ce retour de la centralisation est politiquement et économiquement une régression, mais la disparition des adresses est-elle catastrophique ?

L’adressage par URL est une des grandes innovations du Web. Une des clés de sa décentralisation. Pas besoin d’enregistrer l’URL dans une base de données. Il suffit de créer la page et c’est tout. De pointer vers elle.

La disparition des barres d’adresses dans les navigateurs implique en première analyse une perte de liberté pour les utilisateurs et aussi pour les créateurs de sites. Pour envoyer vers un contenu ami, je risque bientôt de devoir saisir une requête vers l’API Google qui automatiquement me retournera le contenu demandé (avec le risque de l’altérer ou d’effectuer une substitution malencontreuse).

Ce serait terrible, si nous en restions à une version du Web passéiste. Si on y regarde de plus près, les liens hypertextes ne nécessitent aucune base de données centrale, mais ils impliquent une localisation quasi immuable des informations. Et c’est une grande faiblesse, mise à profit par les silos pour leur seul bénéfice.

Pensez au livre. Il n’a jamais eu d’adresse physique, mais plutôt une carte d’identité : un titre, un auteur, un éditeur, un ISBN… Un livre est une sorte d’individu libre de se déplacer. Par ailleurs, il a le pouvoir d’être à plusieurs endroits en même temps. Une fois un livre lâché dans la nature, personne ne peut le rattraper. C’est un média bien plus subversif qu’un site Web.

Nous devons donc inventer un après-Web composé d’objets autonomes, sans adresse, présents simultanément en un grand nombre de points de l’espace informationnel, repérables par leur identité. Ces contenus seront des espèces de virus, capables de se dupliquer, de s’archiver, de se mouvoir, de se mettre à jour, aussi de se cacher si nécessaire pour échapper aux robots qui auraient pour mission de les éradiquer.

Les ebooks, sortent des sites flottants, préfigurent ces objets du futur. Il leur manque aujourd’hui la possibilité de se lier à d’autres et de se mettre à jour à distance, mais ils ont déjà certaines des propriétés indispensables à leur survie.

Quand ils seront devenus abondants, nous pointerons vers des patterns, des traces, des codes, des tags… Il n’existera plus un adressage, mais une multitude de dimensions susceptibles de véhiculer les liens.

Reste à savoir comment les entités autonomes communiqueront les unes avec les autres. Elles contiendront des informations et du code. Elles devront être vivantes, actives. Chacune de ces bêtes devra émettre sa localisation, envoyer des signaux, en recevoir, en stocker. Il faut dépasser la métaphore de la page pour entrer dans celle de l’organisme, avec une capacité d’évolution.

Alors une espèce de champs énergétique balayera l’espace numérique. Un flux permanent. Peut-être à l’aide de protocoles de type multicast. Cette vision nous éloigne du Web, mais le Web est condamné, maintenant qu’il est redevenu un territoire monopolistique.

La fin des liens nous pousse à réinventer le Web. À tout remettre à zéro. Nous devons disposer d’une méthode pour trouver n’importe quelle information sans passer par un silo, cela implique que les informations soient autonomes et se parlent, indépendamment des machines où elles installeront leur code.

Si je suis capable de rêver de cette évolution, c’est qu’elle est déjà en germe quelque part. Sa nécessité est désormais trop grande pour qu’elle n’advienne pas très vite, d’autant que les silos tentent de découper le Web originel en mondes hétérogènes. Nous devons les subvertir par des entités transversales. Des anguilles virtuelles qui n’ont besoin que d’un peu de mémoire et de puissance de calcul.

Nous n’avons en priorité ni besoin d’open data ni de big data, mais de living data.

PS : En 2009, quand j’ai écrit Vers un web sans site web, je n’avais pas encore une vision claire de comment nous aboutirions à ce résultat.

Tim Berners-Lee on the Next Web (TED, 2009)... qui n'est à ce stade que l'ancien Web.

Tim Berners-Lee on the Next Web (TED, 2009)… qui n’est à ce stade que l’ancien Web.

15

15 comments

  1. ecirb1733 says:

    Sans vous lire, en constatant le nombre d’informations noyées dans la masse (sans toutefois avoir conscience de la disparition progressive des liens) j’en étais aussi venu à la même conclusion.
    Personnellement cette prise de conscience m’est venue depuis que le champs de vision de Facebook s’est rétréci (après son arrivée en bourse).
    Pour moi impossible qu’elle n’advienne pas un jour. Même à moyen terme il ne serait pas trop tard, la technique offrant toujours plus de nomadisme aux dispositifs via la miniaturisation (smartphones, systèmes embarqués), toujours plus de puissance et toujours plus de connectivité , même dans un système fermé logiciellement on peut arriver a ce “living data”

  2. zourg says:

    et pourquoi pas tout simplement faire tomber la part de marché de Chrome ?

  3. ecirb1733 says:

    Parce qu’à terme ce n’est pas un processus qui concerne uniquement chrome mais une convergence de tous les acteurs (microsoft peut faire la même chose avec IE et son moteur Bing).
    C’est un intérêt qu’ils ont en commun. S’il y a un intérêt à rendre dépendant un utilisateur et à “enfermer” l’utilisateur dans un système alors il y aura convergence des évolutions dans ce sens.

  4. @ecirb1733 Merci pour la réponse… on nous a volé le web… faut le réinventer ailleurs.

  5. Merci pour cette réponse… on nous a volé le Web, faut le réinventer ailleurs.

  6. Julien Boyer says:

    Tant qu’on aura Mozilla, peu de chance que ça arrive.

    Mais la vision d’un web distribué autoservi est brillante. Merci.

  7. Ce qu’il faut bien comprendre c’est que Google a le pouvoir de tuer définitivement les liens en les pénalisant davantage dans son algo. Après Mozilla fera comme les autres…

    Mais le problème est pas là, l’adressage est en fait le point faible du Web, le feraire disparaître peut devenir une porte de salue.

  8. Brian Jacob says:

    J’ai pas tout compris, je maitrise pas assez, pas très clair dans mon esprit, tout cela me parait bien abstrait, mais bon, faute avouée à moitié pardonnée, je suis un béotien en informatique, raison pour laquelle j’utilise des produits apple, je n’y connais rien. Cela dit, j’y avais déjà réfléchi, et même si la neutralité du net en prend un coup, pourquoi ne pas créer des internets ? On va me répondre que ça tombe sous le coup d’un incompréhension de ma part, que Internet est le réseau des réseaux, qu’il ne peut pas y avoir plusieurs internets, mais pourquoi pas ? Je sais pas pour quoi, mais c’est une intuition que j’ai depuis plusieurs années, je suis convaincu qu’au siècle prochain il y aura plein d’internets, plein de réseaux diversiés. On est pas obligés de adhérer, et je suis prêt à croire celui qui m’expliquera que c’est une mauvaise idée, mais je sais pas, ça me parait limpide l’idée qu’Internet n’existera plus, que plusieurs interfaces cohabiteront, certaines en secret, d’autres aux yeux de tous.

  9. Le problème n’est pas tant internet (comme tu le dis un ensemble de réseaux) que le Web, une simple possibilités d’internet comme jadis les newsgroups.

  10. Pierre Béhel says:

    Une adresse reste indispensable pour retrouver un élément. Pour retrouver un livre, vous avez ainsi un annuaire des livres, le FEL (Fichier Exhaustif des Livres). Le problème n’est pas l’adresse mais qui maîtrise ce que l’on peut retrouver, autrement dit qui possède le système d’adressage, qui le contrôle. Déjà le système DNS (sous contrôle américain) est un problème de cette nature, bien avant Google ou Facebook.
    Je vous suggère de vous pencher sur Emenu, un concept d’univers virtuel P2P décentralisé où les registres d’adressage sont également décentralisés http://www.pierrebehel.fr/emenu/

  11. Une carte d’identité et un système de balise type Argos peut aussi bien convenir. Pas besoin de registre. Pour créer l’ID, il suffit de la regénérer jusqu’à ce qu’on ne la trouve pas déjà sur le réseau.

  12. mmai says:

    Une pratique intéressante inspirée du mode de partage décentralisé du code des logiciels libres se développe chez certains blogueurs, il s’agit de placer chaque article sous gestionnaire de version, l’article est alors associé à un identifiant unique (le numéro de commit) et peut être partagé et hébergé n’importe où.

    Ainsi l’auteur du blog http://substack.net/ indique le numéro de commit en en-tête de chaque billet, il propose également de cloner la totalité du blog chez soi et de suivre ses mises à jour avec une commande du type “git clone http://substack.net/blog.git“.

    On retrouve beaucoup de ces blogs sur la plate-forme d’hébergement de code github, par exemple les articles de http://esquisses.clochix.net/ sont également disponibles ici : https://github.com/clochix/esquisses/tree/gh-pages/_posts

    Les connaissances techniques nécessaire à la mise en place de cette architecture la réserve pour le moment à un public restreint, mais je la trouve élégante et prometteuse.

  13. çava dans le bon sens, mais github reste une plateforme, et ça ne règle pas beaucoup de problème. C’est des plateformes qu’il faut se défaire, donc créer une nouvelle architecture pour remplacer le Web.

Comments are closed.