Tous les blogueurs et tous les éditeurs n’ont que ça à la bouche : « Surtout je ne veux pas que mes textes soient reproduits, Google me pénaliserait. » Je suis sensible à ce cette crainte parce qu’avec coZop nous dupliquons justement des contenus.

Mais cette crainte est-elle légitime ? Est-ce qu’en dupliquant sur des centaines de sites la Déclaration des droits l’homme nous diminuons sa valeur ? Est-ce que Google doit la pénaliser ? Est-ce qu’on doit la trouver moins facilement ?

Est-ce qu’un jour un écrivain s’est plaint de voir ses livres édités en poche, en paper back, dans les clubs, en tirage de tête ? Au contraire, il est plutôt heureux. Ce qu’il n’apprécie pas c’est les éditions pirates mais où est le problème si la duplication est accepté par lui. Plus son livre est dupliqué, plus c’est le signe que son livre a de l’importance. Google devrait au contraire favoriser les contenus dupliqués pour témoigner qu’ils génèrent de l’intérêt.

Si un de mes billets se retrouvait repris par des centaines de blogueurs, j’en serais heureux. J’aurais la preuve que j’ai écrit quelque chose qui intéresse et je ne vois pas pourquoi Google me pénaliserait.

Mais à quoi joue Google ?

J’avoue que je n’en sais rien. J’ai remarqué que depuis la fin novembre son algorithme a été modifié et que coZop reçoit moins de visites. J’ai noté la même baisse sur mon blog, presque soudaine, donc technique. Je sais que d’autres sites ont vu la même chose se produire (qu’ils dupliquent ou non). Où part le trafic qui ne vient plus chez nous ? Chez TF1 ? Ce serait bien que nous le sachions pour savoir à quoi Google joue exactement avec internet mais nous ne le savons pas (je n’ai jamais vu de baisse trafic en décembre, c’est tout le contraire qui se produit traditionnellement).

La phobie du duplicate content est-elle légitime ou non ? J’ai montré, j’espère, que la duplication devrait être un critère de qualité (ça me donne l’idée d’un business) mais que fait Google de cette information ?

Je ne serais pas surpris qu’il pénalise les contenus dupliqués tout simplement parce que ça complique son travail. Qui est l’auteur ? Facile quand la duplication pointe vers la source. On peut remonter à elle. Plus difficile quand ce n’est pas le cas. Quelle duplication faire apparaître en tête des recherches ? Celle publiée sur le site le plus populaire, celle qui semble être la source, celle qui rapporte le plus en revenus Ad Sense ?

On le voit Google n’est plus du tout neutre. Il ne fait pas que nous aider à chercher le web, il est en train de la façonner à sa convenance.

Idéalement, et je le sens venir depuis longtemps dans ses recommandations, Google voudrait que les choses ne soient présentes qu’une fois et qu’il y ait très peu de liens entre les pages. Il voudrait que plutôt que nous naviguions de site en site comme c’était le cas à l’origine, nous naviguions toujours par lui, c’est-à-dire que nous allions où il nous laisse aller.

Google n’aime plus les pages avec beaucoup de liens externes. Ils jugent qu’elles ressemblent à des résultats de recherche, c’est-à-dire à des pages Google, donc des pages concurrentes et il les déprécie dans son index (ce qui condamne en référencement par exemple les projets de linkjounalism comme aaaliens.com même s’ils sont légitimes et importants pour nous).

Tout est fait pour isoler les contenus les uns des autres. Tout est fait pour que l’architecture massivement distribuée du web devienne pyramidale. Nous sommes peut-être en train d’assister à la mort du web tel que nous l’avons connue durant les quinze premières années de son histoire. Nous risquons de nous rappeler d’elles comme d’un âge d’or où tout était permis.

Que devons-nous faire ?

Nous coucher devant les dictats de Google ?

Je pose la question parce que je ne sais pas quoi faire…

PS : Pour estimer combien de fois ce billet sera repris, j’inscris ici un watermark : croutondebalaruc. Ne l’effacez pas :-).

Suivi via Google

  1. Publié le 15/12/2008 à 11:31, sur Google à 11h45.

  2. Vu sur coZop à 16h30.

  3. Vu sur lespacearcenciel.com le 16/12/1008 à 2h.