Danger : duplicate content / Danger : Google

Tous les blogueurs et tous les éditeurs n’ont que ça à la bouche : « Surtout je ne veux pas que mes textes soient reproduits, Google me pénaliserait. » Je suis sensible à ce cette crainte parce qu’avec coZop nous dupliquons justement des contenus.

Mais cette crainte est-elle légitime ? Est-ce qu’en dupliquant sur des centaines de sites la Déclaration des droits l’homme nous diminuons sa valeur ? Est-ce que Google doit la pénaliser ? Est-ce qu’on doit la trouver moins facilement ?

Est-ce qu’un jour un écrivain s’est plaint de voir ses livres édités en poche, en paper back, dans les clubs, en tirage de tête ? Au contraire, il est plutôt heureux. Ce qu’il n’apprécie pas c’est les éditions pirates mais où est le problème si la duplication est accepté par lui. Plus son livre est dupliqué, plus c’est le signe que son livre a de l’importance. Google devrait au contraire favoriser les contenus dupliqués pour témoigner qu’ils génèrent de l’intérêt.

Si un de mes billets se retrouvait repris par des centaines de blogueurs, j’en serais heureux. J’aurais la preuve que j’ai écrit quelque chose qui intéresse et je ne vois pas pourquoi Google me pénaliserait.

Mais à quoi joue Google ?

J’avoue que je n’en sais rien. J’ai remarqué que depuis la fin novembre son algorithme a été modifié et que coZop reçoit moins de visites. J’ai noté la même baisse sur mon blog, presque soudaine, donc technique. Je sais que d’autres sites ont vu la même chose se produire (qu’ils dupliquent ou non). Où part le trafic qui ne vient plus chez nous ? Chez TF1 ? Ce serait bien que nous le sachions pour savoir à quoi Google joue exactement avec internet mais nous ne le savons pas (je n’ai jamais vu de baisse trafic en décembre, c’est tout le contraire qui se produit traditionnellement).

La phobie du duplicate content est-elle légitime ou non ? J’ai montré, j’espère, que la duplication devrait être un critère de qualité (ça me donne l’idée d’un business) mais que fait Google de cette information ?

Je ne serais pas surpris qu’il pénalise les contenus dupliqués tout simplement parce que ça complique son travail. Qui est l’auteur ? Facile quand la duplication pointe vers la source. On peut remonter à elle. Plus difficile quand ce n’est pas le cas. Quelle duplication faire apparaître en tête des recherches ? Celle publiée sur le site le plus populaire, celle qui semble être la source, celle qui rapporte le plus en revenus Ad Sense ?

On le voit Google n’est plus du tout neutre. Il ne fait pas que nous aider à chercher le web, il est en train de la façonner à sa convenance.

Idéalement, et je le sens venir depuis longtemps dans ses recommandations, Google voudrait que les choses ne soient présentes qu’une fois et qu’il y ait très peu de liens entre les pages. Il voudrait que plutôt que nous naviguions de site en site comme c’était le cas à l’origine, nous naviguions toujours par lui, c’est-à-dire que nous allions où il nous laisse aller.

Google n’aime plus les pages avec beaucoup de liens externes. Ils jugent qu’elles ressemblent à des résultats de recherche, c’est-à-dire à des pages Google, donc des pages concurrentes et il les déprécie dans son index (ce qui condamne en référencement par exemple les projets de linkjounalism comme aaaliens.com même s’ils sont légitimes et importants pour nous).

Tout est fait pour isoler les contenus les uns des autres. Tout est fait pour que l’architecture massivement distribuée du web devienne pyramidale. Nous sommes peut-être en train d’assister à la mort du web tel que nous l’avons connue durant les quinze premières années de son histoire. Nous risquons de nous rappeler d’elles comme d’un âge d’or où tout était permis.

Que devons-nous faire ?

Nous coucher devant les dictats de Google ?

Je pose la question parce que je ne sais pas quoi faire…

PS : Pour estimer combien de fois ce billet sera repris, j’inscris ici un watermark : croutondebalaruc. Ne l’effacez pas :-).

Suivi via Google

  1. Publié le 15/12/2008 à 11:31, sur Google à 11h45.
  2. Vu sur coZop à 16h30.
  3. Vu sur lespacearcenciel.com le 16/12/1008 à 2h.

46
Ne manquez aucun article
Soutenez mon travail en achetant mes livres.

46 comments

  1. Ton billet me rappelle l’affaire d’Allociné concurencé par les services de Google.

    Toutes ces affaires montrent tout simplement que les site qui dépendent principalement d’un référencement naturel sont exposés. Cela va obliger les SEO a être plus imaginitifs … et c’est tant mieux 🙂

  2. Paul .ca says:

    Après le chaud, encore le froid. Thierry, s’il te plait relis un minimum ce que tu écris. Oui je sais bien que le temps c’est de l’argent.

    > J’ai montré, j’espère, que la duplication devrait être un critère de qualité

    Tu peux pas le démontrer puisque c’est faux !
    La duplication n’est même pas un critère de popularité puisqu’il faut regarder les ventes. Est ce qu’un film populaire est un film de qualité ? C’est possible mais loin d’être un synonyme.
    Google regarde la popularité comme critère mais pas uniquement. il écarte ceux qui abusent des techniques qui sont facilement reproductible a l’infini sur le net. Imprimer un ouvrage et faire une copie numérique n’a pas le même cout. La comparaison est un peu malhonnête. Améliores ton coZop. As tu besoin d’idées ? je t’en donnerai gratuitement. As tu besoin d’un développeur ? Trouve le. 😀

  3. PS : j’ai observé sur les sites que je gère que Google déclassait fortement les sites avec “trop” des liens sortants. Dès que j’ai supprimé les flux RSS placés en home, le traffic est revenu …

  4. @Paul La duplication sur internet = reprise. Quand des gens reprennent quelque chose, c’est parce qu’ils ont une raison (leur raison n’est pas m’ont affaire) mais c’est qu’ils jugent intéressant de reprendre (que ce soit plus facile sur le web ne change rien pour moi… je sais que tu es maso mais bon).

    Il n’y a aucun lien entre nombre de reprises et nombre de lectures. Un article scientifique cité par mille autres a peut-être pas plus de mille lecteurs (voire souvent moins). Le PR est basé sur les citations (ce qu’on appelle la popularité), par sur le succès (le nombre de lectures).

    @Laurent Tout le monde passe par Google pour accéder au web, même aux sites qu’ils connaissent. Tu peux développer le site que tu veux, t’as pas le choix que de te soumettre. Tout le monde dépend à 80% du référencement (ou de Ad Sense).

    Que tu sois obligé de virer un contenu de ton site pour augmenter son rendement (cela à cause de Google), c’est le monde à l’envers.

  5. Paul .ca says:

    A l’esprit googleisé,

    Je connais pas le vocabulaire de Google.
    il se trouve que j’ai repris ta lettre pour en rire pas pour la qualité du contenu.
    Ne parle pas de qualité mais juste de popularité de liens ou de visite.

    Quand au monde à l’envers, c’est tous ces films qui sont populaires mais que je trouve souvent de médiocre intérêt et qualité.

    Arrêtes d’essayer de psychanalyser les gens, tu es mauvais et ça décrédibilise ta vision du reste. Ça serait dommage.

    Quand je rigole a tes attaques c’est parce que ça tombe à l’eau et que tu crois viser juste, excité comme une pucelle.

  6. « Que devons-nous faire ? »

    Repenser le web en généralisant les principes décentralisateurs qui ont fait la force du réseau TCP/IP sur lequel il repose.

    Si le stockage des données a une tendance à se centraliser (YouTube, Flickr, etc.) c’est qu’il n’y a pas de solution simple pour que ce soit autrement (stockage par les gens eux-mêmes ou par des hébergeurs neutres).

    Si les réseaux sociaux engendrent des mastodontes tels que Facebook ou MySpace c’est que les technologies et les standards qui permettraient de décentraliser tout ça n’existent pas encore.

    Si les moteurs de recherche se réduisent aujourd’hui à un seul, Google, c’est que d’une part quelques mécanismes fondamentaux tels que les datahubs restent à créer et que d’autre part la forme du web elle-même, mettant sur le même plan le contenant et le contenu, permet à la publicité de se développer d’une façon démesurée.

  7. greg says:

    Avec toute l’admiration que j’ai pour vous Thierry, lorsque vous parlez de référencement j’ai l’impression d’entendre parler d’économie sur TF1…

    “Le PR est basé sur les citations”
    Ha? Vous avez la formule mise à jour? Parce que celle d’origine se base sur les liens, pas sur les citations. Et d’ailleurs, si vous savez à quoi sert le PageRank aujourd’hui je veux bien une explication…

    “Tout le monde dépend à 80% du référencement (ou de Ad Sense).”
    Amazon? Facebook? Myspace? Craigslist? Flickr? …

    Au fond quel est le problème? Que lorsque-vous recopiez mot pour mot un contenu (principe de coZop) Google préfère mettre l’original dans ses résultat plutôt que la copie? Cela me parait plus que logique, non?

    “Mais cette crainte est-elle légitime ?”
    Si vous posez la question c’est que vous n’avez pas la réponse, donc pourquoi faire un billet pour dire que ce n’est pas normal???

    “Google devrait au contraire favoriser les contenus dupliqués”
    Je pousse le raisonnement, mais quelle preuve avez-vous qu’il ne le fait pas lorsqu’il est sur de la source?

    “Où part le trafic qui ne vient plus chez nous ?”
    Si vous ne le savez pas, c’est que vous n’avez pas analysé sur quelles requêtes vous avez moins de trafic. Et si vos positions ont baissé sur ce requêtes, quels sites ont pris votre place. Donc vous ne savez pas s’il s’agit d’un déclassement, d’une baisse des volumes de recherche, ou de requêtes sur lesquelles au fond il est légitime que vous soyez moins bien placé…

  8. @Thierry
    > Tout le monde dépend à 80% du référencement (ou de Ad Sense).
    Je pense que tu te trompes … (c’est limite ne pas être respectueux des autres SEO ;-))

    Un exemple que je connais bien Linutop.com.
    – 56% Refering sites
    – 25% Direct Traffic
    – 19% Search engine.

    Si j’enlève les requêtes Google contenant Linutop, on tombe à 9% en provenance des moteurs de recherche (on est donc loin des 80%). De plus le taux de transformation des visiteurs en provenance de Google est inférieur.

    L’apport de trafic s’est fait à travers un vrai travail de référencement, en produisant du contenu repris par d’autres sites, ne communiquant avec la presse … en un mot on à bossé 😉

    Comme je te le disais un peu plus haut en commentaire, il faut faire preuve d’imagination. Grosso modo ton business avec CoZop et bonweb repose sur la mise en place d’un algorithm qui va essayer de battre l’algorithm de Google. C’est pas tenable … enfin ce que j’en dis … en toute amitiée 🙂

  9. @Greg Lien = citation (c’est henri qui joue sur les mots d’habitude). J’ai encore relu il y a pas longtemps le papier original à la base de Google.

    Le nombre de liens vers un site reste déterminant dans l’algo de popularité de Google. Pour s’en convaincre, il faut avoir un site qui fait du trafic et voir comment en fonction des liens le trafic bouge mécaniquement.

    C’est le drame de la technique Google d’ailleurs qui favorise la quantité à d’autres critères qui seraient qualitatifs. Plus tu es cité (linké), surtout par des sites eux-mêmes cités, plus tu reçois de visiteurs. C’est le people qui prime.

    Faudrait avoir les chiffres mais je suis sûr que Facebook reçoit beaucoup de visites des moteurs… car je vois souvent les profils facebook sortir dès que je cherche quelqu’un.

    En plus pratiquement tous les utilisateurs aujourd’hui saisissent le nom du site vers lequel ils vont depuis la fenêtre d’accueil de google. Rien que par ce mécanisme Google a un rôle central dans la génération de trafic (des gros sites bien sûr).

    @Laurent Tes chiffres ne peuvent être appréciés qu’en regard du trafic. C’est sûr que si tu fais moins de 10 000 visiteurs uniques par jour, tu peux te passer de Google. Mon blog qui fait en ce moment 1000 unique/jours reçois 11% de visiteurs de tous les moteurs confondus.

    Tous les sites qui traitent des sujets chauds reçoivent 80% de leurs visiteurs des moteurs. Tous les sites d’actualités dépendent vitalement des Google. Je ne donne pas de chiffres, parce que ce ne sont pas les miens, mais je parle de temps à autres avec certains éditeurs et je sais que c’est le cas. Google les tiens par les couilles.

    Ce qui me surprend le plus c’est de voir combien tout le monde est naïf au regard de Google.

    Je crois que nous sommes dans une situation critique.

    PS : Mon business c’est d’écrire… je vis principalement de mes livres/conf depuis 1997. Tout le reste c’est pour jouer avec la techno pour m’aérer la tête. N’inverse pas tout. Si j’ai gagné du fric en jouant, c’est exactement comme si j’avais gagné au loto. Je ne fais pas des confs pour parler de Bonweb ou de coZop. D’ailleurs bonweb n’a pas d’algo et coZop en aura un peut-être un jour, ce qui n’est pas encore le cas, et le but ne sera jamais de concurrencer Google mais d’autres médias. C’est Wikio qui joue à concurrencer Google et qui utilise les techniques que j’ai jadis employées avec bonWeb (prouvant qu’elles marchent toujours fort bien).

  10. @Thierry
    Je pense que ton argumentation est faible car elle s’appuie sur deux affirmations non vérifiées :

    1) sur google qui pénaliserait aveuglément le “duplicate content”
    2) sur la dépendance à 80% de traffic de Google pour les gros site

    Voici les stats octobre 2008 (médiamétrie) en France :

    1 Google 28 530 000
    2 Microsoft 27 871 000
    3 France Telecom 21 708 000
    4 PagesJaunes 17 040 000
    5 Iliad 16 889 000
    6 eBay 16 545 000

    Je pense que Microsoft, France telecom, Pagesjaunes, etc … ne dépendent pas à 80% de Google ?

    > Ce qui me surprend le plus c’est de voir combien tout le monde est
    > naïf au regard de Google.

    Je pense que tu n’es pas le seul a te poser des questions mais tu te trompes de combat …

  11. Phyrezo says:

    Hors sujet :

    Presse-Citron fait un post sur la joie d’être un connecteur :
    http://www.presse-citron.net/cette-machine-vaut-100000-euros-ou-plus

  12. Justement.
    En général le nombre de visiteurs est proportionnel au nombre de pages référencées.
    http://www.google.com/search?q=site%3Aebay.com
    195 000 000 pour ebay !!!
    http://www.google.com/search?hl=fr&rls=com.microsoft
    37 000 000 pour ms (un seul de ses sites alors que mediametrie agrège les domaines)
    Il y’a pas de magie.
    Ça marche pas pour Page Jaune mais est-ce vraiment ces acteurs hégémoniques qui ont besoin d’un moteur ?

    Et puis quel rapport au fond avec ma discussion sur le duplicate content. Dès que je parle de google on ramène le débat sur moi. Quel rapport franchement ? Ok j’ai gagné des tunes avec ça… c’est ça qui vous emmerde ?

    En bricolant coZop j’espère un jour trouver une mécanique pour faire émerger des papiers qui sinon n’émergeront jamais s’ils sont publiés par des blogueurs épisodiques et sur des blogs isolés. C’est la même logique que derrière tous les sites médias actuels. Si des solutions de ce type ne voient pas le jour je ne donne pas lourd de notre blogosphère.

    Et le jour où je gagnerai des tunes avec coZop je te ferai signe.

    Si je voulais gagner des tunes je serai allé voir un financier. J’aurais fait comme les autres… et je me refuse ce jeu.

  13. caizinho says:

    je dirais 90% pour google, 🙂

    pour poursuivre cette discution digne t’ intêrrer, je penses qu’ il ne faud pas oublié un point fondamentale qui le W3C!

    Avant toute choses, c’est le point fort du référencement et du classement de google.

  14. J says:

    Quoi qu’il en soit, si tes craintes sont fondées, nous le saurons bien vite. Internet est encore ouvert, et Google n’est pas en mesure d’empêcher ce genre d’information de faire le tour du monde à vitesse grand V.

    Wait and see.

  15. Pour le duplicate content, je n’ai jamais dit que Google pénalisait. C’est une paranoïa qui s’installe sur le web. Je dis si Google fait ça, ça craint. J’espère qu’il ne le fait pas…

  16. caizinho says:

    Définition : Duplicate content
    En français : Contenu dupliqué
    Par contenu dupliqué, on entend généralement des blocs de contenu importants, appartenant à un même domaine ou répartis sur plusieurs domaines, qui sont identiques ou sensiblement similaires. À l’origine, la plupart de ces contenus ne sont pas malveillants. (Google)

    C’est sans doute l’une des premières choses que l’on apprend quand on se lance dans l’e-marketing et le référencement : Éviter à tout prix le contenu dupliqué.
    Cela signifie deux choses concrètement :

    Que les textes doivent être originaux.

    Le contenu, toujours le contenu, encore le contenu
    Google à toujours eu un mot d’ordre récurant : Créez du contenu unique et original et votre site sera bien référencé.
    Une notion simple à comprendre, perpétuellement répété par Google (et les autres moteurs). Plus que les sanctions, ce sont les risques et les cas les plus courants de duplicate que Google a déjà défini dans son Centre d’aide pour webmaster : Contenu en double C’est donc confirmé, le contenu dupliqué n’est pas synonyme de pénalité(s) à partir du moment ou certaines règles sont respectées :
    Ne pas créer plusieurs pages, sous-domaines ou domaines présentant un contenu en double.
    Évitez les programmes d’affiliation avec peu ou pas de contenu original.
    Dans le cas d’une participation à un programme d’affiliation, s’assurer que le site a une vrai valeur ajoutée.
    Le contenu doit être unique et pertinent pour donner aux utilisateurs une raison de visiter ce site en premier.
    La copie d’articles dans leurs intégralités (surtout si la source n’est pas citée et “linkée”) est a éviter.

    La conclusion de Google sur le contenu dupliqué :
    Si Google garde quelques secrets, son discours (sur le blog ou sur la documentation officielle) est quand même rassurant au sujet du duplicate.

    -“Généralement, vous n’avez pas besoin de soumettre une demande de réexamen lorsque vous supprimez du contenu dupliqué.” (suppression des urls en double donc)

    “Si vous êtes un webmaster débutant ou confirmé, il est inutile de dépenser trop d’énergie à se préoccuper de contenu en double car la plupart des moteurs de recherche ont les moyens de faire le tri.”

    “Vous pouvez aider vos amis webmasters en ne perpétuant pas le mythe des sanctions dues au contenu dupliqué.”

  17. Hugues says:

    Tu sais quoi Thierry, je suis encore entièrement Ok avec tes analyses, j’en suis arrivé au même point. Une des raisons qui me pousse à ne plus mettre de pub Google sur mon site (70 €) par mois environ , pas de quoi devenir millionnaire…( Rires…)
    Quand au fait à ce que le contenu soit dupliqué. (C’est un des moyens qui permettra un jour à ce que la Résistance prenne Forme sur le net. Perso, c’est ce que je fais avec certains textes ou vidéos. Essentiellement du Web 2 Zéro. Et j’en ai rien à foutre d’avoir mon pr qui est tombé de 4 à 3 !!! Je contourne le problème, ce qui ne m’empêche pas d’avoir du monde sur mon site.
    Quant à Google, il y a un dilemne de Taille. Va t-il continuer à bien nous référencer si nous ne jouons pas son jeu ??? Facile de répondre, s’il ne le fait pas la résistance face au Mamouth arrivera encore plus vite. Faut juste être Patient et Optimiste quant au 5ème pouoir. N’est ce pas ce que tu nous dis chaque jours… Il n’y a donc pas péril en la demeure…

    Amitiés 😉

  18. Equilibrium says:

    Je ne vous étonnerais pas si je dis que les enjeux dépassent de très loin ce qui peut être ici assimilable à de simple intérêts publicitaires (on peut appeler ça “stratégie de référencement” si on veut mais la structure autour de laquelle se basent les acteurs est quasi similaire, voire pour ceux qui n’en sont déjà plus là, découle directement des intérêts d’annonces). Google étant en position de quasi monopole à des choses bien plus surprenantes en vue.

    Pour débrousailler un peu le terrain, je demanderais si vous avez tous entendu parler d’ “algorithmes d’anticipation” ?

  19. caizinho says:

    Contudo, o ponto de distinção do Google é a antecipação das necessidades que ainda não foram expressas por nosso público global, e atendê-las com produtos e serviços que definem novos padrões. Essa constante insatisfação com o momento atual é a força motriz do melhor mecanismo de pesquisa do mundo.
    j’ ai pu lire, sur google brésil, je penses.
    la phylosophie de google les 10 véritées.

  20. Didier says:

    [email protected],
    Tout est fait pour isoler les contenus les uns des autres. Tout est fait pour que l’architecture massivement distribuée du web devienne pyramidale. Nous sommes peut-être en train d’assister à la mort du web tel que nous l’avons connue durant les quinze premières années de son histoire. Nous risquons de nous rappeler d’elles comme d’un âge d’or où tout était permis.
    Malheureusement, pour confirmer les craintes de Thierry (et d’autres), voici une conférence de Thierry Stœhr aux 8e rencontres mondiales du logiciel libre, à Amiens, le 13 juillet 2007.
    La vidéo de la conférence est disponible ici :
    http://www.fdn.fr/minitel.avi (durée 1h04’17, 99Mo), le support de conférence en PDF est disponible là :
    http://www.fdn.fr/minitel.pdf
    La vidéo est cadrée sur le conférencier, le fait d’avoir le support sous les yeux, dans une autre fenêtre, permet de mieux suivre, même si ce n’est pas rigoureusement indispensable. Par contre, le support de conférence seul n’a aucun intérêt.

    Ré@gissons, [email protected]

  21. @Thierry
    > Et puis quel rapport au fond avec ma discussion sur le duplicate content.
    > Dès que je parle de google on ramène le débat sur moi.
    > Quel rapport franchement ? Ok j’ai gagné des tunes avec ça…
    > c’est ça qui vous emmerde ?

    je te faisais remarque qu’à partir de ton cas personnel :
    déclassement de CoZop par google tu développais un raisonnement qui était “faible” :
    1) La pénalisation aveugle du “duplicat content” n’est pas prouvée
    2) La dépendance à 80% a Google n’est pas prouvée

    En revanche le sujet de l’hégémonie de Google et de la mise en place d’un contre pouvoir est une bonne question … à condition de le commencer sur de bonnes bases.

    take care 🙂

  22. 1/ coZop n’a pas été déclassé (je ne sais pas ce que ça veut dire d’ailleurs pour un site comme coZop car on se prositionne sur aucun mot clé en particulier… on a juste perdu en nombre pages référencées, mais rien de gigantesque).
    2/ J’ai parlé de ça parce que tous les éditeurs en parlent et s’inquiètent.
    3/ 80% Google n’est pas prouvé mais pas loin de la vérité si on prend l’ensemble du trafic web (juste parce que les gens se servent maintenant de Google comme page d’accueil et n’utilisent plus la barre d’adresses).

  23. Un passant says:

    “Que lorsque-vous recopiez mot pour mot un contenu (principe de coZop) Google préfère mettre l’original dans ses résultat plutôt que la copie? Cela me parait plus que logique, non?”

    assez d’accord avec ça.

    Google ne devrait pas renvoyer vers Cozop ou Wikio, mais vers l’article source.

    Et des sites comme wikio ou cozop devraient gagner leurs lecteurs en faisant un vrai travail d’éditorialisation.

    On irait spontanément voir wikio ou cozop pour retrouver un ensemble d’articles ordonnés de telle façon, pour une revue du Web en somme.

    Google est en train de modifier sa méthodologie, et pas mal de choses vont changer je pense suite à cela. Les vieilles certitudes sur le référencement vont en prendre un coup, et les sites créés pour fournir du contenu automatique à Google, sans tri qualitatif ni valeur ajoutée, vont tomber.

    “Où part le trafic qui ne vient plus chez nous ?”

    Peut-être sur les sites médias. Le Post grimpe en flèche, par exemple.

    A noter que les sites médias ont fortement amélioré leur référencement, font moins de liens externes (ou utilisent souvent le nofollow, notamment pour le groupe Le Monde, Le Post etc).

  24. Je suis d’accord pour le trafic aille à la source.

    C’est pour ça que le lien vers l’article source est indispensable (ce qu’on fait sur coZop en dur).

    Et c’est pour ça que la peur du duplicate content est infondée j’espère. Si Google est honnête et fait bien son travail, il doit autoriser la duplication, et toujours favoriser la source. Mais sans interdire la réédition, ni spécialement la pénaliser, car la réédition est souvent pour un auteur une occasion de plus d’exister.

    Mais qu’on soit aujourd’hui obligé de mettre partout des nofollow me paraît une aberration imposée par google et qui va à l’encontre de l’idée même du web, le lien.

  25. Un passant says:

    Le nofollow systématique du groupe Le Monde est scandaleux en effet.

    Un mec comme Pisani par exemple, qui a priori serait un bon orientateur qualitatif, avec des liens pertinents, n’existe plus dans ce rôle, tous ses liens étant en nofollow, comme tous les blogs du Monde.

    Je serais favorable à des mesures de rétorsion: ne plus faire de liens actifs vers Le Monde, les blogs du Monde, et le Post: casser les liens, ou les faire en nofollow également.

  26. Au final tout le monde mettra des nofollow et tous les sites vont se retrouver isolés, tout ça pour rendre Google encore plus puissant.

  27. Didier says:

    Par rapport au fait que “80% des gens utilsent Google comme page d’accueil”, perso j’utilise Netvibes en boot-page avec l’affichage des flux RSS de mes sites références en terme d’actu (bien évidemment ce blog en fait partie). Pour les recherche je me sers de la barre de recherche de Hooseek ( http://www.hooseek.com/ ) qui a récemment retiré Google de la recherche web ( http://www.hooseek.com/blog.php?2008/12/04/33-retrait-de-la-recherche-google-web ), les rares fois ou le résultat de cette recherche n’est pas pertinent, j’utilise Gogole :-p

  28. Un passant says:

    En même temps il y a un bon côté à apprendre à se passer de Google.

    Repenser qualité.

    Repenser lecteurs: que cherchent-ils ? Que peut-on leur apporter ?

    Le système Google était devenu complètement débile: il fallait accumuler des mots clés & du référencement, et peu importait que le lecteur reparte en une seconde, déçu du contenu.

    Cela aussi, c’était la mort du Web. Pas d’avenir.

    Il faut repenser éditorialisation.

    C’est beaucoup plus satisfaisant d’être un éditeur de contenu, de faire un choix qualitatif, et d’attirer des lecteurs directement pour la qualité du contenu, plutôt que d’avoir des milliers de types qui passent pour un mot clé motorisé.

    On a un peu vite annoncé la mort des Une. Et si le lecteur revenait au plaisir de découvrir une Une, lui présentant un contenu choisi, le plaisir de la découverte de l’inconnu ? Plutôt que d’arriver uniquement sur ce qu’on cherche via un moteur.

    Plutôt que d’accumuler 100000 articles à destination des moteurs, un site pourrait ne proposer qu’un petit nombre de sujets, mais tellement bien choisis qu’un plus grand nombre de gens viendrait spontanément.

    Moins travailler le référencement, et mieux travailler la réputation qualitative via les réseaux.

  29. C’est vers là qu’il faut aller.

    Sur ce blog j’ai jamais cherché à attirer du monde au hasard.

    Sur coZop j’espère qu’on trouvera un algo qui réussira à faire remonter les articles intéressants… et à construire de véritables unes pour les utilisateurs (ce qui n’est pas le cas aujourd’hui).

    On a une approche techno/sociale , là ou d’autres comme Nico Voisin cherchent à faire du manuel. Ces approches sont pas antagonistes, trop de choses s’écrivent pour croire que des humains auront la puissances de les trier toutes. Nous avons aussi besoin de l’intelligence des machines.

  30. caizinho says:

    Notre moteur de recherche du futur commence déjà à pointer le bout de son nez. Les recherches en langage naturel commencent à devenir une réalité, les systèmes de questions/réponses comme Yahoo answer se multiplient et alors que le grand public n’a pas encore conscience de ce que sera le web sémantique, Google et Microsoft font déjà des rachats de startups présentant ces nouvelles technologies.

  31. Un passant says:

    Ce qui manquait aux blogs, c’était les réseaux sociaux.

    Pour se faire connaître, il n’y avait que le référencement, Google et les blogrolls sur quelques sites amis.

    Maintenant ça a changé avec les réseaux comme MySpace et Facebook.

    Sur certains sujets dont le contenu est pertinent, on peut recevoir davantage de visites en provenance de groupes MySpace et Facebook, qu’en provenance de Google.

    (MySpace et Facebook sont par ailleurs en nofollow, donc n’ont pas d’incidence sur Google.
    Il y a un vrai monde parallèle à Google qui est en train de se créer, avec un “recrutement” de lecteurs qui ne passent plus par lui.)

  32. Perso… je ne vais plus sur facebook car ça me gonfle, la communauté ici sur le blog et celle des gens que je rencontre in vivo suffisent à me stimuler.

    Mes billets sont republiés sur mon profil facebook et je n’ai aucune idée s’ils sont lus là-bas ou non. Je n’ai pas le temps pour recruter des lecteurs. C’est le travail de mon éditeur. 🙂

    On ne peut pas tout faire…

  33. Un passant says:

    Pour Facebook il faut supprimer toutes les applications.

    Cela redevient vivable après.

  34. Didier says:

    @ un passant :
    Parce que tu crois que les réseaux sociaux à la sauce Facebook ou Myspace vont contre la centralisation des réseaux et donc vont aider à organiser la résistance à Google? Si cela se fait ce sera uniquement dans un concurrentiel, l’enjeu est la connaissance parfaite des internautes afin de leur fournir un contenu publicitaire méga-ciblé et e but ultime et de retrouver en position de monopole incourtournable façon Google ou Micro$oft.
    Si l’on veut réellement s’affranchir de ces dérives, il nous faut devenir des artisans (ou des [email protected]) de nos contenus éditoriaux comme Thierry l’explique ici (http://blog.tcrouzet.com/2008/12/06/decentraliser-le-capital/ ).

    P.S : Tu devrais changer de pseudo car pour un passant tu ès là plus souvent que Thierry 🙂

  35. Un passant says:

    “vont contre la centralisation des réseaux”

    ça c’est un autre débat.

    Je constate juste qu’un blog peut désormais recevoir plusieurs milliers de visites par jour en provenance de MySpace et Facebook.

    Donc ne plus dépendre uniquement de Google.

    Mais cela impose d’avoir un contenu qualitatif. C’est le bouche à oreille qualitatif qui amène des visites en provenance des réseaux sociaux. Un fonctionnement très différent des mots clés Google.

  36. C’est bon si tu parles des starlettes et de branlettes… un peu comme sur Google non ? T’es pas obligé d’utiliser les tags à la mode mais au fond n’est-ce pas les mêmes sujets qui font des hits ?

  37. Henri A says:

    De toutes les façons, les jours du Passant sont comptés, je lui ai mis un contrat dessus pour blasphème illogique.

  38. Un passant says:

    Tu retombes naturellement sur le problème éternel : qu’est-ce qui intéresse le public ? C’est souvent les conneries à la mode.

    Mais si tu as travaillé un réseau de niche, tu peux avoir des visites plus intéressantes.

    Personnellement j’ai expérimenté un grand nombre de visites en provenance de myspace sur des sujets plutôt pointus:

    opéra, musique baroque…

    Tu deviens le directeur de programme d’une communauté, qui s’agrandit par bouche à oreille.

    (Bien plus qu’avec l’ancien système des blogrolls, parce qu’il y a bcp plus de monde sur myspace et facebook, qu’il n’y avait de lecteurs de blogs).

  39. Didier says:

    @ Un Passant (encore…)
    En fait tout le débat porte sur la centralisation (par Google, et autres fesses de bouc) d’internet.
    Thierry l’explique bien quand il dit, entre autres : “Tout est fait pour isoler les contenus les uns des autres. Tout est fait pour que l’architecture massivement distribuée du web devienne pyramidale.
    De mon point de vue c’est toi qui est hors-sujet (par ignorance du sujet ou par mauvaise foi chronique) quand tu proposes des outils comme Myspace pour contrer cette tentative des pompes à fric de devenir les grands centralisateurs du web.
    La solution serait très certainement proche de ce qu’évoque Manuel Vila ( http://blog.tcrouzet.com/2008/12/15/danger-duplicate-content-danger-google/#comment-62445 ) : ” Repenser le web en généralisant les principes décentralisateurs qui ont fait la force du réseau TCP/IP sur lequel il repose.“.

  40. Un passant says:

    “c’est toi qui est hors-sujet”

    Il y a deux sujets:

    1 : la dépendance vis à vis d’un acteur unique : Google
    = problème du monopole

    2 : la dépendance vis à vis d’un système de centralisation : et alors tu as raison de ne pas faire de différence entre Google, MySpace et Facebook.

    Mais le point 1 est important.

    C’est très différent de dépendre d’un seul fournisseur d’accès comme Google, ou de dépendre de 3 fournisseurs d’accès : Google, MySpace, Facebook.
    Même si tous les 3 sont centralisés.

    Si tu dépends entièrement de Google, tu peux tout perdre d’un coup, comme Thierry avec Bonweb.

    On a donc intérêt à avoir plusieurs acteurs centraux : Google, Microsoft, Facebook, Myspace…

    La lutte contre tous les grands groupes étant une autre affaire, distincte de la lutte contre le monopole d’un seul acteur.

  41. Un début de discussion ailleurs
    http://carnets.opossum.ca/mario/archives/2008/12/google_duplicate_content.html

    Ma réponse… qui prolonge le débat ici.

    Dire que la nature déteste la duplication c’est un peu étrange non? Il y a une centaine d’atomes différents pour construire tout le reste.

    C’est la même chose dans le domaine biologique où certaines séquences se retrouvent partout.

    Mon exemple des droits de l’homme me paraît pertinent. Ne faut-il pas les dupliquer ? Je crois que si… c’est le principe des tracts qu’on colle partout. Plus des textes sont dupliqués, plus ils ont de chances de trouver des lecteurs.

    Je n’ai pas dit que Google pénalisait les duplicate content, j’ai dit que chez les éditeurs il y avait une paranoïa à ce sujet. J’espère qu’elle est injustifiée.

    D’ailleurs mon billet sur le duplicate content a été republié par coZop et cette version du texte sort en premier si je lance sur Google une requête avec le watermark placé à la fin du texte. C’est la preuve que Google n’a pas pénalisé coZop pour avoir repris mon texte.

    Google sait en plus que j’en suis l’auteur car il avait initialement détecté ce texte chez moi et que chez coZop un lien pointe vers le billet original. On peut peut-être reprocher à Google de ne pas favoriser la source. Pour Moi ce qui compte c’est que mon texte trouve des lecteurs. Dans une logique financière, on pourrait accuser coZop de voler du trafic. Mais coZop rémunère les textes et offre des stats détaillées (donc que le trafic soit généré ici ou là m’importe peu… je me moque qu’on lise mes livres dans son lit, sur ses toilettes, dans un café…).

    Cette expérience semble donc prouver que Google ne pénalise pas les duplicates et que c’est avant tout une paranoïa.

    J’espère que c’est le cas et que ça le restera. Car il me semble de notre devoir de dupliquer les choses qui nous paraissent importantes, toujours en respectant leur auteur.

    PS : en réponse Michael Carpentier pointe vers un papier où Google confirme ne pas pénaliser : http://www.michaelcarpentier.com/index.php/2008/pour-en-finir-avec-les-supposees-penalites-pour-contenu-duplique/

  42. BGR says:

    Pas sûr que les chaînes soient ta tasse de thé, mais celle-ci permet de donner un éclairage intéressant sur le Mouvement Démocrate que tu as fréquenté à Seignosse :

    http://bgr.hautetfort.com/archive/2008/12/20/chaine-du-modem1.html

  43. J’ai peu d’espoir concernant le Modem… car Bayrou ne pense que pyramidal, il ne pense qu’à lui et nous avons besoin d’autres choses à l’échelle française comme planétaire.

Comments are closed.