Mais que font les ingénieurs Google ? Sérieusement, nous sommes en 2011. Pourtant, après de nombreux ajouts de filtres et mises à jour de l’algorithme le moteur n’a pas tant évolué que ça et le constat reste le même : un peu de contenu, beaucoup de liens et bingo ! On ranke. Alors que font ces ingénieurs Google pendant toutes leurs heures de travail ?

Voilà la réflexion que l’on peut être tenté de se faire. En réalité, le monde du SEO oublie qu’il est un monde à part entière et très isolé de la réalité du Web en 2011 encore. Certes les agences Web sont de plus en plus sensibilisées au référencement naturel et à l’optimisation on-page, mais les sites sur la toile qui ont eu droit à une optimisation SEO sont encore une minorité. Regardez les chiffres sur Google insight de toutes les expressions clefs, ils sont tout simplement ridicules. (consultant SEO, référenceur, référencement google, audit SEO…)

Au final, donc, la majeure partie du travail de Google consiste à classer des sites qui ne sont pas optimisés. Et ce n’est pas forcément évident. Google a fondé sa réputation sur sa pertinence des résultats et c’est ce qu’il continue de vouloir améliorer. Bien sûr, du moment où l’on décide d’optimiser un site on prouve que ses résultats sont manipulables. Mais cela reste un algorithme, donc forcément ça reste inférieur à un être humain. Quelque part, heureusement.

L’optimisation SEO et expérience utilisateur

Au final, les bases de Google sont fondées sur le peu de sémantique qui existe au sein de l’HTML. C’est à dire la balise <title>, censée représenter le titre de la page complète. Logique donc que Google le prenne en compte comme un signal fort pour déterminer le sujet de la page en question. Ensuite il en est de même pour les <Hn>. Enfin, la balise <strong> qui contrairement à la balise <b> est une balise sémantique pour signaler un mot ou une expression importante.

Donc,  optimiser pour Google aidera également l’utilisateur à s’y retrouver. Dans les faits on peut classer les sites optimisés en deux catégories.

  1. Les sites optimisés grâce à des compétences : il s’agit donc de site géré généralement par une seule et même personne. Pour la plus part on peut les classer dans la catégorie MFA, affiliation ou encore drop shiping. Ce sont des money-site n’ayant besoin d’aucune logistique ni infrastructure. Et là, dans la majorité des cas, on est rarement sur du ultra qualitatif :) Et c’est souvent à ce genre de site que Google fait la guerre. Et c’est souvent ce même genre de site, qui lorsque dénoncé en spam report, disparaît purement et simplement des SERPs.
  2. Les sites optimisés grâce à un budget : là, c’est différent. Il s’agit de site Web créé en agence. Projet lancé souvent par un entrepreneur qui ne vient pas forcément du Web, mais qui a su confier un budget important dans le-quel une partie sera consacrée au SEO. Code et intégration optimisés, campagne de net-linking… En général le résultat est intéressant et Google n’a aucune raison de se sentir lésé si le site se retrouve bien placé sur ses positions.

Bien sûr, il serait ne serait pas politiquement correct de la part de Google de dire « Nos résultats sont manipulés, mais on l’assume entièrement pour les sites à budget, ce ne sont que les money sites de référenceurs indépendants qui nous dérangent. Ainsi, avec Panda, pour éviter qu’il n’y ait trop de dommages collatéraux, on tente plutôt de sanctionner grâce aux critères on-page, plutôt qu’aux critères off-page. »

La crise Panda : une réelle chasse au SEO ?

Panda était censé en priorité faire sauter les fermes de contenu. Au final, une ferme de contenu ne fait pas réellement de SEO. Enfin si, mais uniquement on-page. Le but du jeu étant de créer un maximum de pages sur un maximum de requêtes longue-traine, qui en général une balise <title> en exact sur la requête suffit à faire ranker.

Ensuite, les sites trop pauvres en contenu et contenant trop de publicités devaient aussi dégager. Mais on ne parle donc pas d’optimisation SEO, de sites ayant X liens de tel ou tel type de source. Sincèrement, quelque soit le type de référenceur que vous êtes, avez-vous beaucoup de sites qui ont chuté violemment à cause de Panda ?

Donc non, on ne peut pas dire que Panda était une guerre déclarée aux référenceurs.

Google nous aime !

Oui, chers amis référenceurs, Google nous aime. Et il y a plusieurs indices qui me laissent le penser. Bien sûr, lorsqu’on créé des money sites ultra spammy, si en plus s’en suit une campagne de linking ultra violente, les filtres ou le spam report s’occuperont de nous. Mais c’est une manière de la part de Google de dire « Oh, mec, n’abuse pas non plus. La prochaine fois propose du contenu un peu plus pertinent, une charte graphique moins dégueulasse, joue la plus cool sur ta campagne de net linking, et sûrement qu’on te fera la part belle dans les SERP. » Il faut également noter, que oui, Google a beaucoup évolué. C’est fini les temps où il suffisait de bouriner sur une ancre exacte pour ranker. Désormais, les ancres URL et les ancres variées sont de rigueur. Désormais, Google accepte d’être manipulé mais il veut qu’on la joue fine 😉 Bref, voilà les raisons qui me pousse à croire que Google nous aime :

Pour commencer, parce que comme je l’ai dit un peu plus haut, un site optimisé permet d’aider Google à identifier la thématique du site. Notons quelque chose : c’est bien beau d’avoir les positions, mais si on ne transforme pas elles ne servent strictement à rien. Ainsi, s’il s’agit d’un projet Web dans lequel un budget SEO a été investit, c’est que l’entrepreneur croit en son projet et pense proposer un service utile à l’internaute. Donc, en quoi cela dérangerait google qu’un site sympa, joli, utile, pro et correctement optimisé se positionne ? Ce n’est pas la centaine d’annuaires et/ou les dizaines de communiqués de presse linkés sur des ancres optimisés qui justifieront un dégagement des SERPs. Au contraire, c’est juste un coup de pouce donné à Google pour lui indiquer sur quelles requêtes le site est pertinent 😉 On pourrait d’ailleurs noter qu’aujourd’hui en France, la justice est plus sévère que Google.

Deuxièmement, parlons des sources de liens. Pour quelle raison mes amis, pour quelle raison Google ne déclasse pas de manière conséquente le poids des liens venants des commentaires, des digglikes, des sites de communiqués de presse et des annuaires ? On optimise ces ancres grâce aux CPs, on gagne du jus grâce aux annuaires (Et à tous ceux qui leur font des liens retours), etc. Tout ça Google le sait et ne fait rien pour l’empêcher. Pourquoi donc ?

Et enfin, j’ai envie de terminer cet article sur le pagerank. Entre 2010 et 2011 s’est écoulé presque un an sans mise à jour du PR. Jusqu’à ce que Larry Page, officiellement créateur du PR, reprenne les rennes de Google. Bim, mise à jour du PR. N’est-ce pas un clien d’oeil de sa part pour dire « Coucou les amis SEO, je suis de retour ! ». Le PR, quelque soit son utilité, a un intérêt uniquement pour les personnes un minimum sensibilisées au SEO. Alors pourquoi continuer de le mettre à jour ? Pourquoi ne pas le supprimer purement et simplement ? Vous connaissez désormais ma réponse à cette question :)