SOCIAL SELLING

L’algorithme Google n’est pas quelque chose de figé, mais elle subit des améliorations continuelles… plusieurs milliers depuis 2000 ! D’où la difficulté de bien comprendre à l’instant « t » ce qu’il faut faire pour assurer à son site WEB de bien référencer (cliquez ici>> pour voir comment fonctionne l’algorithme Google): bien référencer signifie sortir en première page des recherches que mènent les prospects sur Internet, et si possible dans les 3 première places qui prennent 75% des clics organiques.

Histoire Algorithme GoogleDans les dernières années des millions de sites sont descendus dans les classements, faute d’avoir bien compris les évolutions de cette algorithme Google.

Historique l’algorithme Google.

Alors que tout le monde s’attendait à la version 4.0 de Pingouin attendue début 2016, Google annonce qu’ils procèdent à une énième mise à jour de l’algorithme principal, dans la lignée des autres « Quality Update » effectuées régulièrement par la plateforme. Les détails de cette nouvelle mise à jour restent malgré tout assez flous.

6 modifications de l’algorithme en 2015. Le plus important est la prise en compte de la mobilité: Le moteur de recherche se tourne vers les mobiles et favorise les pages adaptées aux mobile pour les requêtes provenant d’un mobile. Le deep learning remplace une partie des algorithmes pour comprendre certaines requêtes et y répondre.

14 modifications de l’algorithme en 2014, mais pas de grand changement dans l’algorithme: Plutôt des mises à jours des changement précédent, et le souci de Google de se rapprocher de son objectif lointain qui est de pouvoir répondre directement à toutes les questions que l’internaute peut lui poser.

17 modifications de l’algorithme en 2013, maquées surtout par le souci de Google de prôner un Web verbeux: Quelques sites importants ont été pénalisés pour achats de liens (comme Rap Genius), mais il semble que ce soit l’exception plutôt que la règle. La démarche reste un vœux plus qu’une réalité: On voit fleurir de nombreuses pages sur le même modèle: une information nouvelle au début, délayée dans un flot de mots pour camoufler le manque total d’originalité, suivi de quelques rappels tout aussi verbeux de ce que l’on sait déjà sur le sujet. On présume que les auteurs sont satisfaits du positionnement, et il faut conclure que l’algorithme ne tient compte que de la première partie du texte.

Presque 400 modifications de l’algorithme Google en 2012 dans un paysage où le référencement est devenu un champ de mines. L’idée de déclasser un site sans tenir compte du contenu apparue dans Panda en 2011 s’est étendue à Penguin en 2012. Cette fois ce sont les pages qui ont trop de backlinks artificiels qui sont pénalisées. Mais cette tendance à traiter tous les sites sur la base de manipulations hypothétique de l’algorithme se renforce. Toute action sur un site peut être assimilée à tort à une tentative de spam dès lors qu’elle ressemble à une manœuvre pratiquée par certains spammer. Ce n’est pas que Google soit totalement incapable de juger du contenu d’une page, il le démontre avec le graphe de connaissance. Mais il semble que cette aptitude soit réservée à son propre usage tandis que les sites tiers sont jugés uniquement à partir de signaux et de ce qui peut être interpréter comme un vote favorable ou défavorable de la part des utilisateurs.

Presque 600 modifications de l’algorithme en 2011, l’année de tous les défis pour Google dont l’algorithme est de plus en plus critiquée. D’une part il y a eu Panda, un nouvel outil de classement qui pénalise un site qui a trop de pages de « qualité insuffisante », c’est à dire supposée manquer de contenu ou d’originalité. Si le site possède d’autres pages de qualité, elle seront moins bien classées. En outre on assiste au retour des liens multiples sur un même site dans les pages de résultats. On peut souvent voir les résultats monopolisés par deux sites, ce qui est plus que dommage. Google communique beaucoup sur le développement de son algorithmes, mais se borne la plupart du temps à favoriser les sites les plus importants. Enfin, combattre le spam est devenu une obsession au détriment de beaucoup de sites qui apportent l’information que l’on recherche mais ne sont pas visibles dans les SERPs.

[/tab]

[tab id=7]8 modifications de l’algorithme en 2010, mais des changements importants dans les pages de résultats, avec notamment la recherche instantanée, la prévisualisation des sites, le filtrage par niveau de lecture et dans l’index avec la prise en compte de nouveaux formats de fichiers. Mais pour l’algorithme de positionnement lui-même, les progrès ne sont pas aussi flagrants. Les résultats de recherche sont infestés de spams, de pages vides. De très gros sites sont capables de générer des millions de liens internes ou vers des sites satellites destinés uniquement à afficher des publicités. Des entreprises se constituent pour faire produire par une armée de dactylos du web des quantités de pages pour supporter des publicités et dont on se doute que l’originalité en est totalement absente.
Il n’est pas agréable de poser une question et de trouver pour tout résultat une page contenant la même question et pas de réponse. C’est donc dans la capacité à évaluer sémantiquement le contenu que le moteur devrait faire des progrès.

Selon Google, 540 améliorations ont été apportées au moteur de recherche durant l’année 2009, en quatre  grandes étapes:

2 modifications de l’algorithme en 2008:

2 modifications de l’algorithme en 2007:

2 modifications de l’algorithme en 2006:

9 modifications de l’algorithme en 2005:

2 modifications de l’algorithme en 2004:

7 modifications de l’algorithme en 2003:

La première modification de l’algorithme en 2002:

2 modifications en 2000:

cliquez ici>> pour voir comment fonctionne l’algorithme Google.