Tout ceux qui s’intéressent de près ou de loin au référencement naturel ont déjà été confrontés à ces deux termes : Le Machine Learning et le Deep Learning. Quelle est la signification et les sens de ces termes ? Mais surtout, quels seront leurs impacts sur le SEO et le métier de référenceur ? Décryptage sur ces expressions qui n’auront bientôt plus de secrets pour vous.

Qu’est-ce que le Machine Learning ?

Le machine learning (apprentissage automatique) est une branche de l’informatique qui étudie la conception d’algorithmes capables d’apprendre. Les tâches typiques qui la composent sont l’apprentissage de concepts, le regroupement et la recherche de modèles prédictifs, c’est-à-dire anticiper des comportements futurs. Ces tâches sont apprises à travers les données (data) disponibles injectées dans la machine. L’apprentissage automatique espère que l’inclusion de l’expérience dans ses tâches finira par améliorer le résultat de son apprentissage. Le but ultime est d’apprendre la machine à apprendre, de manière à ce qu’il devienne automatique et de supprimer les intéractions humaines.  En d’autres termes, ce sont les scénarii passés qui créeront les hypothèses futures.

Rapportés au SEO, les algorithmes de machine learning peuvent être utilisés pour challenger la pertinence de critères de référencement avérés. Concrètement, elles peuvent nous permettre de mettre précisément le doigt sur le critère qui permettra d’être le mieux référencé, parmi les 4 mousquetaires du SEO : la technique, la sémantique, le netlinking et l’UX (le classement est bien entendu arbitraire).

Prenons par exemple monsiteauto.fr, un site du secteur automobile qui souhaite se faire une place sur Google parmi les concurrents du secteur. Un modèle de machine learning bien paramétré serait en mesure d’identifier quels seraient les critères SEO que devraient privilégier monsiteauto.fr afin de se positionner dans son secteur d’activité. Devra-t-on privilégier le netlinking plutôt que la sémantique ? L’UX doit-il avoir plus de poids que la structure du site ?

Pour ce faire, la machine à apprendre va tester plusieurs scenarii afin d’identifier le critère le plus pertinent, sur la base des algorithmes utilisés. C’est à partir de là qu’intervient le deep learning.

Qu’est-ce que le Deep Learning ?

Traduit comme « apprentissage profond », le deep learning est un sous-domaine du Machine Learning. Il est défini comme un ensemble d’algorithmes inspirés de la structure et de la fonction du cerveau, que l’on appelle habituellement les réseaux neuronaux artificiels (RNA). Le deep learning est assimilable aux neurones qui composent le cerveau qu’est le Machine Learning. Brillant dans de nombreux secteurs d’activités, tels que la robotique, la reconnaissance d’image et l’intelligence artificielle (IA), le deep learning doit s’alimenter de données diverses pour être pertinent. Parmi les secteurs dans lesquels il excelle, l’IA et la reconnaissance d’image constituent des enjeux pour le SEO d’aujourd’hui et de demain, notamment depuis l‘avènement en 2015 de Rankbrain dans l’algorithme de Google.  

La position Zéro et le People Also Ask sont 2 snippets issues du Deep Learning

 

RankBrain est un algorithme d’intelligence artificielle (IA) que Google utilise pour traiter les résultats de recherche. Avant RankBrain, 100% de l’algorithme de Google était créé et mis à jour manuellement par les ingénieurs de l’entreprise californienne. Désormais, les mises à jour sont partiellement effectuées de manière automatisée par Rankbrain, qui peaufine l’algorithme par lui-même en fonction des résultats des tests effectués et de la data traitée. L’IA permet notamment à Google de tester régulièrement de nouvelles fonctionnalités (featured snippets, position 0 …), avec plus ou moins de réussites pour le moment.  

Le One Plus 6 est un modèle de smartphone. L’algorithme de Deep Learning de Google l’a interprété comme une opération mathématique

 

Concrètement, Rankbrain révolutionne le traitement de la requête saisie dans Google. En fonction du mot clé et du secteur d’activité traité, RankBrain augmentera ou diminuera l’importance des critères SEO connus : backlinks, fraîcheur du contenu, longueur du contenu, autorité du domaine, poids des balises Title et H1, maillage interne … Ensuite, Google analyse l’interaction des internautes avec les nouveaux résultats de recherche. Si les utilisateurs apprécient le résultat proposé, le nouvel algorithme remplace le précédent. Si ce n’est pas le cas, RankBrain annule l’algorithme et en propose un nouveau, jusqu’à ce que la meilleure formule soit trouvée ! Pour ce faire, Google entre de plein pied dans le big data, en diversifiant la source de données traitées pour proposer l’algorithme le plus pertinent possible. Grâce au big data, Rankbrain est en train de changer la face du référencement. Et les méthodologies permettant d’aborder le SEO sont également en train d’évoluer, ce qui aura une incidence directe sur les tâches quotidiennes du référenceur ! Pour plus de détails, n’hésitez pas à consulter l’excellent dossier de Remi Bacha sur l’IA et le référencement

Quelle incidence sur le SEO et le métier de référenceur ?

Le machine learning, sous l’impulsion de Rankbrain, remet à plat les critères de classement dans les moteurs de recherche. Cette dimension « data centric » de Google transforme le SEO en métier du Big DATA. Ainsi, le référenceur doit s’adapter à ces évolutions et mettre en place ses propres modèles de Machine Learning.

Parmi les modèles utiles au quotidien du référenceur, nous pouvons citer l’automatisation des tâches récurrentes, la mise à jour automatique des données traitées issues d’outils ou d’API, ou encore les analyses prédictives de positionnement dans les moteurs de recherche. In fine, le but est de sélectionner et traiter les données issues d’outils transverses (backlinks, crawl, mots clés …) permettant de paramétrer au mieux le modèle de machine learning et s’adapter aux évolutions des moteurs de recherche dans notre secteur d’activité.

Des modèles de machine learning peuvent être créés et/ou paramétrés à l’aide des langages R ou Python. Si vous avez peur de vous y atteler, les outils tels que Dataiku ou Datarobot permettent de créer des modèles, sur la base des fichiers de données renseignés dans les outils. La data choisie est primordiale, puisque ces données auront une incidence directe sur le résultat final. Cette Data Science permet de proposer des modèles prédictifs fiables jusqu’à 80% !

Conclusion

A l’ère du mobile et de l’internet des objets (notamment Google Home), le modèle de machine learning de Google évolue de plus en plus vite, notamment grâce à Rankbrain. Il convient pour le moteur de recherche d’évoluer en fonction des comportements utilisateurs, afin de proposer la meilleure réponse pour répondre à la demande des internautes, et rester le leader dans un grand nombre de pays. Cela impacte forcement le métier de SEO qui est en pleine évolution. Le référenceur d’aujourd’hui et de demain doit avoir une double casquette de consultant et de data scientist SEO afin de toujours proposer les meilleures optimisations et les prioriser dans le temps.  

Sources : Datacamp, Remi Bacha, Formation SEO Data Labs, La Fabrique du net