Google rend-il aveugle ?

strul

L’information a défrayé la chronique dans le Landernau du Web : Google supprime une partie du listing qui fournissait aux marketeurs la vision des requêtes tapées par les internautes dans le moteur de recherche. Qu’en est-il concrètement ? L’impact est-il considérable ? Existe-il des solutions pour y remédier ?

Ce qui n’apparaitra plus dans le rapport sur les termes de recherche concerne les requêtes très précises, qui sont rarement tapées. Il y a ainsi beaucoup plus d’internautes qui tapent « basket cuir » que « basket cuir blanche rayures noires taille 43 pas cher ». Pour un responsable acquisition chez un e-commerçant, qui vend ce type de produit et achète des « mots-clés » à Google pour apparaitre sur ces requêtes, la première génère de gros volumes de trafic et la seconde très peu. En revanche, le trafic lié à cette requête très précise est beaucoup plus qualifié, l’internaute ayant généralement une demande spécifique et une forte propension à acheter le produit s’il le trouve.

Ces requêtes constituent ce qu’on appelle la longue traine : beaucoup de requêtes à très petit volume et à forte pertinence (donc à fort potentiel de conversion). Certaines sont donc très intéressantes mais pléthoriques ! « Travailler ces requêtes » demande davantage de temps, d’investissement et surtout nécessite de la visibilité sur celles qui « rapportent ». C’est cette information que Google tend à conserver pour lui.

Pour mémoire, en 2016, Google cesse de fournir dans Analytics la vision des requêtes exactes des internautes. C’est l’avènement du « Not provided » au grand dam des spécialistes du référencement naturel, pour lesquels il devient plus difficile de mettre en œuvre l’optimisation sémantique. Il y a néanmoins un moyen de contourner le problème : se servir du « Search Query » Google Ads qui permet aux techniciens du référencement payant d’affiner leurs campagnes.

Ce rapport, qui donne la liste des requêtes réelles tapées par les internautes, permet de savoir si ce dernier a abouti sur la page « basket cuir » en cherchant cela ou quelque chose de plus précis. Si tout le monde cherche des « blanches à rayures noires » et en 43, il est préférable de se positionner fortement sur cette requête-là plutôt que de dépenser son argent sur toutes les « basket cuir », au risque d’attraper du trafic inutile.

Google avait commencé à rogner le bas de la liste depuis plusieurs mois déjà mais occulte à présent, d’après les évaluations qui ont circulé, plus d’un quart du listing. Il faut donc lui faire entièrement confiance pour l’optimisation de cette partie des campagnes puisque l’information pour le faire soi-même n’est plus visible.

Une perte de contrôle progressive

Google pousse à marche forcée agences et annonceurs vers l’automatisation et l’usage extensif de ses algorithmes. Plus on avance, plus l’intelligence artificielle de la machine s’occupe de tout. Smart Shopping, Smart Bidding… Mettez tous vos mots – et vos sous – dans un grand sac et le moteur fera au mieux des intérêts de chacun…

Le problème est que la gestion manuelle à l’ancienne est basée - quand elle est bien maitrisée - sur de la segmentation très fine. Des petits paquets de requêtes sont faits, qui pèsent de petits volumes de clic, auxquelles répondent des annonces très ciblées. Or l’algorithme, pour fonctionner, a besoin de volume de données. Si les volumes sont trop petits, il prend trop de temps pour caler ses décisions, voire se trompe.

En coupant la visibilité sur la longue traine, Google oblige de fait les annonceurs à la traiter de façon indifférenciée et à laisser le moteur prendre tout en main comme un volume global.

A date, l’impact reste limité. Il est néanmoins beaucoup plus fort pour un e-commercant à large catalogue, dont les campagnes doivent adresser des champs sémantiques très variés pour des produits très disparates. Il y a peu d’impact dans les secteurs ou 10% des mots (voire 10 mots…) pèsent 90% des volumes.

Cela n’en reste pas moins une boite noire. Le risque à long terme, si ce fonctionnement se généralise, est une perte de contrôle des annonceurs sur leurs budgets, Google pesant, pour certains d’entre eux, une partie considérable du trafic utile et du business, ce qui le rend incontournable.

Cultiver ses autres sens

L’IA et l’automatisation ne vont pas marquer le pas, c’est certain. Une démarche saine consiste à profiter de la visibilité disponible pour l’instant pour mener des tests comparatifs et identifier ce qui marche mieux en « full automation » et ce qui nécessite encore de la prudence et de la segmentation.

Force est de constater que dans certains contextes les outils à base d’IA s’avèrent efficaces et plus rentables que la gestion manuelle. S’il y a une courbe d’expérience que les agences doivent engranger pour conserver leur valeur ajoutée, c’est celle-là ; et la mémoire des situations où cela ne fonctionne pas du tout (il y en a). Aider les annonceurs à identifier des critères objectifs et à conduire ce genre d’arbitrage devient une compétence cruciale.

Par ailleurs, il peut être utile pour certains annonceurs de creuser davantage leur propre data pour conserver des moyens de segmenter leur cible et leur offre même sans l’input de la data Google. En effet, la tendance à laisser la main à la machine ne concerne pas que ce dernier. Dans Facebook et Instagram, l’annonceur est poussé à ne pas splitter ses budgets et à laisser l’algorithme se charger de la répartition budgétaire entre les deux réseaux.

Compte tenu du poids de ces plateformes dans l’acquisition digitale aujourd’hui, la meilleure façon de ne pas être aveugle quand ces dernières éteignent la lumière, c’est de cultiver ses autres sens.

(Les tribunes publiées sont sous la responsabilité de leurs auteurs et n'engagent pas CB News).

À lire aussi

Filtrer par