Google a-t-il les mains dans le pot de confiture ?

La polémique a beaucoup animé les médias dernièrement : Google pipe-t-il son algorithme pour favoriser l’affichage de certains annonceurs ?

Ces débats sont de vieilles antiennes... Il y a 15 ans mes clients me posaient déjà la même question et cherchaient également à savoir si, pour être bien placé en résultats naturels, il fallait acheter beaucoup de mots clés chez Google. Idem lorsque le moteur s’est lancé dans les comparateurs Shopping. Toute la Place de Paris bruissait sur sa partialité vis à vis de l’affichage des résultats des comparateurs concurrents. Fort logiquement. Et les gros comparateurs sont montés au créneau pour sauver leur business.

Mais est-ce encore la « bonne » question ?

Vous vous demandez peut-être, vous aussi, si Apple freine volontairement votre IPhone lors de la sortie de son nouveau modèle ou si Zuckerberg ignorait vraiment que des données étaient tombées du camion au profit de Cambridge Analytica, et ce, à l’insu de son plein gré !

La vraie question est - comme pour ces vidéos « deep fake » qui peuvent nous faire croire que n’importe qui raconte n’importe quoi - avons-nous encore les moyens de savoir ce qui est vrai ?

L’intelligence artificielle, le Machine Learning, la masse croissante de Data, la dictature montante de l’automatisation nous permettent-elles encore d’être sûrs ?

Le débat récent qui a couru les réseaux sociaux sur l’automatisation par l’IA des campagnes de search l’illustre clairement. Dans le e-commerce et le web en général il y a autant de « pour » que de « contre », de gens qui y ont trouvé la pierre philosophale de la croissance que de déçus aigris. Pourquoi ? Parce que ce sont des maths, du traitement de données en masse, de la « data science » et que bon an mal an, c’est vendu en boîte noire avec un joli ruban de vulgarisation.

Faites varier un paramètre ou une condition à l’origine et le résultat bascule du triomphe au fiasco. Une intelligence artificielle c’est un algorithme mais les résultats que l’on peut en tirer dépendent également de la façon dont on le nourrit ainsi que d’un paramètre crucial : le volume de données que l’algorithme a à sa disposition pour traiter. Pour décider intelligemment avec du machine Learning il faut beaucoup de data. Soit elle est disponible dans un temps court, soit il faut attendre longtemps pour avoir le volume nécessaire et ce n’est pas toujours possible.

Bien sûr Google pousse à automatiser et à utiliser ses outils ; bien sûr il y trouve son intérêt et une maximisation de ses profits mais il y a des contextes dans lesquels c’est aussi au profit des annonceurs. Pas tout le temps et pour le savoir il faut essayer.

La vraie difficulté est que toutes ces technologies deviennent trop pointues pour être analysées facilement.

Pour un professionnel du search aujourd’hui, la vraie compétence n’est pas de savoir ce qu’il y a dans l’algorithme mais de l’avoir testé dans de nombreux contextes différents. C’est le cas pour le SEO. Rien n’est déclaratif. Lors d’une mise à jour, les portes paroles de Google ne donnent jamais un détail fonctionnel précis. Charge au « pros » du SEO de tester. Il en est également de même en search payant, aujourd’hui. Google propose des « smart machins » et explique aux marques que l’algorithme fera le tri. Le « comment » n’est pas important. C’est le résultat qui compte.

Au-delà de l’argumentaire commercial, la réalité est que le nerf de la guerre, c’est la qualité, la granularité et la volumétrie des données qui alimentent le processus de machine learning, mais que les résultats sont parfois fortement contre intuitifs. Il n’y a que le test qui vaille.

Avant de réussir à prouver qu’un GAFA - où une autre entreprise de technologie - triche dans son algorithme et il y aura 10 autres algorithmes mis en place sans avoir obtenu un début de réponse… et sans compter le temps de la justice si l’on va jusque-là !

Nos vrais risques sont plutôt systémiques. Systémiques parce que le moindre GAFA pèse le PIB de plusieurs pays et qu‘aujourd’hui une grande part de notre représentation du monde se construit sur l’image que nous en donne les moteurs de recherche et les réseaux sociaux.

Il est important pour la démocratie que celle-ci soit la moins fausse possible.

En Chine, les équivalents de Google et Facebook sont pilotés par le gouvernement et ce qui en est fait ne donne pas très envie à l’aune des libertés individuelles...

Systémiques aussi parce que le poids économique des GAFA les affranchit énormément de la régulation des états. C’est depuis longtemps un poids politique à part entière. Il suffit de voir la croissance colossale du nombre de lobbyistes qu’ils appointent.

Une initiative comme Libra montre à quel point les GAFA sont sortis du champ classique de l’activité commerciale. Facebook veut battre monnaie ; pas juste monter un second Paypal.

On peut continuer à chercher les biais dans les technos des GAFA, il y en a sûrement autant que de « Dieselgate » dans le marché automobile, mais on y verra de moins en moins clair. Peut-être vaut-il mieux savoir quel type de régulation nous conduirait au meilleur équilibre entre technologie, démocratie, libre concurrence et liberté individuelle que de chasser régulièrement des sorcières qui volent plus vite que nous.

Je vous laisse deviner si cet article n’est pas écrit par un robot :-).

(Les tribunes publiées sont sous la responsabilité de leurs auteurs et n'engagent pas CB News).

À lire aussi

Filtrer par