Avec Datakalab, TF1 veut capter l’attention

Datakalab

En marge de la présentation de la saison 4 du Media Lab TF1, CB News a rencontré Xavier Fischer, CEO de Datakalab. La startup – qui vient de rejoindre le programme d’accélération – travaille avec le groupe TF1 en intégrant sur sa plateforme MyTF1 un algorithme qui permet de détecter les émotions de ses utilisateurs, notamment pendant qu’ils regardent la publicité.

Quelle est la genèse de Datakalab ?

Je suis ingénieur de formation. Avant de cofonder Datakalab en 2017, je travaillais à San Francisco dans une startup qui développait des algorithmes qui détectent les émotions des gens. En janvier 2016, on s’est fait racheter par Apple pour faire Face ID. J’étais assez frustré, parce qu’il y a plein d’usages, et qu’il y avait plein de choses à faire. Donc je me suis dit : essayons de recréer quelque chose. Avec mon frère, aussi ingénieur, et le publicitaire Franck Tapiro, on a cofondé Datakalab. Deux chercheurs de l’Institut des Systèmes Intelligents et de Robotique (ISIR) de l’université Pierre et Marie Curie (Kévin Bailly et Arnaud Dapogny) se sont associés au projet pour créer des algorithmes d’analyse de l’image, et les verticaliser afin d’en faire des produits, pour rendre ça impactant. Notre but, c’est de profiter du RGPD pour s’implanter sur le marché européen.

Comment ça fonctionne ?

Notre but, ce n’est pas de comprendre un individu, mais de faire de l’agrégation. On va analyser 100 ou 200 personnes et on va regarder si statistiquement ils ont réagi au même moment ou non. Pour faire de la détection d’émotions, on a besoin d’un tracker de points : on aligne une centaine de points sur le visage des gens, on track une cinquantaine de muscles. Automatiquement, l’algorithme arrive à quantifier 100 points caractéristiques sur le visage. Après, on peut soit partir en reconnaissance faciale pour voir si les points sont les mêmes ou aussi partir dans de l’analyse contextuelle : les émotions, la tension, le clignement des yeux, les hochements de tête. Nous on est partis de ce côté-là.

En quoi consiste votre partenariat avec MyTF1 ?

On veut tester le contexte. Après avoir donné son accord, l’utilisateur va utiliser le direct ou le replay de MyTF1, il va regarder l’émission qu’il veut. Nous on va filmer la personne avec son accord, et en post-processing on va analyser son visage et ressortir seconde par seconde son temps d’attention, son émotion. Tous ces scores-là vont nous permettre de faire des statistiques pour voir, par exemple, si la publicité qui est la troisième dans le mid-roll elle créé moins d’attention. Notre but, c’est vraiment de prendre en compte les émotions et le ressenti des consommateurs, pour permette à TF1 de vendre aux marques quelque chose de plus noble. Pour l’instant, on est en phase de test, avec des panels. On a commencé à travailler sur l’intégration de cette solution début septembre.

Où en est cette collaboration ?

Auparavant on avait travaillé avec TF1 Pub pour revaloriser les programmes de TF1 par rapport aux autres, on avait testé une vingtaine de programmes pour voir quelles étaient les émotions suscitées. Là, ce qu’on est en train de faire, c’est travailler avec les équipes data pour regarder quel est le format du funnel publicitaire le plus adapté. On s’intègre avec un petit Javascript sur leur site internet de façon à pouvoir nous tracker deux, trois évènements qui nous intéressent, et savoir à quel moment la publicité arrive. Ensuite, on s’occupe de capter la vidéo de la personne pendant qu’elle navigue, puis on synchronise les deux datasets (jeux de données, ndlr). On a la vidéo qu’on transforme en données d’attention, on a le contexte : à partir de ces datas, on construit les statistiques.

Vous avez besoin de capter combien de personnes ?

Pour l’instant, on fait du test and learn, avec des panels de démarrage de 500 personnes environ, et après on va étendre. Le but, c’est de voir aussi comment l’usage prend. Généralement, le taux de personnes qui acceptent ce type d’études est de 20%, donc sur le site de TF1 c’est largement suffisant. Après, il faut que la bannière soit vue : il faut qu’on regarde comment on le met en production et comment on propose cette offre, parce que notre but est que les gens aient envie de faire ça. Peut-être qu’on va leur montrer leurs résultats en termes d’attention à la fin, on est en train de réfléchir à tout ça.

Comment Datakalab va se développer à l’avenir ?

On a fait une petite levée de fonds (montant non dévoilé, ndlr). En ce moment, on est en train de compresser nos algorithmes, pour les faire tourner sur des petits ordinateurs, ce qui nous permet de scaler notre business model : aujourd’hui on traite les vidéos en post-processing, demain on sera capable par exemple de mettre des caméras dans une vitrine pour aller voir le nombre de gens qui passent et leur niveau d’émotion. Il n’y a pas de données personnelles qui sont stockées, car il s’agit simplement de détection de mouvements, sans passer par l’image. C’est une suite de pixels qu’on traite sans avoir besoin de recréer l’image, de façon à ne pas avoir de données personnelles.

À lire aussi

Filtrer par