La prépondérance des mots-clés pour la recommandation sur YouTube, constate le CSA

youtube
(© Thierry Wojciak/CBNews)

L'algorithme de YouTube (Google), régulièrement accusé de promouvoir des contenus néfastes, se base plus sur les mots-clés accolés à une vidéo que sur son succès pour la recommander, selon une étude du Conseil supérieur de l’audiovisuel (CSA) présentée mardi. YouTube est toujours resté mystérieux sur les réglages de son algorithme, en évolution constante, ne révélant jamais précisément le rôle joué par les différentes mesures (temps passé sur la vidéo, temps de session, nombre de vues ou de « likes ») dans le moteur de recommandation. La plateforme, qui affiche un milliard d'heures de visionnage par jour, ne communique aucun chiffre non plus sur la part de visionnages issus des recommandations, par rapport aux vidéos cherchées directement par les utilisateurs. Le CSA s'interroge dans l'étude sur la "diversité de points de vue" proposée dans les sélections des algorithmes.

Le Conseil, qui devrait bientôt obtenir un pouvoir de sanction sur les plateformes dans le cadre de la réforme de l'audiovisuel, a réitéré une expérience déjà menée par des youtubeurs, chercheurs et médias, en se concentrant sur les opinions véhiculées par les vidéos. 42 utilisateurs-témoins ont lancé des vidéos sur 23 sujets "susceptibles de susciter des clivages" comme la corrida, la laïcité, la drague de rue, le véganisme ou la mort de Michael Jackson. Les 10 vidéos recommandées successivement par YouTube ont ensuite été analysées. Résultat : dans ses premières recommandations, "l'algorithme semble accorder moins d'importance au nombre de vues, à la date de publication ou encore au nombre de réactions qu'aux mots-clés associés au thème de départ des vidéos", explique le CSA. Le dynamisme de communautés mobilisées sur certaines questions de société (dans les commentaires notamment) semble également "jouer un rôle central" dans la visibilité de ces vidéos.

Par ailleurs, plus d'un tiers des vidéos recommandées "expriment le même point de vue que la vidéo de départ", au risque de produire un phénomène dit de "chambre d'écho", souligne le CSA. Au fil des recommandations, 44 % des vidéos proposés par la lecture automatique vont dans le même sens que la vidéo directement précédente. L'expérience a également mis en lumière un "pivot", la troisième vidéo proposée en lecture automatique, après laquelle "l'algorithme semble définitivement dévier du thème de départ". Le robot recommande alors "des vidéos de plus en plus populaires (nombre de vues) et de plus en plus récentes", souligne le CSA.

YouTube réagit...

YouTube a répondu mardi en soulignant que son système de recommandations avait "considérablement évolué" depuis la réalisation de l'expérience à l'été 2018. "Nous avons depuis pris un certain nombre de mesures supplémentaires pour répondre à la problématique de la désinformation sur notre plate-forme", a souligné un porte-parole. La plateforme vidéo réduit les recommandations de contenus considérés comme problématiques. Le nombre de vues de ces contenus "tendancieux" a baissé de 50% depuis sa mise en place en janvier aux Etats-Unis, et la mesure devrait être effective dans les prochaines semaines en France.   YouTube met aussi en avant les contenus provenant de "sources faisant autorité", comme des médias, lors d'évènements majeurs. Les utilisateurs de la plateforme peuvent également supprimer de leur liste de "vidéos recommandées" les chaînes qu'ils ne souhaitent pas regarder, et devraient bientôt savoir pourquoi telle vidéo a été recommandée. Le CSA essaie progressivement d'établir une relation de confiance avec les géants d'internet, demandant plus de "transparence". "Les internautes doivent savoir comment leurs choix sont pris en compte", a souligné Hervé Godechot, conseiller au CSA, lors de la présentation de l'étude, ajoutant que "ces travaux doivent en amener d'autres".

À lire aussi

Recevez gratuitement les newsletters de CB News !
Filtrer par