Valoriser ses contenus en exploitant leurs données

Auteur : Aucun commentaire Partager :

Une tribune de Nicolas Reffait, Associé chez BearingPoint, co-organisateur de Adforecast#5

On parle fréquemment des apports de l’intelligence artificielle (IA) et du machine learning dans les sphères du marketing et de la publicité, mais beaucoup moins lorsqu’il s’agit des contenus.
On a certes à l’esprit Netflix et son moteur de recommandation, utilisé comme argument de différenciation avant même son internationalisation, et Spotify pour son articulation des intelligences humaine et robotique dans la construction de ses playlists. On pense également aux algorithmes de Facebook ou de YouTube, rarement dans une perspective technique, mais toujours dans un débat sur l’enfermement algorithmique.
On disserte sur les apports du content-based et du collaborative filtering et pourtant, au-delà de ces exemples emblématiques, il y a peu de discours généralisé sur les apports de l’IA au secteur des industries de contenus. C’est pourtant une des clés qui permettra aux acteurs, dans le contexte d’une concurrence généralisée et d’une offre pléthorique, de se distinguer auprès de leurs clients. Et, plus prosaïquement, c’est aussi pour eux un formidable levier de performance sur leurs métiers « classiques » (acquisition, distribution, diffusion…).

Rapprocher les données clients des données contenus

Pour améliorer l’exposition de son catalogue de contenus et sa prise en main par les clients, que l’on parle indifféremment de vidéo, d’écrit ou de son, il y a deux mondes à rapprocher, deux univers à orchestrer.
Tout d’abord, la connaissance individualisée du client, qui passe par l’agrégation des événements caractérisant son engagement. Appétence éditoriale, plateformes d’usage préférées, éléments de signalétique, comportement social, et plus rarement contexte de consommation, diversité d’intérêt et déformation dans le temps, sont autant de facteurs de connaissance fine des audiences (observée / enrichie / calculée). Savamment agrégés et clusterisés, maintenus dans le temps et rendus exploitables, ils deviennent de redoutables moteurs à la personnalisation de l’expérience, et les conditions de sa pertinence. Ce savoir-faire devient une commodité et un écosystème progiciel se structure. Le client s’habitue alors à la qualité des recommandations. Il se montre même prêt à transmettre ses données personnelles si cela contribue à l’amélioration de l’expérience.
Le second monde est celui du contenu, et étrangement, il est mal maîtrisé par les acteurs dont c’est le métier, et donc partiellement inexploité. Faut-il y voir les réminiscences d’une industrie linéaire, où ce qui est publié est déjà l’actualité d’hier, où les programmes achetés ne seront diffusés que des mois plus tard? Ou alors le syndrome d’une industrie prototypique, qui considère que chaque «produit» est unique et singulier, que chaque journée est différente de la veille et du lendemain? À y regarder de près, la réalité est plus crue : manque de vision et d’attention managériale, manque de culture data, sous-investissement technologique, défaut de mobilisation des ayants droit en amont et ruptures dans la chaîne de traitement des données, les causes sont nombreuses. Pourtant, une exploitation fiable et exhaustive des données est déterminante pour améliorer la «découvrabilité» et le référencement sur tous les canaux (internes et externes), et nécessaire à la fiabilisation de la recommandation.

Le nombre de données à traiter n’est pas hors de portée

En audiovisuel par exemple, on peut ramener à une vingtaine de «golden data» le champ des informations à détenir impérativement sur l’ensemble des programmes, et une cinquantaine de données additionnelles spécifiques à chaque catégorie (fictions, flux, jeux, jeunesse, documentaires…). Le volume de programmes à ingérer peut s’avérer plus
contraignant, notamment lorsqu’il embarque un ensemble de contenus « tiers », et que les protocoles de transfert n’intègrent pas la nécessité de communiquer ces métadonnées.
Bâtir un «funnel» d’ingestion des contenus permet également d’appliquer un ensemble de traitements automatiques d’enrichissement: speech-to-text et inversement, face recognition, génération de vignettes (non spoilantes mais signifiantes, pour illustrer les épisodes d’une série par exemple), recherche des points optimaux d’insertion publicitaire… De la même manière qu’il est possible pour Netflix d’établir un classement des programmes acquisitifs pour chaque zone géographique à tout instant, un acteur français de l’édition doit pouvoir – même si l’usage tracking est nul par définition – estimer le potentiel de ventes d’un titre en lancement par l’exploitation des données qui le caractérisent. En ce sens, nous construisons pour le compte d’un acteur majeur de l’édition aujourd’hui une solution pour centraliser les données de l’ensemble des ouvrages, et affiner les décisions de tirage en fonction des potentiels de vente.
Avec des chaînes algorithmiques adaptées à chaque titre, notre solution NITRO équipe la quasi-totalité de la presse quotidienne nationale et un nombre grandissant d’acteurs de la PQR pour estimer, chaque jour et dans chacun des points de vente, en fonction de l’actualité et de la force de la Une, l’exact nombre d’exemplaires à distribuer pour maximiser les ventes et minimiser les invendus.
De la même manière, on peut aujourd’hui prévoir le potentiel de consommation d’un programme sur une plateforme VOD avant même qu’il soit acquis, par la performance des «look-alike», identifiés par métadonnées.
La plupart des acteurs traditionnels sont loin de maîtriser leurs métadonnées contenus, d’avoir élaboré les chaînes de traitement, de disposer des compétences-clés et du soutien managérial. Il est urgent de mettre fin à cette aberration économique : investir autant dans ses contenus et si peu dans leur valorisation.

Nicolas Reffait,
Associé, BearingPoint


Lire aussi :

. tous nos articles sur Adforecast

. Dix insights sur les Français et leurs abonnements culturels numériques (BearingPoint, avril 2021)

Synchroniser le marketing contenu et la technologie pour piloter les abonnements (BearingPoint, octobre 2019)

. Médias et publicité : l’heure des choix (BearingPoint, octobre 2018)

Industrie des médias : la résilience face à l’hyper-concurrence  (BearingPoint, octobre 2017)

Article précédent

De l’influence de la prévision au rôle de la science-fiction

Article suivant

Fusion TF1/M6 : «Une alternative forte à Google et Facebook»

Vous pourriez également aimer...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.