« Nous ne pouvons pas laisser partir les données comme ça »

Comment transformer son trafic automatisé (scraping bots) en nouvelles lignes de revenu ? C’est le sujet dont le GESTE (Groupement des Éditeurs de Contenus et Services en Ligne) s’est emparé dans le cadre d’une conférence, organisée en partenariat avec DataDome, qui a eu lieu le 7 décembre à Paris.

Fortement engagé dans cette réflexion, Jean-Charles Falloux, Managing Director Digital Media & Tech Innovation du quotidien Les Echos, a partagé son retour d’expérience en tant qu’utilisateur de la technologie DataDome.

Il a partagé le podium avec deux représentants des entreprises du big data : Raphael Labbé, fondateur de Wiztopic, plateforme de gestion et de distribution de contenus pour les directions de communication, et Mickaël Réault, fondateur de Sindup, plateforme de veille stratégique et e-réputation.

Le débat a mis en évidence une série de défis à relever aussi bien par les éditeurs que par les entreprises du big data. Extraits :

Réduire les coûts d’infrastructure

Jean-Charles Falloux : « L’activité des crawleurs représente dans les 50% de notre trafic, et ce trafic engendre d’importants coûts d’infrastructure. Nous ne pouvons plus nous permettre d’avoir ces coûts de production qui ne correspondent à aucune ligne de revenu. »

Créer de nouvelles lignes de revenus

Jean-Charles Falloux : « Pour monétiser le contenu éditorial, nous avons déjà des partenaires, ça fonctionne. Là, nous commençons à valoriser une surcouche d’information. Nous voyons qu’il est possible de vendre plus qu’un article sous forme de syndication, il y a tout un tas d’informations autour qui ont aussi de la valeur, qu’il faut identifier et valoriser. Il ne s’agit pas d’engager de nouveaux coûts, mais de générer des revenus supplémentaires grâce à ce qui existe déjà. »

Raphael Labbé, fondateur de WizTopic

Raphael Labbé : « Nous ne faisons pas de crawl, mais nous travaillons avec des directions de la communication dont l’environnement s’est beaucoup complexifié. La diffusion de la communication a énormément changé : Les formats, les canaux, les cibles …

En même temps, les équipes sont souvent très réduites et le reporting est un vrai casse-tête pour eux. Nous savons tous que l’équivalence publicitaire est une métrique sans valeur, mais c’est tout ce dont ils disposent.

La plateforme Wiztopic les aide a mettre en perspective le travail qu’ils font et leurs résultats, et pour ça nous achetons de la data. Plutôt que de développer des crawlers — ce que nous ne voulons pas faire — nous achetons volontiers de la data de qualité pour enrichir ce que nous proposons à nos clients ».

Mickaël Réault : « Certaines informations ne sont pas facilement disponibles, mais ont beaucoup de valeur pour les directions de communication. Quels éléments ont été mis en une ? L’article a-t-il été publié dans la rubrique Sociétés ou la rubrique Business ? Combien de commentaires et de partages a-t-il généré, et y a-t-il des citations dans ces commentaires ? Qui a écrit l’article ? Ces informations ont une vraie valeur ajoutée et nous sommes prêts à payer pour les obtenir. »

Trouver le bon prix des items

Jean-Charles Falloux : « Quel est le bon prix de ces données comportementales, les partages, les commentaires, les nombres de vues ? Quelle est la valeur de ce contenu ? Pour l’instant nous sommes en phase de test avec DataDome, ce qui nous permet de tester les tarifs et d’ajuster au fur et à mesure. »

Fabien Grenier : « Nous vous conseillons sur les prix et les usages. Avant de fonder DataDome, mon co-fondateur Benjamin Fabre et moi-même avons créé une société de social media monitoring, et nous avons créé et utilisé de nombreux robots. Nous baignons dans cet univers depuis des années, nous connaissons les usages, et nous pouvons vous guider. »

Identifier rapidement les nouveaux entrants

Jean-Charles Falloux : « Notre démarche est d’être actifs sur le marché et comprendre comment il fonctionne. Il est important d’être capable d’identifier rapidement les nouveaux robots qui arrivent en permanence. Qui sont-ils ? Que viennent-ils chercher ?

Le back office DataDome a révélé des crawlers que nous ne soupçonnions pas, entre autres beaucoup d’américains. Nous avons pris conscience de la complexité du sujet. »

Fabien Grenier : « Les nouvelles possibilités techniques nous permettent désormais de scanner tous les hits entrants d’un site, et ainsi de voir tous les robots. Nous vous proposons un dashboard simple pour gérer tout ça en temps réel.

Vous pouvez bloquer ceux qui viennent chercher le contenu éditorial, mais l’objectif principal est de générer des nouvelles lignes de revenu. »

L’union fait la force

Mickaël Réault : »Nous sommes en attente d’une solution qui rend le marché plus sain. Les acteurs qui ne jouent pas le jeu nous défavorisent.

Il est encourageant de voir réunis ici DataDome, le CFC, les représentants de la presse : tout le monde veut se positionner avec une chaine de valeur claire et identifiée, assainir les choses et les pratiques qui existent déjà, et retravailler les usages existants avec des offres claires. »

Jean-Charles Falloux : « L’idée n’est pas de bloquer tous ces robots, mais de former des partenariats. Avec du contenu de meilleure qualité, ces entreprises peuvent vendre leurs services plus cher — mais nous souhaitons une contrepartie.

Ce n’est pas notre cœur de métier, mais nous ne pouvons pas laisser partir nos données comme ça. Seulement, ça marchera uniquement si nous sommes nombreux. Il faut que la majorité des éditeurs jouent le jeu. »

Conclusion

Cet échange fructueux est l’aboutissement d’un processus ayant démarré il y a déjà quelques mois, ayant permis à Jean-Charles Falloux et à son équipe de faire le bilan de l’activité des bots sur Lesechos.fr et de découvrir le potentiel business détaillé dans le Traffic Quality Report de DataDome. Celui-ci a été conçu pour évaluer la qualité du trafic et plus précisément l’activité des bots, pour définir et ajuster des actions contre les bad bots et générer de nouvelles opportunités avec les sociétés du big data.

DataDome poursuit actuellement ses discussions avec les grands éditeurs de la presse quotidienne nationale et régionale désireux de mieux contrôler leur trafic automatisé et dégager de nouveaux revenus.