Monétisation : Découvrez le potentiel de votre site

Dans un secteur secoué par l’évolution des comportements, le rejet de la publicité et la recherche du gratuit, trouver de nouveaux moyens de développer son business model est un challenge constant. A cette fin, il devient nécessaire de s’interroger sur le potentiel de monétisation de chaque espace, chaque contenu, chaque élément présents sur les pages des médias en ligne.

Notre observation, basée sur le comportement de bots et des éléments recherchés par leurs éditeurs, montre que des solutions complémentaires à la publicité et aux abonnements peuvent exister pour vous permettre de générer des revenus.

Les acteurs interessés

Fiches produits, contenus rédactionnels ou réactions des lecteurs: chaque donnée à sa valeur, dans des cadres souvent bien spécifiques. Tour d’horizon des acteurs concernés.

Les contenus éditoriaux et rédactionnels ont une valeur grandissante pour les entreprises. Afin de faciliter la veille – sur des sujets de réputation, d’analyse de marché ou d’écoute client, de plus en plus de solutions captent en temps réel le contenu des sites média grâce à des crawlers. Ces contenus sont ensuite restitués, par extraits ou dans leur intégralité, parfois sans respecter les limites imposées par les licences de chaque éditeur et les dispositifs contractuels mis en place par le CFC.

Pour se parer du trafic de ces crawlers, la plupart des sites optimisent le fichier robots.txt de leur site. Mais cette technique n’est souvent pas suffisante pour empêcher le trafic des bots, et la captation automatisé des contenus propriétaires des médias Web.

Les outils de Business Intelligence scannent les pages des espaces de vente en ligne, automatisant la veille des prix, des promotions et de l’évolution des catalogues au sein d’un secteur. Un atout de poids pour leurs clients; un impact souvent moins bénéfique pour les sites ciblés.

Les bots utilisés pour mener à bien cette mission viennent parcourir massivement les pages, impactant les performances des sites ciblés. Les informations récoltées par ces bots permettent aux clients des éditeurs de solution d’adapter rapidement leurs propre prix pour coller à ceux de la concurrence, rendant les efforts de différenciation ou de promotion de plus en plus difficiles à valoriser.

Les agrégateurs de flux captent et redistribuent automatiquement des publications, en fonction de leur source ou de leur contenu, sur une base d’alertes de mises à jour. Généralement utilisés directement par des lecteurs, ces outils mettent directement à leur disposition les contenus, parfois dans leur intégralité.
Les solutions de database marketing offrent des services de lead generation et de market reaserch en agrégeant des bases de données massives de contacts qualifiés ou d’analyses technologiques. Ces bases de données sont mises à jour automatiquement grâce à des crawlers parcourant les sites de tout type pour en extraire des adresses mail ou des informations sur les services et technologies tiers déployés sur leurs pages.

Les outils de SEO analysent les structures et les contenus de votre site, pour permettre d’établir des reporting ou des analyses concurrentielles aidant les marques à optimiser leur référencement.

Cette analyse passe par une navigation massive de chaque page d’un site pour en tirer les informations pertinentes. Cette navigation automatisée, gérée par des bots, créé une charge supplémentaire sur les serveurs des sites et impacte l’expérience des humains souhaitant les visiter.

Les contenus ciblés par les bots

L’auteur

La multiplication des supports médiatiques entraîne une hausse du nombre de rédacteurs en activité sur les sites éditeurs de contenu – et dans l’univers des RP 2.0, la capacité d’une marque à identifier et apprendre à connaître les journalistes les plus pertinents est une ressource clé pour réussir.

De nombreuses solutions, pensées pour accompagner les directions RP des entreprises, sont aujourd’hui en mesure de scanner, analyser et dupliquer automatiquement les informations et contenus liés à un journaliste, afin d’automatiser son intégration et son actualisation dans des bases de données.

Auteur_monétisation

source: challenges.fr

LeMonde_Entités Nommées

source: lemonde.fr

Les entités nommées

Pour les marques, le suivi et l’agrégation automatisés des mentions de l’entreprise, de ses produits et de ses dirigeants est un enjeu majeur. Des milliers de bots appelés « crawlers » parcourent ainsi le Web, jour après jour, pour permettre à ces marques de garder un oeil sur leur réputation, sur les évolutions du secteur, et sur les opportunités marketing à venir.

L’accès et la mise à disposition de ces contenus se fait souvent hors des cadres de licences permettant aux éditeurs d’assurer la bonne monétisation de leurs contenus. Les articles captés par les crawlers peuvent être redistribués dans leur intégralité sur des plateformes d’analyse et de média monitoring, permettant à leurs utilisateurs de les lire sans faire apparaître de publicités. Les éditeurs de ces solutions parviennent alors de générer des revenus sur la base des contenus diffusés, sans redistribuer de valeur aux éditeurs initiaux.

Les commentaires

La valeur des avis clients et des données conversationnelles n’est plus à prouver. Pour les annonceurs, agences de communication et solutions de Webmarketing, savoir capter les conversations pertinentes et les restituer proprement est une nécessité croissante.

Les crawlers édités par de nombreuses solutions de monitoring sont aujourd’hui affinés par récupérer et remettre à disposition les commentaires d’articles lorsque ceux-ci mentionnent une marque, un produit, une information, une personnalité… une captation, et une restitution bénéficiant aux éditeurs de crawlers, mais jamais aux sites média où a lieu la conversation.

forum_frandroid

source: frandroid.com

Partages_HuffPo

source: Le Huffington Post

Les données de partage

Pour assurer une meilleure lisibilité de l’actualité, distinguer les tendances émergeantes ou pour identifier le potentiel de viralité d’un journaliste ou d’une thématique, les outils de veille et de média monitoring s’appuient sur les données de partage affichées publiquement par la plupart des sites médias.

Cette donnée apporte une valeur ajoutée aux solutions vendues aux annonceurs. L’information fait partie des contenus ciblés par les crawlers, qui les agrègent en temps réel et les rendent transformables en indicateurs visuels utilisés par les directions de la communication et du marketing de nombreuses entreprises.

Certains sites médias ont déjà déployé la solution DataDome sur leurs serveurs pour réaliser un état des lieux visant à mesurer et analyser le trafic non humain,  avec l’objectif de lister et d’identifier les entreprises de la big data éditrices de crawlers parcourant leurs pages. Cette première démarche leur a permis d’activer la protection de leur contenu en bloquant les robots en temps réel, et d’assurer la bonne transmission de leur offre aux entreprises de la big data identifiées, en ouvrant ainsi un nouveau canal de monétisation.

Nous offrons au sites médias la possibilité d’obtenir ce même état des lieux gratuitement. N’hésitez pas à nous contacter pour commencer à identifier vos nouvelles opportunités de monétisation :

*

*