FAQ: Frequently asked questions for DataDome

« Bots », « hits », « scraping »… qu’est-ce que ça signifie ?

Pas d’inquiétude. Cette page contient toutes les informations nécessaires pour comprendre ce que nous faisons, pourquoi nous le faisons, et comment nous le faisons.

Un bot (contraction de « robot ») est un programme automatisé ou semi-automatisé, conçu pour interagir avec des pages et serveurs web, pour accéder et traiter les données et contenus présents sur ces pages en imitant le comportement d’un utilisateur humain.

Un Good Bot est généralement conçu par un moteur de recherche, parcourant le web régulièrement pour indexer les pages des sites et les faire apparaître dans les résultats de recherche des internautes. Un Bad Bot est généralement programmé pour réaliser des missions frauduleuses telles que le vol de données, le scraping de contenus, l’intelligence concurrentielle ou la fraude publicitaire.

L’impact des bots peut se faire ressentir de diverses façons:

  1. Intelligence concurrentielle: impacte principalement les sites eCommerce et de petites annonces. L’agrégation et la réutilisation de vos données vous prive d’une part de votre trafic et d’opportunités de vente.
  2. Vol de contenu: la publication de contenus propriétaires impacte votre SEO, vous prive d’une part de votre trafic et impact vos revenus publicitaires.
  3. Fraude publicitaire: touchant les annonceurs, agences et régies publicitaires. Des clics et impressions invalides provoquent une hausse des dépenses publicitaires sans résultats viables.
  4. Hacking & attaques de type « brute force »: concrne potentiellement tous les sites. Des attaques de bots visant à récupérer des données sécurisées fragilisent les infrastructures d’un site, élevant les coûts de maintenance et impactant l’expérience client.

 

Le web scraping est l’extraction de données présentes sur un site, afin de les stocker ou de les rendre accessibles autre part. Alors que l’indexation (réalisée par les moteurs de recherche) cherche à faciliter l’accès des internautes aux données et informations qui leurs sont utiles, le web scraping permet à des tiers d’exploiter ces mêmes données en les récupérant à leur source.

 

L’ad fraud est un moyen de falsifier ou compromettre les campagnes publicitaires menées en ligne par des entreprises. Des programmes automatisés génèrent des clics frauduleux et de fausses impressions sur les liens, affichages et bannières d’un annonceur, le faisant payer pour des vues (en CPM) ou des actions (en CPC) invalides.
En termes techniques, un « hit » est généré pour chaque élément chargé par une page Web visitée par un humain ou un programme automatisé. Cela inclut la page en elle-même, mais aussi toutes les images et publicités qu’elle inclut, ou encore son CSS.
Par défaut, DataDome ne prend pas en compte le JavaScript, les images et le CSS pour comptabiliser les hits, mais notre module permet à nos clients de choisir quels types de hits doivent être intégrés et protégés..
Notre solution repose sur une méthodologie basée sur l’analyse de plusieurs milliards de hits reçus par nos premiers sites partenaires. Cette analyse nous a permis d’identifier les règles et critères techniques (analyse de l’IP, de l’user agent, du navigateur) ou comportementales (nombre de hits/heure, types de tentatives d’accès générées) définissant le comportement d’un Bad Bot de celui d’un Good Bot ou d’un humain.

La détection est la partie la plus importante. Une fois qu’un bad bot est identifié par notre serveur d’API, notre module peut décider en temps réel de lui refuser l’accès au site ou de lui proposer un Captcha.

En vous créant un accès aux dashboards DataDome, l’opportunité de télécharger un module de monitoring et de protection vous sera proposé. Vous n’avez qu’à choisir la version correspondant à vos serveurs, et à l’intégrer directement en copiant et collant le code proposé directement sur votre serveur.

Oui ! La solution de détection fournie par DataDome est gratuite et vous permet de procéder à l’analyse de votre trafic en temps réel via un dashboard dédié. Si vous souhaitez aller plus loin, nos services premium permettent de bloquer les bad bots et d’évaluer le potentiel de monétisation de leur trafic.

La création de votre compte DataDome vous donnera accès à une clé de licence permettant la communication avec nos serveurs d’API. Pour créer votre compte, rendez-vous sur notre espace d’inscription.

La solution DataDome peut être implémentée sur 80% des serveurs Web, incluant NginX, Varnish, Apache et IIS, ainsi que sur des applications telles que WordPress.
La solution DataDome donne accès à des dashboards personnalisés, permettant aux administrateurs systèmes et experts en sécurité de suivre en temps réel l’activité des bots sur leurs sites et plateformes.

En tant que fournisseur de solution SaaS, nous stockons toutes nos données en ligne. De fait, notre solution met moins de 2 millisecondes pour analyser un hit atteignant votre site et décider entre autoriser l’accès et bloquer un intrus. Vos visiteurs et clients ne s’en rendront pas compte – au contraire, ils pourront profiter d’une meilleure expérience grâce à l’optimisation de votre trafic. Les connexions KeepAlive créées par nos modules nous permettent d’estimer un temps de total maximal de 30 millisecondes.

  • Nos clients peuvent également programmer leur temps de timeout, qui désactivera le module une fois dépassé. Cette fonctionnalité assure que nos modules ne viendront jamais dégrader l’expérience utilisateur.
Assurer la protection des données de nos clients est une priorité pour nous. Tous les éléments sont stockés sur des index séparés, répartis dans plusieurs datacenters de niveau Tier 3.
En complément de notre focus sur la protection des contenus, infrastructures et publicités, notre solution protège également les sites et applications contre les attaques intrusives et injection SQL.
Bien que n’opérant pas au niveau de la couche réseau, DataDome permet d’éviter et contrer les attaques DDOS sur vos sites et applications en protégeant les éléments de votre site contre les attaques et injections de force brute.
Les hébergeurs peuvent assurer une protection au niveau de la couche réseau, permettant d’assurer la rapidité de votre site et gérant l’activité massive de certains bots, mais ne sont pas en mesure d’offrir une protection précise de vos pages et de vos contenus. DataDome intervient à ce niveau, en détectant et bloquant les bad bots plus avancés et moins visibles, contre lesquels les hébergeurs ne sont pas en mesure de lutter actuellement.
Bloquer une adresse IP ne suffit pas pour protéger efficacement vos contenus. EN procédant de la sorte, vous risquez en plus de bloquer les bots programmés par des moteurs de recherche, ou des visiteurs humains dans la mesure ou une seule adresse IP peut être attribuée à plusieurs centaines d’utilisateurs différents. De nombreux bots sont programmé de façon assez intelligente pour ne générer que quelques hits sur une seule adresse IP afin de rester indétectables par les solution de protection reposant sur l’analyse du volume. solutions.

Essayez DataDome gratuitement pendant 30 jours

  • Créez et activez votre compte en moins d’une minute, sans engagement ni carte bancaire
  • Installez le module sur votre site en moins de dix minutes
  • Accédez à votre tableau de bord
  • Découvrez toute l’activité des robot sur votre site : Les good bots, les bad bots et les bots monétisables !