logo
languageFRdown
menu

Comment scraper des sites Web sans être bloqué en 5 minutes ?

6 minutes de lecture

Le web scraping est une technique souvent utilisée pour simuler automatiquement le comportement de navigation humaine afin de récupérer efficacement et automatiquement de grandes quantités de données à partir des pages Web. C’est pourquoi des outils de web scraping comme Octoparse deviennent populaires et profitent considérablement aux personnes dans tous les domaines. 

Cependant, de plus en plus de propriétaires de sites web ont équipé leurs sites de toutes sortes de mesures anti-scraping, rendant le scraping difficile. Un exemple fréquent : le scraping surcharge un serveur web et risque d’entraîner une panne du serveur.

Mais il n’y a rien à être frustrant, car il existe toujours des moyens pour lutter contre les techniques anti-scraping.

Dans cet article, nous allons vous présenter une solution idéale pour faire le web scraping tout en évitant le blocage.

Comment des sites web détectent le web scraping ?

D’une manière générale, les sites web identifient les robots de scraping à partir de plusieurs mécanismes, ils sont :

 

1. Fréquence inhabituelle de visites depuis un seul IP

On rencontre souvent un tel sénario où sur les pages web se lisent des messages comme “en attente de chargement”, “veuillez attendre”. Il s’agit d’une restriction imposée aux utilisateurs par le site pour soulager la pression. Et un robot de scraping parcourt les pages web beaucoup plus vite et fréquemment que les utilisateurs réels. Si un certain IP visite le site d’une fréquence très élevé dans un temps limité, il sera considéré comme un robot de web scraping et ainsi sera bloqué.

 

2. Trafic inhabituel ou taux de téléchargement élevé depuis un seul IP

Le trafic ne désigne pas seulement celui causé par le téléchargement, mais un grand nombre de demandes simultanées. Étant donné que un grand nombre de demandes simultanées peut apporter une charge importante au serveur, il est normal que le blocage s’introduit.

 

3. Trop d’actions répétitives

Nous savons que l’habitude de navigation varie entre les différentes personnes : certaines ont besoin de 5 secondes, d’autres 1 minutes. Si un grand nombre de IPs parcourent d’une même vitesse (par exemple, 3 secondes), c’est suspect.

 

4. Analyser headers (l’en-tête HTTP)

En plus des trois facteurs, les sites analysent également les headers. Il y a de nombreux paramètres, dont le plus fréquent est User-Agent. Chque navigateur a son User-Agent. Si on ne fait pas attention, notre tâche de scraping risque d’être bloquée.

 

5. Utiliser des liens de piège

Lorsque les crawlers parcourent une page web, ils détectent toutes les URLs présentes et cliquent dans chacune d’entre elles, surtout quand il s’agit des crawlers qui n’ont pas un cible assez clair. Donc, certains sites essaient de mettre des liens de piège dans les CSS ou JS. Les utilisateurs réels ne vont pas visiter ces URLs et l’objectif est d’aider à détecter et identifier les crawlers.

Cinq conseils pour contourner le anti scraping

1. Ralentir le scraping

La plupart d’essais de web scraping visent à extraire les données le plus rapidement possible et une navigation réelle humaine est beaucoup plus lente par rapport à ce qui se passe avec le web crawler. En conséquence, il est vraiment facile pour un site d’identifier un scraper en suivant la vitesse d’accès. 

Donc veuillez ne pas surcharger le site. Vous pouvez mettre un certain délai entre les demandes et limiter les pages visitées simultanément à 1-2 pages. Apprenez à scraper le site Web gentiment, et  vous pourrez le scraper continuellement.

 

2. Utiliser des serveurs Proxy

Quand un site détecte qu’il y a un certain nombre de demandes venant d’une seule adresse IP, il bloquera l’adresse IP. Pour éviter d’envoyer toutes vos demandes depuis la même adresse IP, vous pouvez utiliser des Serveurs Proxy. Un serveur proxy est un serveur (un système informatique ou une application) qui joue le rôle d’intermédiaire pour les demandes depuis clients recherchant des ressources auprès d’autres serveurs. Avec un serveur proxy, les demandes seront envoyées depuis l’adresse IP que vous avez configurée, en masquant votre véritable adresse IP.

Bien sûr, si vous utilisez une seule adresse IP dans le serveur proxy, vous risquez toujours d’être bloqué. Vous devez créer un pool d’adresses IP et les utiliser de manière aléatoire pour envoyer vos demandes depuis une série d’adresses IP différentes.

 

3. Diversifier les modèles d’exploration

L’homme navigue sur un site avec des clics aléatoires et la durée de vue diffère. Mais, le web scraping suit toujours le même modèle car les robots programmés suivent une logique pré-configurée. Ainsi, les mécanismes anti-scraping peuvent facilement détecter le robot en surveillant les comportements de grattage répétitifs.

Vous devrez changer votre modèle de scraping de temps en temps, ajouter des clics aléatoires, changer le temps d’attente.

 

4. Changer d’user-agents

Un user-agent (UA) est une chaîne dans l’en-tête (le header) d’une demande, indiquant au serveur web cible le navigateur et le système d’exploitation. Chaque demande inclut un user-agent. Utiliser un user-agent pour un nombre anormalement élevé de requêtes vous mènera au blocage.

Pour vous protéger du blocage, vous devez changer fréquemment l’agent utilisateur au lieu d’utiliser toujours un.

 

5. Faire attention aux pièges

Les Honeypots (pot de miel) sont des liens invisibles pour les visiteurs normaux, mais qui sont visibles dans le code HTML et peuvent être trouvés par les crawlers. Ils sont comme des pièges pour détecter le crawler en le dirigeant vers des pages vierges. S’il y a une visite d’une page de Honeypot, le site Web peut la considérer comme une visite de crawler et bloquer toutes les demandes de ce client.

Quand on crée un scraper pour un site particulier, il vaut la peine de vérifier attentivement s’il existe des liens de piège.

Meilleure solution pour scraper un site web sans être bloqué

 

Avec le besoin croissant de données, apparaissent beaucoup d’outils de web scraping, permettant à scraper des données sans être bloqué. Je vous recommende surtout Octoparse, outil non-codage, mais assez puissant pour vous aider à récupérer les données désirées.

Ce logiciel est équipé des fonctions avancées pour protéger ses utilisateurs du blocage. Voyons de près qu’est-ce qu’il peut faire.

  • 🗸 Paramétrer un temps d’attente avant de l’exécution de chaque étape. Il existe même une option «random» pour simuler le scraping humain.
  • 🗸 Octoparse Cloud Service est supportée par des centaines de serveurs Cloud, chacun avec une adresse IP unique. Pour une tâche exécutée sur Cloud, les requêtes sont envoyées depuis différentes adresses IP, minimisant alors les chances d’être détecté.
  • 🗸 Des proxies résidentiels intégrés dans Octoparse. Attention qu’ils sont disponibles sur la version 8.5.4. 
  • 🗸 Avec Octoparse, vous pouvez définir une rotation de UA.
  • 🗸 Supprimer les cookies automatiquement.
  • 🗸 Octoparse utilise XPath pour capturer les liens dans la fin de faire des clics précises, en évitant de cliquer sur les faux liens.

En outre, des sites d’e-commerce, comme Amazon, eBay mettent en service un mécanisme de blocage strict, rendant le scraping plus difficile. Ne vous inquiétez pas, Octoparse offre un service de données. Il vous suffit d’indiquer ce dont vous avez besoin pour que l’équipe d’expert vous dépose les données désirées.

Téléchargez dès maintenant Octoparse pour essayer de scraper un site web sans être bloqué et au cas où vous rencontriez des problèmes, n’hésitez pas à nous contacter.

Articles populaires

Explorer les sujets

Commencer votre découverte de Octoparse dès maintenant

Télécharger

Lecture conseillée