여행가고싶은블로거지만여행에대해다루진않을수있어요

Qu'est-ce que le Crawling (exploration web) ?

Création: 2024-04-26

Création: 2024-04-26 17:29

Le crawling (Crawling) est le processus par lequel un moteur de recherche ou un web crawler (également appelé robot ou spider) exploreautomatiquement les pages Web sur Internet et collecte des informations . Grâce à ce processus, les moteurs de recherche peuvent comprendre le contenu des innombrables pages Web présentes sur Internet, les indexer et les intégrer aux résultats de recherche. Voici une description détaillée du concept et du processus de crawling.

Image d'un robot d'exploration web fictif

Robot d'exploration web fictif - Source : ChatGPT4

Concept du Crawling

Web Crawler : Il s'agit d'un logiciel ou d'un bot qui effectue le crawling. Le crawler accède à un site Web spécifique, suit les liens et collecte et analyse le contenu des pages.

Indexation : Il s'agit du processus de stockage du contenu des pages Web collectées par le crawling dans la base de données du moteur de recherche. Au cours de ce processus, le moteur de recherche analyse le contenu de chaque page, les métadonnées, les mots-clés et la structure des liens.

Plan du site (Sitemap) : Il s'agit d'un fichier qui décrit la structure et les pages d'un site Web. Le crawler se réfère au plan du site pour crawler efficacement les pages du site Web.

Processus de Crawling

Page de départ : Le crawler commence généralement par un site Web ou un domaine racine déjà connu. Il utilise cette page comme point de départ pour le crawling.

Suivi des liens : Le crawler suit les liens dans les pages Web et se déplace vers d'autres pages via ces liens. Le crawling progresse en suivant les relations entre les pages Web de cette manière.

Collecte de contenu : Le crawler collecte le texte, les images et les métadonnées de chaque page. Ces informations sont stockées dans l'index du moteur de recherche et utilisées pour générer les résultats de recherche.

Répétition : Le crawler continue de crawler plusieurs pages, trouve de nouveaux liens et collecte des pages supplémentaires.

Exemples de Crawling

Moteur de recherche Google : Google explore l'ensemble du Web pour générer des résultats de recherche. À cette fin, il utilise divers web crawlers, et les informations crawlées sont transformées en données consultables via le processus d'indexation de Google.

Crawling spécialisé : Il existe également des crawlers spécialisés dans des sujets ou des secteurs spécifiques. Par exemple, Google Scholar (Google Scholar), qui explore les articles scientifiques, ou des sites Web immobiliers qui explorent les informations immobilières.

Sites Web de comparaison de prix : Les crawlers collectent les informations sur les prix des boutiques en ligne pour fournir des services de comparaison de prix. Par exemple, ils peuvent explorer les informations sur les produits de plusieurs boutiques en ligne pour aider les utilisateurs à trouver le prix le plus bas.

※ En Corée, vous pouvez vous référer à "Naver Shopping" (네이버쇼핑) qui affiche des informations provenant de divers sites de shopping, pas seulement de "Naver". Le site "Danawa" (다나와) est similaire.

Crawling des médias sociaux : Les informations publiques des médias sociaux peuvent être crawlées et utilisées pour l'analyse des tendances, l'élaboration de stratégies marketing, etc. Par exemple, il existe des outils qui collectent et analysent les informations sur Twitter concernant des hashtags ou des sujets spécifiques.


Le crawling est une technologie essentielle qui rend possible divers services Web, y compris les moteurs de recherche. Cependant, lors de l'exécution du crawling, il est important de respecter la norme d'exclusion des robots (Robots.txt) et les règles de protection des données personnelles des sites Web.

Commentaires0