여행가고싶은블로거지만여행에대해다루진않을수있어요

Was ist Crawling (Webcrawling)?

  • Verfasst in: Koreanisch
  • Land: Alle Ländercountry-flag
  • IT

Erstellt: 2024-04-26

Erstellt: 2024-04-26 17:29

Crawling (Crawling) ist der Prozess, bei dem eine Suchmaschine oder ein Webcrawler (auch als Roboter oder Spider bezeichnet) automatisch durch Webseiten im Internetsucht und Informationen sammeltDabei handelt es sich um einen Prozess, durch den Suchmaschinen die Inhalte unzähliger Webseiten im Internet verstehen und indizieren, um sie in den Suchergebnissen widerzuspiegeln. Im Folgenden finden Sie eine detaillierte Beschreibung des Konzepts und des Ablaufs des Crawlings.

Bild eines virtuellen Crawling-Bots

Virtueller Crawling-Bot - Quelle:ChatGPT4

Das Konzept des Crawlings

Webcrawler (Web Crawler): Eine Software oder ein Bot, der das Crawling durchführt. Crawler greifen auf bestimmte Websites zu, folgen Links und sammeln und analysieren die Inhalte der Seiten.

Indizierung (Indexing): Der Prozess, bei dem die durch Crawling gesammelten Inhalte von Webseiten in der Datenbank der Suchmaschine gespeichert werden. In diesem Schritt analysiert die Suchmaschine den Inhalt, die Metadaten, Keywords und die Linkstruktur jeder Seite.

Sitemap (Sitemap): Eine Datei, die die Struktur und die Seiten einer Website beschreibt. Crawler verwenden die Sitemap, um die Seiten einer Website effizient zu crawlen.

Der Ablauf des Crawlings

Startseite: Crawler beginnen in der Regel mit einer bereits bekannten Website oder einer Root-Domain. Ausgehend von dieser Seite wird das Crawling gestartet.

Link-Verfolgung: Crawler verfolgen die Links innerhalb einer Webseite und wechseln über diese Links zu anderen Seiten. Auf diese Weise wird das Crawling durch die Verbindungsbeziehungen zwischen den Webseiten fortgesetzt.

Inhaltserfassung: Crawler erfassen den Text, die Bilder, Metadaten usw. jeder Seite. Diese Informationen werden im Index der Suchmaschine gespeichert und zur Erstellung von Suchergebnissen verwendet.

Wiederholung: Crawler crawlen kontinuierlich mehrere Seiten, entdecken neue Links und erfassen zusätzliche Seiten.

Beispiele für Crawling

Google-Suchmaschine: Google crawlt das gesamte Web, um Suchergebnisse zu generieren. Dazu werden verschiedene Webcrawler verwendet, und die gecrawlten Informationen werden durch den Indizierungsprozess von Google in durchsuchbare Daten umgewandelt.

Crawling in Fachgebieten: Es gibt auch Crawler, die auf bestimmte Themen oder Branchen spezialisiert sind. Beispielsweise gibt es Google Scholar (Google Scholar), das wissenschaftliche Publikationen crawlt, oder Immobilien-Websites, die Immobilieninformationen crawlen.

Preisvergleichs-Websites: Crawler sammeln Preisinformationen von Online-Shops und bieten einen Preisvergleichsservice an. Beispielsweise crawlen sie Produktinformationen aus verschiedenen Online-Shops, um den Nutzern zu helfen, den günstigsten Preis zu finden.

※ In Korea können Sie beispielsweise die Ergebnisse bei der Suche auf "Navershopping" sehen, die nicht nur Informationen von 'Naver', sondern auch von verschiedenen Shopping-Websites enthalten. Die Website "Danawa" funktioniert ähnlich.

Social-Media-Crawling: Öffentliche Informationen aus sozialen Medien können gecrawlt und für Trendanalysen, die Entwicklung von Marketingstrategien usw. verwendet werden. Beispielsweise gibt es Tools, die Informationen zu bestimmten Hashtags oder Themen auf Twitter sammeln und analysieren.


Crawling ist eine Schlüsseltechnologie, die verschiedene Webdienste, einschließlich Suchmaschinen, ermöglicht. Bei der Durchführung von Crawling müssen jedoch die Robots Exclusion Standard (Robots.txt) und die Datenschutzrichtlinien der Website beachtet werden.

Kommentare0