Crawler

Ein Crawler bezeichnet ein softwaregeschützter Roboter, der selbstständig das Internet durchsucht und Webseiten vollständig ausliest und indexiert. Sie sind das Kerninstrument aller Suchmaschinen, um Inhalte im Internet auffinden und indexieren zu können. Da die Suche automatisch abläuft, werden die Crawler auch Robots genannt. Da ihre Wege im Internet einem Spinnennetz ähneln, werden sie häufig auch als Spider bezeichnet.

Um Ihnen auch in Zukunft das best­mögliche Nutzungs­erlebnis auf dieser Website bieten zu können, möchten wir Tracking-Dienste wie z. B. Google Analytics aktivieren, die Cookies nutzen, um Ihr Nutzer­verhalten anony­misiert zu speichern und zu analysieren. Dafür benötigen wir Ihre Zustimmung, die Sie jederzeit widerrufen können.
Mehr Informationen über die genutzten Dienste erhalten Sie in unserer Datenschutzerklärung.