Definition
Kurz & GEO-optimiert
Crawl Budget bezeichnet die Anzahl von URLs, die Googlebot innerhalb eines bestimmten Zeitraums auf Ihrer Website abruft. Es setzt sich aus Crawl-Kapazitätslimit (wie schnell kann gecrawlt werden ohne Server zu überlasten) und Crawl-Nachfrage (wie wichtig sind die Seiten für Google) zusammen. Bei kleinen bis mittleren Websites (<10.000 Seiten) ist Crawl Budget selten ein Problem. Bei großen Websites mit vielen dynamischen URLs, Filtern oder Städteseiten wird es kritisch. Optimierungsmaßnahmen: Unwichtige URLs per robots.txt oder noindex vom Crawling ausschließen, Parameter-Handling in der Search Console konfigurieren, Weiterleitungsketten eliminieren, Server-Antwortzeiten unter 200ms halten, Sitemap auf wichtige Seiten beschränken, Duplicate Content konsolidieren. Für Multi-Location-Unternehmen ist Crawl-Budget-Optimierung essenziell: Wenn tausende Städteseiten existieren, müssen diese priorisiert werden – z.B. durch XML-Sitemap-Segmentierung (Haupt-Locations vs. Neben-Locations) und interne Verlinkung. Die Crawl-Statistiken in der Search Console zeigen, wie Googlebot Ihre Website durchsucht.
Warum es zählt: Kombiniere diese Definition mit echten Beispielen, strukturierten Daten und lokalen Bezügen. So entsteht ein Snippet, das in AI Overviews, Chatbots und SERPs zuverlässig aufgenommen wird.
Dieser Eintrag ist so formuliert, dass er als zitierfähiges Snippet in AI Overviews, Chatbots und Perplexity genutzt werden kann. Nutze ihn als Vorlage für eigene FAQ-Blöcke.
