Crawl budget refererer til den mængde af ressourcer, som søgemaskiner som Google allokerer til at crawle (gennemgå) en webside. Dette koncept indeholder to primære komponenter: crawl rate limit og crawl demand.
Crawl rate limit
Dette udtrykker den maksimale fart, hvormed søgemaskinens bots kan crawle en webside uden at forstyrre sidens brugeroplevelse. Sidens webmaster kan påvirke denne hastighed gennem Google Search Console, hvor de kan anmode om en højere eller lavere crawlrate, afhængig af, om de ønsker flere eller færre søgemaskinebesøg.
Begrænsninger kan også dikteres af serverens funktion og hastighed. Hvis din server viser fejl eller er langsom, vil søgemaskinerne nedjustere crawl hastigheden.
Crawl demand
Crawl demand relaterer til, hvor ofte og hvor meget af en webside, søgemaskinerne vælger at crawle. Søgemaskiner afgør dette på baggrund af en sides popularitet og optimering. Websider, der opdateres ofte, vil generelt få en højere crawl demand. Det gør, at nogle sider bliver crawlet oftere end andre. En side, der konstant opdateres eller modtager meget trafik, vil således ofte blive besøgt af søgemaskinens bots.
Det er vigtigt at optimere sit crawl budget, da det sikrer, at de vigtigste sider bliver indekseret af søgemaskinerne. Store websider med mange sider, sider med duplikeret indhold eller visse typer af dårligt indhold kan opleve, at søgemaskinerne spilder crawl budget på disse sider, der ikke bidrager til sidens SEO-værdi.
Optimering af crawl budget
For at optimere crawl budgettet kan man benytte metoder som:
- Robots.txt-filer til at blokere søgemaskiner fra at crawle irrelevante sider
- Sørge for hurtig serverrespons
- Undgå døde links
- Sikre et velfungerende linkhierarki
Derudover kan den korrekte brug af redirect (f.eks. 301-redirects for permanente flytninger af indhold) også hjælpe søgemaskinerne med at navigere i websiden uden at spilde crawl budget på at følge problematiske links.
Vigtigheden af en god sidestruktur
En generel god sidestruktur, herunder god intern linkstruktur, hjælper med at guide søgemaskinernes bots gennem de vigtigste sider først. Det sikrer, at vigtigt indhold bliver prioriteret højest. Ved at bruge XML sitemap-filer korrekt kan man også hjælpe søgemaskinernes bots med at forstå, hvilke sider der er mest værdifulde og derved effektivt bruge crawl budgettet.
I praksis er crawl budget især vigtigt for større websider eller for sider, der publicerer indhold hyppigt. Mindre websider vil oftest ikke løbe ind i problemer med utilstrækkeligt crawl budget, da de ikke overstiger de begrænsninger, søgemaskinerne har sat. Afslutningsvis er håndtering af crawl budget en vital del af teknisk SEO og bør derfor være en integreret del af en SEO-specialists arbejde med store og indholdstunge websider.