Hvordan fungerer robots.txt?
Lokalisering:
robots.txt
-filen placeres normalt i rodmappe af din webside. Adressen til denne fil er typiskwww.ditwebsted.dk/robots.txt
.Indhold:
robots.txt
-filen indeholder instruktioner til søgemaskiner og webrobotter om, hvilke dele af webstedet der er off-limits og hvilke der er tilladt. Den bruger ofte to hovedkommandoer: “User-agent” og “Disallow.”User-agent: Denne kommando angiver, hvilke webrobotter eller søgemaskiner reglerne gælder for. For eksempel kan du specificere en bestemt søgemaskine som Googlebot eller angive alle webrobotter ved at bruge et wildcard som ‘*’ for alle.
Disallow: Denne kommando fortæller robotter, hvilke dele af webstedet de ikke har lov til at indeksere. For eksempel, hvis du vil forhindre en webrobot i at indeksere alt på dit websted, kan du skrive
Disallow: /
, mensDisallow: /private/
ville forhindre indeksering af alt i mappen “private.”Allow: Omvendt angiver “Allow”-kommandoen de områder, der er tilladt for indeksering, selvom der er en bredere “Disallow”-regel i stedet.
Det er vigtigt at bemærke, at robots.txt
er en anbefaling til webrobotterne, og det er op til hver enkelt webrobot at vælge at overholde disse retningslinjer. De fleste søgemaskiner og respekterede webrobotter følger dog normalt disse instruktioner og undlader at indeksere de områder, der er markeret som “Disallow.”
robots.txt
-filen er et vigtigt værktøj for webstedsadministratorer, da den giver dem kontrol over, hvordan deres websted vises i søgeresultaterne og sikrer, at følsomt indhold ikke bliver indekseret. Det bruges også til at forbedre webstedsydelsen ved at reducere belastningen fra webrobotter, der indekserer unødvendige ressourcer.