FT-kandidater bange for robotter?

En webdesigner ville få en regulær skider af chefen hvis han lavede samme fejl som disse syv folketingskandidater.

Filen robots.txt kan bruges til at begrænse hvilke sider på et websted der ikke skal dukke op i søgninger på søgemaskiner. Typisk vil ejeren af et websted gerne have at hans sider dukker op på søgemaskiner, og mange betaler endda eksperter for at søgemaskineoptimere deres websider så de bliver vist så meget som muligt.

Flg. syv kandidater er dog gået den modsatte vej og har lukket søgemaskiner helt ude fra deres websider.

Mit gæt er at det er en fejl, og at den enten bygger på uvidenhed eller forglemmelse, men ikke desto mindre en dum fejl.

Læs mere om robots.txt på  robotstxt.org eller hos google De syv sider: