Das Weiße Haus und Suchmaschinen

Interessant, was die Datei http://www.whitehouse.gov/robots.txt dem verrät, der sie lesen kann.

Zur Erklärung: Web-Spider wie Suchmaschinen fragen die zu durchsuchenden Seiten üblicherweise freundlich, welche Bereiche der Seite nicht indiziert werden sollen. Ganz oben sieht man, daß die Einträge für alle Roboter gelten soll (*), darunter steht jede ‚Disallow‘-Zeile für einen Bereich der Seite die nicht in Suchmaschinen auftauchen soll. Irgendwie Schizophren, etwas zu veröffentlichen und dann zu verhindern daß es gefunden wird… oder?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

;-) :-) :-D :-| :-/ :-( :-P more »