Zum Hauptinhalt springen
Alle KollektionenWUX Übersicht
In Robots.txt blockierte CSS-Dateien
In Robots.txt blockierte CSS-Dateien

Was sind in der Robots.txt blockierte CSS-Dateien, warum sind sie schlecht und wie kann man sie beheben.

Florian avatar
Verfasst von Florian
Vor über 2 Jahren aktualisiert

Was ist das Problem?

Wenn Suchmaschinen Deine CSS-Dateien nicht crawlen können, können sie unter Umständen auch auf den Rest Deiner Webseite nicht richtig zugreifen. In seinen Richtlinien für Webmaster gibt Google explizit an, dass auch CSS-Dateien crawlbar sein sollten, da es sonst zu schlechteren Rankings kommen könnte.

Wie behebst Du das Problem?

Entferne die "disallow-Regel" in Deiner "robots.txt-Datei" oder füge "Allow: .css" ein.

Hat dies deine Frage beantwortet?