Zum Hauptinhalt springen
Alle KollektionenWUX Übersicht
In robots.txt blockierte JavaScript-Dateien
In robots.txt blockierte JavaScript-Dateien

Was sind in robots.txt blockierte JavaScript-Dateien, warum sind sie schlecht und wie kann man sie beheben.

Florian avatar
Verfasst von Florian
Vor über 2 Jahren aktualisiert

Was ist das Problem?

Wenn für Suchmaschinen Deine JavaScript-Dateien nicht crawlbar sind, können sie unter Umständen auch auf den Rest Deiner Webseite nicht richtig zugreifen. In seinen Richtlinien für Webmaster gibt Google explizit an, dass auch JavaScript-Dateien crawlbar sein sollten, da es sonst zu schlechteren Rankings kommen könnte.

Wie behebst Du das Problem?

Füge "Allow: .js" in Deine "robots.txt-Datei" ein oder erlaube das Analysieren der geblockten JavaScript-Dateien.

Hat dies deine Frage beantwortet?