Was ist das Problem?

Wenn für Suchmaschinen Deine JavaScript-Dateien nicht crawlbar sind, können sie unter Umständen auch auf den Rest Deiner Webseite nicht richtig zugreifen. In seinen Richtlinien für Webmaster gibt Google explizit an, dass auch JavaScript-Dateien crawlbar sein sollten, da es sonst zu schlechteren Rankings kommen könnte.

Wie behebst Du das Problem?

Füge "Allow: .js" in Deine "robots.txt-Datei" ein oder erlaube das Analysieren der geblockten JavaScript-Dateien.

War diese Antwort hilfreich für dich?