Google Warnungen über blockierendes JS/CSS

Search Console
Google Search Console

Blockierendes JS/CSS: Warum? Was ist zu tun?

Googlebot cannot access CSS and JS files on www.domain.com – Seit heute Morgen verschickt Google reihenweise Warnungen an verifizierte Webmaster der Search Console mit dem Hinweis, dass CSS und/ oder JavaScript Dateien nicht gecrawlt werden können. Hier erklären wir, was es damit auf sich hat und wie das Problem behoben werden kann.

Hintergründe zu der Google Warnung

Bereits in 2012 hat Matt Cutts Webseitenbetreiber angehalten, keine CSS/JS Dateien via robots.txt zu blockieren, da Google Websites in Gänze crawlen und verstehen möchte.

Im Mai 2014 wurde das Google Search Console (ehemals Webmaster-Tools) Feature „Abrufen durch Googlebot“ um „Abrufen und Rendern“ erweitert. Durch diese Erweiterung konnten nicht nur neue Seiten „schneller“ an den Index geschickt werden, sondern auch Fehler beim Rendering (beispielsweise durch blockiertes JavaScript oder CSS) visualisiert werden. Eine entsprechende Änderung der Webmaster Guidelines JS/CSS Dateien nicht zu blockieren, folgte im Oktober 2014.

Damit Google die Inhalte Ihrer Website vollständig interpretieren kann, lassen Sie zu, dass alle Assets Ihrer Website, wie CSS- und JavaScript-Dateien, gecrawlt werden. Durch das Indexierungssystem von Google werden Webseiten unter Verwendung des HTML-Codes einer Seite sowie mithilfe der entsprechenden Assets wie beispielsweise Bilder, CSS und JavaScript-Dateien gerendert.

Warum verschickt Google Warnung über blockierendes JS/CSS?

Einen möglichen Hinweis, warum Google nun verstärkt auch explizit Warnungen verschickt, gibt eine Äußerung von John Müller in einem Webmaster Hang-Out vom 17.11.2014. In Minute 10:45 fragt Barry Schwartz von Search Engine Land, wie Google „click to expand“ bzw. „toggle content“ Inhalte behandelt. Die interessante Aussage von Müller folgt in Minute 11:45: „if we can recognize it, we will discount it“.

Mit anderen Worten: Wenn der Google Bot kein CSS/JS crawlen darf, können diese Bereiche auch nicht identifiziert werden. Ergo, wer Google nicht die komplette Website crawlen lässt, könnte dies mit niedrigeren Rankings „bezahlen“.

Wie kann das JS/CSS Google Warnung Problem gelöst werden?

Ein Fix dieses Problems ist relativ simpel. Registrierte Nutzer der Google Search Console klicken in der Seitennavigation auf „Google Index“ und dann „Blockierte Ressourcen“ und wählen dann die Domain.

 


blockierte ressourcen domain

Der nächste Screen gibt einen Überblick über alle Dateien, die aktuell blockiert werden. Wenn es sich hier ausschließlich um Bereiche handelt, die Sie bewusst vom Crawling ausgeschlossen haben, brauchen Sie nichts zu tun. Sehen Sie dort JavaScript oder Cascading Style Sheet Dateien, müssen diese nun über die robots.txt wieder freigegeben werden und das Problem ist gelöst.

Um zu prüfen, ob die robots.txt Änderung erfolgreich gewesen ist, kann der Search Console „robots.txt Tester“ genutzt werden, diesen finden Sie unter „Crawling“.

Tipp 1:

Sollten Sie Ihre Website jetzt gerade erst in der Search Console verifiziert haben, kann es ein wenig dauern, bis Sie Informationen zu blockierten Ressourcen bekommen. Diesen Prozess können Sie beschleunigen, indem Sie das o.g. „Abruf durch Google“ Feature nutzen.

Tipp 2:

Baut Ihre Website auf WordPress auf, ist die Wahrscheinlichkeit hoch, dass Sie folgende Zeile in Ihrer robots.txt finden: Disallow: /wp-includes/ – In diesem Ordner befinden sich auch die JS/CSS Dateien.


blockierte ressourcen domain 2

Diesen Beitrag Teilen

Hat Ihnen unser Artikel gefallen oder kennen Sie jemanden der diesen Beitrag lesen sollte?
Dann teilen Sie gerne unseren Beitrag!