Inhalte aufrufen





Profilbild

Google aktualisiert Richtlinien: Warum du deine robots.txt prüfen solltest

Geschrieben von p.p.scholz , 29 October 2014 · 1142 Aufrufe

Google Webmaster Guidelines robots.txt
Google aktualisiert Richtlinien: Warum du deine robots.txt prüfen solltest

Autor:Lars Budde, Datum:28.10.2014

Google hat am gestrigen Montag eine Änderung der „Webmaster Guidelines“ angekündigt. Demnach sollten Seitenbetreiber ab sofort sicherstellen, dass die robots.txt-Datei ihrer Website den Abruf von CSS- und Javascript-Dateien erlaubt – andernfalls drohen schlechtere Rankings.

Google modernisiert die eigenen Systeme und manifestiert jüngste Änderungen jetzt auch im Rahmen der technischen Webmaster Guidelines . Seitenbetreiber dürfen den Abruf von CSS- und Javascript-Dateien demnach nicht länger durch die robots.txt-Datei ihrer Websites einschränken. Sollten sie dieser Forderung nicht nachkommen, drohen schlechtere Rankings.

Google aktualisiert technische Webmaster-Richtlinien

In der Vergangenheit imitierten Googles Systeme beim Abruf von Websites textbasierte Browser. Die für das Design verantwortlichen Dateien, insbesondere CSS- und Javascript-Dateien, blieben laut offizieller Aussagen unangetastet. Erst seit Mai imitiert Google modernere Browser.

Im Kontext dieser Änderungen ist auch die gestern angekündigte Anpassung der technischen Webmaster-Richtlinien nachvollziehbar. Im dazu veröffentlichten Blogpost heißt es: „Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.“

Noch konkreter wird Google-Mitarbeiter Pierre Far, der auf Google+ schreibt: „Lasst mich deutlich machen, was das bedeutet: Wenn ihr das Crawling von CSS und Javascript blockt, schadet ihr aktiv der Indexierung eurer Website.“ Auch die mobile Seite sollten Seitenbetreiber bei einer etwaigen Umstellung nicht vergessen, ergänzt er wenig später.

So müssen Seitenbetreiber jetzt reagieren

Seitenbetreiber sollten entsprechend dieser Ankündigung und der Änderungen in den Richtlinien die robots.txt-Datei ihrer Websites prüfen. Hilfreich ist in diesem Zuge auch der sogenannte „Abruf wie durch Google“ in den Webmaster Tools. Er visualisiert den Abruf einer Website durch die Systeme von Google.

Ob eine ausbleibende Korrektur der robots.txt tatsächlich zu schlechteren Rankings führt, bleibt abzuwarten. Die Andeutung einer solch gravierenden Auswirkung dürfte in jedem Fall zu schnelleren Reaktionen seitens der Seitenbetreiber führen.

Quelle: http://t3n.de/news/g...ascript-574763/




November 2018

S M D M D F S
    123
45678910
111213 14 151617
18192021222324
252627282930 

November 2018

S M D M D F S
    123
45678910
111213 14 151617
18192021222324
252627282930