1
Erweiterung der dynamisch erzeugten robots.txt
Geschrieben von
Wolfgang Schmerge
,
26 September 2018
·
4075 Aufrufe
SmartStore.NET ecoomerce robots.txt
In einem SmartStore.NET Shop wird die robots.txt Datei dynamisch generiert. Die Inhalte der robots.txt Datei können über die URL www.ihredomain.de/robots.txt eingesehen werden.
Die Inhalte der dynamisch generierten robots.txt können durch eigene Inhalte erweitert werden. Im folgenden Beispiel sollen das Verzeichnis „Product/Reviews“ und die Datei „sitemap.xml“ für Suchmaschinen gesperrt werden.
Im Backend zu dem Bereich Konfiguration -> Einstellungen -> Alle Einstellungen (fortgeschritten) wechseln.
Rechts neben Namen auf das Trichter-Icon klicken und nach dem Namen „SeoSettings.ExtraRobotsDisallows“ suchen.
Als nächstes auf „BEARBEITEN“ klicken.
In der Spalte „WERT“ die gewünschten Informationen eintragen. In diesem Beispiel /sitemap.xml für die Datei „sitemap.xml“ und /Product/Reviews/ für das Verzeichnis „Product/Reviews“. Einzelne Einträge werden durch ein „,“(Kommatar) getrennt. Zum Schluss auf „SPEICHERN“ klicken.
Anzeige der ergänzten robots.txt.
Die Inhalte der dynamisch generierten robots.txt können durch eigene Inhalte erweitert werden. Im folgenden Beispiel sollen das Verzeichnis „Product/Reviews“ und die Datei „sitemap.xml“ für Suchmaschinen gesperrt werden.
Im Backend zu dem Bereich Konfiguration -> Einstellungen -> Alle Einstellungen (fortgeschritten) wechseln.
Rechts neben Namen auf das Trichter-Icon klicken und nach dem Namen „SeoSettings.ExtraRobotsDisallows“ suchen.
Als nächstes auf „BEARBEITEN“ klicken.
In der Spalte „WERT“ die gewünschten Informationen eintragen. In diesem Beispiel /sitemap.xml für die Datei „sitemap.xml“ und /Product/Reviews/ für das Verzeichnis „Product/Reviews“. Einzelne Einträge werden durch ein „,“(Kommatar) getrennt. Zum Schluss auf „SPEICHERN“ klicken.
Anzeige der ergänzten robots.txt.