Skip to main content

Noindex

Die Einstufung in den Suchmaschinen ist für Erfolg im Internet das A und O. Wenn nicht alle Inhalte sichtbar sein sollen, bietet Noindex die Lösung.

Manchmal sind es Inhalte, welche den SEO-Zielen im Weg stehen könnten und aktuell bearbeitet werden oder die Adresse des Homeoffice, die man nicht auf Google repräsentiert sehen möchte.

Spätestens wenn die Impressumsseite besser rankt, als die Startseite ist Noindex als Meta-Tag eine einfache Lösung, entsprechende Seiten der Homepage nicht in Google, Yahoo oder anderen Ergebnissen erscheinen zu lassen. Wie funktioniert das Stoppschild für die Indexierung?

So funktioniert Noindex

Der Befehl für die Crawler kann entweder als Meta-Tag auf der entsprechenden Seite eingesetzt werden, wo er für alle Suchmaschinen gültig ist und von allen Crawlern, also den Analyseprogrammen der Suchmaschinenanbieter, erkannt wird. Er funktioniert auch im HTTP Antwort Header und kann zudem auf Suchmaschinen zugeschnitten werden. Eine neue Art der Nutzung sieht zudem das Verbergen einzelner Textelemente vor, ist allerdings noch nicht bei allen Suchmaschinen angekommen.

Als allgemeiner Tag

Wie der Suchmaschinenanbieter Google in der [strong]Search Console-Hilfe[/strong] beschreibt, ist die Nutzung einfach und der Tag schnell in die Seite eingefügt. Auf der Seite von Google findet sich auch der [url=https://support.google.com/webmasters/answer/93710?hl=de]Befehl[/url], der einfach in das Segment „Head“ der Page kopiert werden kann und dort die Indexierung verbietet.

Die Verwendung lässt sich auch speziell auf einige Suchmaschinen zuschneiden.

In der Zeile

meta name=“robots content=“noindex“
Muss dafür der Begriff „robots“ ersetzt werden.

Um die Page nur bei Google zu blocken, wird „robots“ durch „googlebot“ ersetzt. Für Yahoo ist es „slurp“ und für MSN „msnbot“.

Funktion als HTTP-Antwort-Header

Auch als X-Robots-Tag Header kann die Indexierung verhindert werden.

Die HTTP-Antwort dafür lautet:

„HTTP/1.1 200 OK
(…)
X-Robots-Tag: noindex
(…)“
Quelle: https://support.google.com/webmasters/answer/93710?hl=de

Verbot der Indexierung mit „follow“ aktiviert

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Alternative: robots.txt

Die Alternative zum Tag ist die Datei robots.txt. In dieser erhalten die Crawler Hinweise für die Indexierung einer Seite. Bestimmte Pages können direkt in der robots.txt ausgeschlossen werden. Der Nachteil daran: Die Seite könnte dennoch über Umwege in den Suchergebnissen landen. Die ausdrückliche Verwendung des Verbots fürs Crawling auf einer Page wird nämlich nicht erkannt, wenn das es bereits in der robots.txt verhindert wird.

Lösung via Search Console

Auch über Googles Webmaster Tool Search Console kann ein auftauchen von bestimmten Pages in der Suche verhindert werden. Dies funktioniert unter „Index“-„Entfernen“-„Neuer Antrag“ Die URL der entsprechenden Seite wird angegeben und aus den Suchergebnissen ausgeschlossen.

Keine Ergebnisse, keine Probleme

Mit dem Meta-Tag wird das Abschneiden direkt in den Suchergebnissen ausgesetzt. Ob eine Seite grade im Aufbau ist oder Daten nicht direkt auf dem Präsentierteller landen sollen, ist dabei egal. Nach der Verwendung des Metag-Tags sollte übrigens die aktualisierte Sitemap hochgeladen werden, um die Sperre schneller gültig zu machen.

Sie haben noch Fragen?

Kontaktieren Sie uns


Weitere Inhalte