Webmaster Tools ist ein kostenloses Werkzeug für Website-Administratoren. Der Anwender bekommt konkrete Hinweise zu den unterschiedlichsten Informationen seines Internetauftritts. Seit 05.2015 wird das Tool Google Search Console genannt.

Mit Webmaster-Tools hat der User die Möglichkeit, die verwendeten Keywords und Klickraten abzufragen. Außerdem kann man feststellen, von welchen Websites Backlinks auf die eigene Internetseite verweisen. Sie können aber auch die am häufigsten verlinkten Sites ermitteln. Um der Flut an Daten Herr zu werden, ermöglichen diverse Filter, die Informationen sinnvoll darzustellen.  Noch viele weitere Funktionen sind mit der Software möglich. Wir werden in diesem Bericht auf die wichtigsten Möglichkeiten eingehen.

Der User kann Schwachstellen auf einer Website erkennen und die entsprechenden Gegenmaßnahmen einleiten. Die Search-Console erfasst ausschliesslich Daten von Google. Andere Suchmaschinen haben eigenen Tools. Allerdings ist die Search Console neben Google Analytics das wichtigste Werkzeug seiner Art. Google Analytics ist dementsprechend die Erweiterung und bietet eine noch umfangreichere Datenmessungs- und Analysemöglichkeit an.

Die wichtigsten Funktionen im Überblick

Die Sitemap

Die Sitemap ist ein Inhaltsverzeichnis, welches die komplette Seitenstruktur einer Website darstellt. In dieser Sitemap kann die Priorität jeder einzelnen Website festgelegt werden. Es sollte immer eine Sitemap eingereicht werden. Dementsprechend kann Google die Website vollständig indexieren und weiss, wie wichtig, welche Unterseite ist. Es gibt verschiedene Möglichkeiten eine Sitemap zu erstellen. Die sauberste Methode ist es, eine solche händisch zu programmieren. Außerdem gibt es verschiedene Tools zur automatisierten Erstellung. Betreibt man eine Website mit Content-Management-System, bieten viele Plugin-Hersteller eigene Tools an.

Mit dieser Software haben wir gute Erfahrungen gemacht: Sitemap Generator – Create Your Google Sitemap online

Nach der erfolgreichen Erstellung der Sitemap, sollte diese über die Search Console eingereicht werden.

Im ersten Schritt muss die Sitemap auf dem Webserver in das Root-Verzeichnis geladen werden. Unter dem Punkt „Crawling“ > „Sitemaps“ gibt es eine Möglichkeit, die Sitemap bei Google zu registrieren.

Das Nachrichtensystem

Das Nachrichtensystem gibt wichtige Hinweise und Verbesserungsvorschläge zu den verwalteten Websites. Hierzu gehören Konfigurationsmöglichkeiten, wie die Einstellung der Domain (mit oder ohne www.), das Zielland,  oder ob Updates für das CMS anliegen. Aber auch, ob der Googlebot auf die Website zugreifen kann und ob es zu Fehlern beim Crawling-Vorgang kommt. Demzufolge rentiert es sich, regelmäßig in das Nachrichtensystem zu schauen.

Strukturierte Daten mit dem Data Highlighter

Um mehr Sichtbarkeit zu erlangen, sind Rich Snippets ein perfekte Möglichkeit. Beispielsweise Bewertungssterne oder Termine werden mit Rich Snippets dargestellt. Um Google mitzuteilen, welche Informationen hierfür relevant sind, ist der Data Highlighter die richtige Wahl. Demzufolge möchten wir dieses wichtige Funktion kurz vorstellen. Unter dem Punkt „Darstellung der Suche“ finden Sie den Punkt „Data Highlighter„.

Zuerst muss die URL eingeben werden, wo sich die Informationen befinden. Darauf hin muss der entsprechende Text markiert und via Rechtsklick, der Datentyp zugeordnet werden. Beispielsweise könnte dies das „Datum“ oder der „Artikelname“ einer Übersichtsseite sein.

Suchanfragen

Das wichtigste Tool für eine erfolgreiche Suchmaschinenoptimierung ist der Bereich „Suchanfragen“. Hierüber findet der Anwender ausführlich Informationen zu den erfolgreichsten Keywords der Website. Außerdem ist einzusehen, mit welchen Suchworten die meisten Besucher auf die Website gelangen. Diese Informationen sind essentiell für eine erfolgreiche SEO. Durch die richtigen Optimierungsmaßnahmen, im Bereich Technik und Inhalt, ist es möglich, die Sichtbarkeit im Internet deutlich zu steigern.

URLs entfernen

Mit dieser Funktion ist es möglich, gezielt Websites für eine gewisse Zeit aus der Suchmaschine auszuschliessen. Hierzu wählen Sie den entsprechenden Punkt aus und legen die URL in der Liste an. Sobald die Website eingetragen wurde, verschwindet sie für ca. 90 Tage aus den SERPS. Außerdem ist es auch möglich eine URL dauerhaft aus den Suchergebnis zu entfernen. Hierzu muss die Seite gelöscht werden und ein weiteres indexieren durch die robots.txt verhindert werden. Wenn nach dem nächsten Crawling-Versuch ein Crawlingfehler auftritt, muss dieser Fehler mit einem 301 Redirect entfernt werden. Danach muss die Fehlerbehebung im Tool bestätigt werden.

 

Backlinks und interne Verlinkung

Der Begriff „Backlinks“ ist in aller Munde. Was bedeutet das aber genau? Backlinks sind Verlinkungen von anderen Websites auf die eigene Website. Über solche Verlinkungen kommen Besucher auf die entsprechend verlinkte Website. Überdies bewertet Google eine hohe Anzahl an qualitativen Backlinks positiv. Dementsprechend verbessert sich das Ranking der entsprechenden Seite. In unserem Bericht „Was sind Backlinks“ sind wir noch einmal detaillierter auf das Thema eingegangen.

Unter dem Punkt „Links zur Website & interne Links“ kann der Anwender genau feststellen, von welchen externen Websites Verlinkungen auf die eigene Website zeigen. Außerdem ist feststellbar, mit welchen Keywords die Links verankert sind. Hierdurch können die beliebtesten Themen ermittelt werden.

Mit der Funktion „Interne Links“ kann die Linkstruktur auf der Internetseite analysiert werden. Dementsprechend hat der Anwender die Möglichkeit, zu ermitteln, ob die Themenrelevanz außreichend in der internen Linkstruktur verankert ist. Ist dies nicht der Fall, besteht Handlungsbedarf.

Crawling Fehler

Oftmals müssen einzelne HTML Sites im nachhinein umbenannt oder vielleicht sogar gelöscht werden. Wurden diese Seiten zuvor von der Google Suchmaschine erfasst, erscheinen Suchergebnisse in den SERPS, welche auf einen 404-Fehler „Website nicht gefunden“ verweisen. Solche Nieten verärgern den Besucher und führen zwangsläufig zu einer erhöhten Absprungrate.

Deshalb ist der Punkt „Crawling Fehler“ ein sehr wichtiges Tool, um solche Fehler ausfindig zu machen und die entsprechenden Gegenmaßnahmen einzuleiten.

Content-Keywords und Indexierungsstatus

Google überwacht den eigenen Indexierungsstatus und teilt dem Anwender mit, inwieweit die Indexierung erfolgreich verlaufen ist. Sollte es bei Teilen der Website nicht möglich sein, diese in den Suchindex mit aufzunehmen, müssen entsprechende Maßnahmen getroffen werden, Google die Indexierung zu ermöglichen.

Im Bereich Content-Keywords analysiert Google die Inhalte der überwachten Website. Je nach Häufigkeit und Relevanz einzelner Wörter stellt Google eine nach Relevanz sortierte Liste mit den entsprechenden Keywords da. Hier kann der Webmaster feststellen, sind alle wichtigen Wörter in ausreichender Menge vorhanden oder fehlen noch entscheidende Suchwörter.

Darstellung der Suche

In dieser Funktion findet der Anwender wichtige Tipps zur Verbesserung der HTML Programmierung der überwachten Website. Hierzu gehören versehentlich doppelt angelegte Titel oder schlecht gewählte Meta-Daten. Eine Überarbeitung der hier angezeigten Meldungen ist sehr Hilfreich für eine bessere Platzierung bei Google sowie zur Verbesserung der CTR.

Weitere Informationen

Um sich noch tiefer in die Materie einzuarbeiten, empfiehlt es sich, die offizielle Google Search Console-Hilfe anzuschauen.

Kostenlose Beratung für Ihr Online Marketing Projekt

Sind Sie an Online-Marketing für Ihr Unternehmen interessiert?
Dann freue ich mich, Ihr Projekt kennen lernen zu dürfen. ?
Erzählen Sie mir von Ihrem Vorhaben!

Ihr Mark Krelle