Betrachten Sie Ihre Webseite aus einer völlig neuen Perspektive!

Die Auswertungen der Seoratio-Tools helfen Ihnen, die Potentiale Ihrer Webseitenstruktur zu erkennen und durch übersichtlich aufbereitete Daten zu analysieren.

Dashboard

Indexierung

Erfahren Sie, welche Seiten die Suchmaschinen (nicht) in den Index aufgenommen haben - und aus welchem Grund

Die Seoratio-Tools verschaffen Ihnen Einblick in die Indexierungslogik und die Zugriffssteuerung Ihrer Webseite. Sie erhalten Aufschluss darüber,

  • wie Sie die Robots.txt einsetzen
  • welche Meta-Angaben Sie auf jeder HTML-Seite nutzen
  • welche Weiterleitungen eventuell Ihrem Ranking schaden

Außerdem erfahren Sie, ob Ihre Website über unterschiedliche URLs gleiche Inhalte ausliefert. Dieser sogenannte Duplicate Content kann gute Platzierungen ebenfalls beeinträchtigen.
Mit Hilfe der Seoratiotools sind Sie in der Lage, eventuelle Verlinkungsfehler in Zusammenhang mit der Indexierung zu identifizieren und zu beheben.

Interne Verlinkung

Interne Verlinkung

Bei der Untersuchung der internen Verlinkung wird analysiert, wie die Inhalte Ihrer Webseite miteinander verknüpft sind

Die Auswertung und Justierung der internen Linktexte ist hier ein zentraler Faktor. So können Kannibalisierungen festgestellt und die globale, inhaltliche Relevanz Ihrer Seite verbessert werden. Bei der Untersuchung der internen Verlinkung gibt es einige wichtige Aspekte zu beachten:

Linkpopularität: Anhand der internen Linkpopularität vergibt Google ein so genanntes Crawl-Budget, das die Ressourcen des Crawlers schont und festlegt, welche Webseiten häufiger besucht werden sollten. Je mehr Verlinkungen also eine Webseite aufweist, desto wichtiger kann diese innerhalb einer Domain sein.

Pagerank: Der Pagrank Algorithmus wurde entwickelt, um den Googles Crawler zu steuern und alle wichtigen Inhalte im WWW zu erreichen und über Google zugänglich zu machen. Dabei verfolgt Google zwei Modelle:

  • Random Surfer Modell: Um Inhalte aufzunehmen verfolgt Google beim Random Surfer Modell vereinfacht gesagt alle Links gleichermaßen und bewertet sie auch gleich. So wird das Crawl-Budget, das über Spidertiefe oder Besuchshäufigkeit des Googlebots entscheidet, vergeben.
  • Reasonable Surfer Modell: Das erste Modell ist nicht ideal, da so beispielsweise ein Link am unteren Ende einer Linkkliste weniger oft geklickt wird, als ein Link im zentralen Bereich einer Webseite. Beim Reasonable Surfer Modell nimmt Google eine unterschiedliche Linkgewichtung in Abhängigkeit der Position und Formatierung des Links vor. Es wird versucht das Verhalten des Besuchers in Bezug auf die Linkgewichtung mit einfließen zu lassen.
  • Linkjuice: Der Begriff Linkjuice verknüpft das Modell des Random Surfer mit dem Reasonable Surfer Modell. Der Pagerank bietet uns so die Möglichkeit ihn als Linkjuice-Indikator heranzuziehen. Grund genug, den Pagerank zentral in unserem Tool zu integrieren.
  • weitere Informatinen zum "Mythos Pagerank"

Landing Page

Linkjuice Berechnung

Viele Regeln erlauben eine exaktere Linkjuice-Berechnung

Um die Linkjuice-Berechnung so exakt wie möglich nachzuempfinden werden bei der Linkjuice-Berechnung möglichst viele Regeln implementiert, die man gerade bei großen Seiten leicht aus den Augen verlieren kann.Folgende Faktoren erhöhen die Anzahl der Links auf einer Seite und mindern oder verhindern so die Linkjuice-Weitergabe an die gewerteten Links:

  • rel=“nofollow VS. rel=“follow“
  • Die First Link Priority bei der nur der erste Link einer Webseite zu einem bestimmten Ziel gewertet wird
  • Ankerpunte (#) lassen Linkjuice verpuffen
  • Headercodes wie 302, 403, 404 stoppen den Linkfluss
  • Die Meta-Robots Angabe „nofollow“ stoppt den Linkfluss einer kompletten Unterseite
Bild Zyclop Crawler

Unser Crawler „Zyklop“

Die Seoratio-Tools crawlen aktuell komplette Webseiten bis zu einem Limit von 10 Mio. Seiten.

  • Es kann vorkommen, dass intern weit über eine Milliarde Links ausgewertet werden.
  • Je nach Bedarf wird der Linkfluss der gesamten Domain oder einzelner Subdomains analysiert.
  • Unser Web-Robot untersucht Ihre Webseiten mit dem User-Agent "Zyklop"
  • Dieser beachtet die einzelnen Regeln der Robots.txt.
  • Der User-Agent kann angepasst werden, um den Googlebot zu simulieren.
  • Die Lese-Geschwindigkeit lässt sich so weit drosseln, dass Ihr laufender Betrieb nicht gestört wird.

Einzelne Auswertungen:

Interne Pagerank-Verteilung

Anhand der Verteilung kann man erkennen, wie sich der Pagerank global auf der ganzen Domain verhält. Die Zahlen geben Auskunft darüber, ob Ihre Seite zu viele Links vorweisen, eine Duplicate Content Problematik besteht oder beispielsweise viele Seiten mit wenig Pagerank versorgt werden.


Crawling

In der übersicht werden gelöschte oder fehlerhaft-verlinkte Seiten aufgeführt und nicht erreichbare oder zugriffsbeschränkte Seiten dargestellt.


Indexierung

Die übersichtsseite der Indexierung stellt neben allen https-Seiten auch Seiten dar, die per robots.txt gesperrt sind oder durch die Noindex-Anweisung von den Suchmaschinen ausgesperrt sind. Um die gesamte Domain im Auge zu behalten weisen wir eine Verteilung der nicht-indizierten und indizierten Seiten aus.


Weiterleitungen

In einzelnen Tabellen werden alle permanenten und temporären Weiterleitungen aufgelistet. Des weiteren sehen Sie Seiten, bei denen das Canonical zur aufgerufenen URL abweicht, umso die interpretierten Zusammenführungen / Weiterleitungen zu identifizieren.


Ladezeit

Für das Ranking in den Suchmaschinen wird die Ladezeit immer wichtiger. Auch für Googles Spidervorgang ist diese ein entscheidender Faktor. Die übersichtsseite ãLadezeitÒ weist all Ihre Seiten und deren Serverladezeit aus.


Seitenebenen

Die einzelnen Seitenebenen sagen viel über Ihre Webseitenstruktur aus. Je weniger Ebenen vorhanden sind, desto schneller kann ein Besucher zu einer beliebigen Seite gelangen. In unseren Statistiken sehen Sie die übersicht aller Ebenen und können so Seiten auf tiefen Ebenen identifizieren.


Externe Links

Auch externe Links beeinflussen die interne Verlinkung. In unseren Statistiken sehen Sie auf welche Seiten wie oft verlinkt wird. Zu dem erkennen Sie, wie global nach draußen verlinkt wird und das entsprechende Verhältnis zur Gesamtseitenzahl. Am Headercode der externen Links kann man leicht erkennen, ob das Linkziel noch gültig ist oder verschoben bzw. gelöscht wurde.


Linktexte

In dieser Auswertung sehen Sie, welche Linktexte Sie intern benutzen und auf welche Ziele diese verweisen.


Haben wir Ihr Interesse geweckt?

Beantragen Sie einen Testaccount oder beantragen Sie einen Zugang: