06192 - 96 26 148 | info@online-marketing-tag.de
Der OnPage.org-Test – Von A bis Z überprüft

Der OnPage.org-Test – Von A bis Z überprüft

Home / Die wichtigsten Online Marketing Tools / Der OnPage.org-Test – Von A bis Z überprüft
Um viel Traffic über Google zu generieren, musst Du Deine Webseite perfekt auf die Bedinungen der Suchmaschine ausrichten. Es gibt viele Punkte (Onpage-Optimierung, Linkbuilding, usw.), die hierbei zu beachten sind.
Das Wichtigste ist aber sicherlich, dass die eigene Webseite optimal programmiert ist.

Doch was bedeutet es, eine perfekt optimierte Webseite zu erhalten? Auf was muss ich alles achten?
Genau hier kommen Online Marketing Tools wie z.B. die Software von OnPage.org ins Spiel!
OnPage.org analysiert Deine Webseite und sagt Dir ganz genau, welche Stellschrauben Du auf Deiner Webseite anpacken musst, um perfekt für die Suchmaschine optimiert zu sein.

Falls Du Dir noch nicht sicher bist, ob OnPage.org das richtige Tool für Dich ist, lies Dir unseren ausführlichen Bericht im Anschluss durch und urteile selbst...

1. Einleitung

Seit September 2012 existiert das Tool OnPage.org für die breite Öffentlichkeit. Es sollte ein Tool geschaffen werden, mit dem jeder Seiteninhaber qualifiziert analysieren kann, welche Potenziale auf seiner Webseite ausgeschöpft werden können, um eine möglichst gute Webseite zu erstellen. Nach eigenen Angaben möchte das Unternehmen Standard-Software für jeden Webmaster auf der Welt werden. Im Jahr 2015 räumte das Startup um Mitbegründer und SEO-Urgestein Marcus Tandler weitere Gründer- und Startup-Preise ab. Inzwischen in der 3. Version wird im Januar die „Mission 100k“ avisiert, bei der die Schwelle von 100.000 Anwendern des Tools überschritten wurde.

2. Free Version

Neben der kostenpflichtigen Vollversion bietet OnPage.org zum Einstieg auch eine kostenlose Version seines Tools an. Besonders Webmaster von kleineren Seiten, welchen oftmals nur ein geringes Budget für SEO-Tools zur Verfügung steht, werden diese Version schätzen. Denn neben der offensichtlichen Kostenersparnis reichen die gekürzten Funktionen für kleinere Webseiten absolut aus, um das gesamte Potenzial auszuschöpfen.

Für kleine Webseiten gibt es OnPage.org auch als kostenlose Version. (hier klicken)

Die Funktionen des Free-Accounts sind folgende:

  • kostenlose Nutzung
  • ein Crawl des Projektes pro Monat
  • maximal werden 100 URLs gecrawlt
  • 5 OnPage.org Focus Abfragen
  • 5 WDF*IDF Analysen
  • 5 Keywords können überwacht werden
  • Update zur vollständigen Version möglich

Zum Kennenlernen des Tools ist die Free-Variante sehr zu empfehlen. Man bekommt einen guten Einblick in die Struktur und die Möglichkeiten von OnPage.org und deren Nutzen. Wer nur eine kleine Webseite betreut, wird ein kostenloses und umfangreiches Tool zum Optimieren der Seite erhalten.

3. Preisvergleich

Auf dem Markt für On-Page-Tools tummeln sich einige interessante Konkurrenten. Besonders große und schnell wachsende Projekte kämpfen oft mit verschiedensten SEO Problemen. Ein zentrales Tool für die Erkennung dieser Probleme und entsprechende Reports ist daher sehr gefragt. Die größten Anbieter für den Fokus auf On-Page sind neben OnPage.org Sistrix Optimizer, OnpageDoc und Searchmetrics Site Optimization.
Alle On-Page-Tools sind kostenpflichtig und bieten ein sehr ausgereiftes Portfolio für die Analyse und Identifizierung von SEO Schwachstellen. Im Detail betrachtet gibt es allerdings einige Unterschiede, welche nachfolgend aufgelistet sind.

 

Sistrix OptimizerOnPage.orgOnPageDocSearchmetrics Site Optimization
PreisAb 100 €/mtlAb 99,90 €/mtlAb 23,92 €/mtlAb 69 €/mtl
Umfassende Onpage Analysexxxx
Wöchentliche Analysexxxx
Keywordmonitoringxxxx
Externe Backlinksxxx
WDF*IDF Toolsxxx
Duplicate Content Prüfungxxxx
Konkurrenzanalysexxxx
Reportsxxx
Externe Backlinksxxx

 

4. Funktionsumfang

Die Menge an Funktionen im OnPage.org Zoom ist überwältigend. Es gibt für jeden wichtigen Onpage-Faktor entsprechende Auswertungen und Optimierungshinweise. Hier wird die Kompetenz deutlich, die hinter dem Tool steckt.
Insgesamt gliedert sich das Zoom Modul in acht Hauptpunkte. Diese sind sinnvoll gewählt und mit entsprechenden Unterpunkten ausgestattet.

Abbildung 1 Funktionsumfang
Abbildung 1: Funktionsumfang

4.1. Indexierbarkeit

Die Indexierbarkeit stellt den ersten Einstieg in die Analyse eines Projektes dar. Ein optimaler Anfang um aus einer Masse an URLs zu erfahren, welche nun wirklich für die Suchmaschinen relevant sind.

Kann eine Seite nicht indexiert werden, wird einem die Ursache dafür aufgezeigt. Sei es durch einen internen 404 Fehler oder Duplicate Content – man erkennt sofort das Problem und kann dieses direkt angehen.

Status Codes spielen eine sehr große Rolle bei der Indexierung. Alle Status Codes der URLs lassen sich in diesem Punkt ebenfalls einsehen und werden optisch mit Warnfarben dargestellt. Weiterleitungen können somit schnell nach temporär oder permanent unterteilt werden.

4.2. Inhalt

Bereits auf dem Dashboard wird großer Wert auf die Optimierung des Inhalts gelegt. Dieser Bereich wird in folgende Kategorien unterteilt:

  • Title
  • Description
  • Länder und Sprachen
  • Überschriften
  • Wort Statistiken
  • Duplicate Content
  • Ausgehende Links
  • Dokumententyp (MIME)
  • Benutzerdefinierte Felder
  • Social

Der Title und die Description werden im Tool sehr schön dargestellt und die maximale Länge für die Google SERPs ist als Anhaltspunkt direkt integriert. Ebenso werden Duplikate aufgelistet, um systembedingte Generierungen schnell zu erkennen.

OnPage.org schenkt Dir hier GRATIS einen 100 Punkte Plan zur besseren Webseite!

In der Wort Statistik muss man jedoch bedenken, dass hier wie auch bei Google die gesamte Anzahl der Wörter auf einer Seite berechnet wird. Es zählen somit auch Menüpunkte, Sidebars oder Footer-Texte, welche in jeder URL vorkommen, mit in die Statistik. Die Auflistung des reinen Haupt-Contents befindet sich aktuell noch in der Testversion und kann mit Vorsicht genutzt werden.

Die Abfrage des Analytics Codes unter dem Menüpunkt „Benutzerdefinierte Felder“ ist in unserem Test leider nicht möglich gewesen. Es wurde hier keine ID gefunden, obwohl diese im Quellcode vorhanden ist. Sonstige Crawling-Fehler sind uns aber im weiteren Verlauf nicht untergekommen.

Unter dem Punk „Social“ kann eine Twitter und Facebook Vorschau für die jeweilige URL eingesehen werden. Es werden dazu die Open Graph Daten abgefragt.

4.3. Dateien

In dem Menüpunkt „Dateien (statische Inhalte)“ verbergen sich alle wichtigen Informationen zu Bildern, Javascript und CSS Dateien.
Hier ist besonders die Erreichbarkeit und Indexierung wichtig, welche auch als erster Punkt bei den einzelnen Dateiformaten mit Hilfe des Status Codes aufgeführt ist. Zur Optimierung der Ladezeit ist die Anzahl der verwendeten JS- und CSS-Dateien wichtig und auch als extra Punkt vorhanden.
Sehr hilfreich sind die Auflistung aller Dateinamen und die zugehörigen Hosts. So lassen sich schnell externe JS-Dateien identifizieren und die Ladezeit nochmals verbessern.
Bei den Bildern stehen neben dem SEO Faktor ALT-Text auch die Anzahl an Bildern pro Seite zur Verfügung.

4.4. Mehrsprachigkeit

Gerade internationale Webseiten mit verschiedenen Sprachversionen haben mit der genauen Auslieferung des geographischen Contents und Bekämpfung von Duplicate Content zu kämpfen. Mit dieser Auswertung können schnell vergessene hreflang-Attribute ausfindig gemacht oder einzelne Seiten auf eine korrekte Weiterleitung der anderen Sprachvarianten geprüft werden.

Eine Linkliste aller internen und externen Verweise mit der umfangreichen Filtermöglichkeit von OnPage.org stellt ein mächtiges Tool für die interne Verlinkung dar. Sei es um interne nofollow Links zu identifizieren oder den Linkjuice für wichtige Seiten zu verbessern.

Für zusätzliche Unterstützung gibt es einen internen Messwert, der den Linkjuice darstellen soll. Wie genau dieser der tatsächlichen Linkpowerverteilung nahe kommt, sei dahingestellt, dennoch gibt er einen ersten Anhaltspunkt für die Verteilung der Links.

Seiten, welche keine Links und somit auch keinen OPR (OnPageRank) bekommen, können in einem separaten Unterpunkt eingesehen werden. Wichtige Seiten mit schlechter interner Verlinkung sollten anschließend gezielt verlinkt werden.

Abbildung 2 Klickpfade
Abbildung 2: Klickpfade

Eine weitere sinnvolle Auswertung ist der Klickpfad. Hier wird die Anzahl der Klicks aufgeführt, die man benötigt, um zu einer bestimmten URL zu kommen. Hier sollten alle URLs unterhalb von 4 Klicks liegen, um eine optimale Durchdringung der Seite zu gewährleisten und dem Googlebot das Erkennen neuer Seiten zu vereinfachen.

4.6. Sitemap

Unterhalb der Kategorie Sitemap werden alle wichtigen Fakten zur sitemap.xml zusammengetragen. Man erfährt, welche Seiten in den Sitemaps vertreten sind und welche nicht. Auch lassen sich die vorhandenen Seiten auf ihren Status Code prüfen, um unnötige URLs aus der Sitemap zu entfernen. Weiterhin wird die Frequenz und Priorität der Webseiten sowie die letzte Aktualisierung wiedergegeben.

4.7. Performance

Die Wichtigkeit der Performance einer Webseite wird immer stärker in die Berechnung des Rankings mit einbezogen. Auch werden die Besucher eine Seite eher verlassen, sollte die Geschwindigkeit nicht angemessen sein. Hierbei spielt die Linkstruktur oder der gute Inhalt keine Rolle.
Es ist also essenziell, die Ladezeit und generelle Performance einer Domain im Auge zu behalten und kontinuierlich zu verbessern. Unter dem ersten Punkt ist daher auch logischerweise die Ladezeit angegeben. Die Unterteilung erfolgt dabei in fünf Kategorien. Von schnell bis sehr langsam und zusätzlich noch ein Timeout. Die genaue Antwortzeit, die Time to First Byte und die Verbindungszeit kann in der Tabelle pro URL eingesehen werden.

Abbildung 3 Performance
Abbildung 3: Performance

Als weitere Punkte zur Steigerung der Performance gibt es die Verwendung einer Kompression mit den entsprechenden Kompressionsarten und die Dateigröße, um mögliche Ausreißer ausfindig zu machen.
OnPage.org Zoom kann zudem die Anzahl der Cookies pro Seite ermitteln. Hier sollte eine möglichst geringe Anzahl pro Seite angestrebt werden. Besonders bei Affiliate Seiten sollte man einen genaueren Blick darauf werfen, da es so schnell zu einer höheren Ladezeit kommen kann.

4.8. URL Struktur

OnPage.org hilft ebenfalls dabei, die eigene URL Struktur zu verbessern. Hier wird zunächst die Länge der URL angegangen. Das Tool teilt die URLs in Zeichenlänge bis 200 Zeichen jeweils in 20er Schritten auf. Die URLs mit mehr als 160 Zeichen werden gelb markiert.
Eine weitere URL Optimierung besteht in der korrekten Handhabung mit GET Parametern. Es sollten sich nicht zu viele Parameter an einer URL heften. OnPage.org weist 3-6 Parameter bereits als ungünstig aus, URLs mit mehr als 6 Parametern sollten definitiv überarbeitet werden.

Grundlegend sollten alle URLs in Kleinbuchstaben und ohne Sonderzeichen vorhanden sein. Auch hier gibt es eine Auswertung, um solche URLs gezielt zu optimieren. Dabei lassen sich auch verschiedene Dokumenten-Typen wie Bilder betrachten.
Auch die Anzahl der Verzeichnisse lässt sich kompakt darstellen. Hier empfiehlt der Tool-Anbieter weniger als vier Verzeichnisse pro URL zu verwenden.

4.9. Fazit OnPage.org Zoom

Der Umfang an Auswertungen innerhalb des größten Moduls bei OnPage.org ist wirklich beeindruckend. Für den Onpage Bereich werden keine Wünsche offengelassen. Man bemüht sich sehr, die Funktionen stets aktuell zu halten und gibt auch Anfängern sehr viel Hilfe an die Hand, um ein Projekt optimal für SEO aufzustellen.

5. Expert Mode / Anfänger

Die einzelnen Reports bieten neben der Standardansicht einen erweiterten Modus für mehr Details und weitere Informationen zu den einzelnen URLs. In dieser Ansicht erhält man unter anderem Informationen über die Top Begriffe der Seite sowie folgende technische Punkte:

  • Statuscode
  • robots.txt
  • Indexierbarkeit
  • Pagerank Vererbung
  • Vorkommen in der Sitemap
  • Dateigröße
  • Sprache
  • Land

Diese Punkte geben nicht nur einen besseren Überblick zum technischen Stand der URL, sondern es lassen sich somit auch sehr einfach weitere Filter für die aktuelle Auswahl definieren. So kann man zum Beispiel mit einem Klick auf den Statuscode einer einzelnen Seite alle weiteren URLs mit demselben Statuscode auflisten lassen. Seiten mit eingehenden internen Links können so dahingehend überprüft werden, ob der zurückgegebene Statuscode ein anderes Ergebnis als 200 ausliefert.

Abbildung 4 Expert Mode
Abbildung 4: Expert Mode

Eingestellt wird die detaillierte Ansicht über das Zahnradsymbol in der Datentabelle des entsprechenden Reports. Unterhalb des Punktes „Anpassen“ wird der Reiter „Dokumentenansicht“ ausgewählt und entsprechende Auswahl getätigt. Eine Bestätigung der Auswahl wird nicht benötigt. Hier wird die Änderung sofort übernommen.

6. Crawler Einstellmöglichkeiten

Der eigene Crawler von OnPage.org folgt standardmäßig jedem Link auf einem Projekt, um möglichst alle URLs mit in die Analyse aufzunehmen. Wie auch andere Crawler kann er aber gesteuert werden. So ist es möglich, Bereiche oder bestimmte Verzeichnisse auszulassen oder nur eine bestimmte Subdomain zu crawlen.

Im Tool selbst können die gesamten Crawler-Einstellungen nach dem Klick auf „Crawler Einstellungen“ in der rechten oberen Ecke eingesehen werden. Der Punkt befindet sich jeweils im Projekt selbst. Damit ist es möglich für jedes Projekt individuelle Crawler-Einstellungen festzulegen.

Alle Einstellungen sind in sechs Hauptpunkte untergliedert. In unserem Test haben wir verschiedene Optionen ausprobiert und konnten feststellen, dass viele der Punkte nicht nur unnötige Informationen bereits im Vorhinein entfernt haben, sondern sich dies auch auf die Crawl-Geschwindigkeit auswirkt.
Um ein besseres Gefühl zu bekommen, was alles eingestellt werden kann und welche Auswirkungen dies hat, gehen wir die Punkte einzeln durch.

6.1. Wie gecrawlt wird

Unter diesem Hauptpunkt werden alle detaillierten Einstellungen vorgenommen, wie der Crawler grundsätzlich arbeiten soll.

Abbildung 5 Wie gecrawlt wird
Abbildung 5: Wie gecrawlt wird

Maximale URL-Anzahl
Hier kann die maximale Anzahl der URLs eingestellt werden, die gecrawlt werden sollen. Die Anzahl kann von 100 Seiten bis 22 Millionen Seiten variieren. Natürlich ist für eine Anzahl ein entsprechendes Budget Voraussetzung.

Tipp: Als Anhaltspunkt über die mögliche Anzahl der eigenen Webseite können mit der Google-Abfrage „site:www.deine-domain.de“ alle indexierten Seiten ausgegeben werden.

Parallele Requests
Wenn ein Bot eine Webseite crawlt, entstehen eine Menge Abfragen, welche der Server abarbeiten muss. Diese sind in der Regel wesentlich höher als im normalen Betrieb. Auch beim OnPage.org Crawler ist das nicht anders. Server, welche nicht über eine entsprechende Leistung verfügen, um diesen „Anfragen-Sturm“ zu bewältigen, gehen dabei gerne in die Knie und werden sehr langsam oder melden Timeouts. Hier kann mit den parallelen Requests der Crawlerzugriff gesteuert werden, sodass er optimal auf den Server ausgerichtet ist. Wer dabei nicht nur raten möchte, kann seine Seite verifizieren und somit die perfekten Einstellungen testen lassen.

Cookies akzeptieren?
Standardmäßig ist die Option deaktiviert. Der Crawler wird so keine Cookies annehmen. Damit können Probleme erkannt werden, die bei deaktivierten Cookies auftreten, wie Session IDs oder Cloaking. Bei Bedarf kann der Crawler aber diese Cookies mit aufnehmen.

Login Daten
Bei Relaunches oder neuen Projekten wird die Entwicklung zunächst passwortgeschützt. Um dennoch bereits erste Auswertungen zu erhalten, können bei OnPage.org die entsprechenden Login-Daten hinterlegt werden, um die Seiten zu crawlen. Dieses Feature funktioniert allerdings nur bei „htacces“ geschützten Seiten.

URL Normalisierung
In dieser Einstellung können URLs korrigiert werden. Das bedeutet, ähnlich wie Google werden Groß- und Kleinschreibung logisch ersetzt oder Ports weggelassen.
z.B.:
www.online-marketing-tag.de:80 -> www.online-marketing-tag.de
www.Online-Marketing-Tag.de:443 -> www.online-marketing-tag.de

Diese Einstellung sollte man nur in ganz seltenen Fällen aktivieren, da sich nicht nur die Auswertung der Klickpfade ändern kann, sondern auch Probleme der internen Verlinkung unentdeckt bleiben.

Robots.txt Handhabung
In dieser Option kann angegeben werden, ob die robots.txt berücksichtigt werden soll oder nicht. Sollten einige Bereiche bewusst ausgeschlossen werden wie zum Beispiel das Backend in einem CMS, kann man diese auch bei OnPage.org ausschließen lassen.
Bei einem größeren OnPage.org Paket können zudem angepasste robots.txt Dateien mit in das Crawlverhalten einbezogen werden. So kann man geänderte Einstellungen vorab testen.

Crawler-Rechenzentrum
Besonders bei Webseiten, die nicht nur auf Deutschland spezialisiert sind, kann es interessant sein, die Abfragen von einem anderen Standort zu bekommen. Hier können unter dem Punkt „Crawler-Rechenzentrum“ weitere Standorte ausgesucht werden.

Crawler User-Agent
Im Normalfall wird sich der OnPageBot auch als dieser ausgeben. Es kann aber auch nötig sein, sich als ein anderer User-Agent auszugeben, wenn zum Beispiel einige Bots für die Seite gesperrt sind.

Zusätzliche Request Header
In ganz seltenen Fällen können zusätzliche Request Header Werte festgelegt werden. Möglich ist das zum Beispiel bei einer IP-Sperre des Webservers.

6.2. Was gecrawlt wird

Der zweite große Navigationspunkt bei den Crawler-Einstellungen dreht sich um das Thema, was gecrawlt wird. Hier werden beispielsweise bestimmte Verzeichnisse oder Subdomains einzeln betrachtet. Die Unterpunkte gliedern sich folgendermaßen auf.

Abbildung 6 Was gecrawlt wird
Abbildung 6: Was gecrawlt wird

Homepage URL
Die Startseite einer Domain ist in der Regel die erste Seite, die gecrawlt wird. Sollte man aber lieber eine andere Seite als Startpunkt festlegen wollen, kann man diese hier eintragen.

Unterverzeichnis-Modus
Wenn man nur ein bestimmtes Directory analysieren möchte, trägt man den gewünschten Ordner unter diesem Punkt ein. Wichtig ist, dass der Pfad immer relativ zum Root-Verzeichnis angegeben werden muss.

Bilder prüfen?
Wer schneller seine Seite crawlen lassen möchte und auf die Auswertung der Bilder verzichten kann, kann das Häkchen hier abwählen.

Subdomain crawlen
Links auf Subdomains werden als externe Links angezeigt und weitere Informationen daher vernachlässigt. Bei einem ausgelagerten Blog oder Online-Shop kann es sich aber durchaus lohnen, diese Auswertungen zu erhalten. Deshalb ist diese Option per Voreinstellung aktiviert.

Sitemaps auswerten
Um auf OnPage.org den Report „sitemap.xml“ zu erhalten, wird diese Option benötigt. Eine Deaktivierung ist nur im Falle von mehr als 20 Sitemaps denkbar, um die Leistung des Crawlers nutzen zu können.

Sitemap URLs
Bei Sitemaps mit nicht gängigen Dateinamen (sitemap.xml) und auch keinem entsprechenden Verweis in der robots.txt kann der OnPage.org Crawler diese nicht finden und ist darauf angewiesen, dass unter diesem Punkt die Sitemaps eingetragen werden. Anderenfalls kann das Feld leer bleiben.

Boilerplate entfernen
Die Wort/Text Analyse basiert generell auf dem gesamten Inhalt einer URL. Also werden hier auch seitenweite Texte in Navigation, Footer oder Sidebar mitgezählt. Für eine reine Betrachtung des Textes im Content-Bereich kann man diese Boilerplate entfernen. Aktuell ist diese Option allerdings noch in der Testphase.

GET Parameter sortieren?
Gefundene GET Parameter können per Aktivierung alphabetisch sortiert werden. Dies erzeugt weniger internen Duplicate Content, welcher meist beseitigt werden sollte.

http://www.deine-domain.de/?ort=rosenheim&alter=28
http://www.deine-domain.de/?alter=28&ort=rosenheim

Mit der Aktivierung würden nicht beide obenstehenden URLs angezeigt, sondern nur die zweite.

GET Parameter ignorieren
Die andere Option wäre, ganze GET Parameter komplett zu ignorieren und entsprechende URLs automatisch zu entfernen. Dies geschieht ähnlich wie bei der Parameter-Ausschließung in der Google Search Console. Allerdings werden auch hier mögliche Schwachstellen verborgen.

6.3. Weitere Einstellungen

Neben den zwei ausführlichen Einstellungen können im Navigationspunkt noch einzelne URLs explizit ausgeschlossen oder zwingend gecrawlt werden. Diese Auswahl an URLs kann mit einer bereitgestellten Syntax realisiert werden.

Abbildung 7 Weitere Crawler Einstellungen
Abbildung 7: Weitere Crawler Einstellungen

Ebenso können automatische Crawls in regelmäßigen Abständen eingestellt werden. Damit können Projekte wöchentlich, alle 2 Wochen oder einmal im Monat gecrawlt werden.
Sollte man mit seinen Einstellungen zufrieden sein, kann man diese testen lassen. Dazu wird eine URL eingegeben und man erhält sofort das Ergebnis. Nach dem Crawl ist auch eine Übersicht der bisherigen Crawls sichtbar. Diese zeigen nicht nur den Bearbeiter an, sondern auch die gefundenen URLs. So lässt sich einfach erkennen, ob man ein höheres oder niedrigeres Crawling-Limit benötigt.

7. Oberfläche

Beim ersten Login ist man wirklich positiv überrascht. Auch in der neuesten Version 3 hat sich an dem Grundprinzip des Designs nichts verändert. Es ist nach wie vor sehr übersichtlich und angenehm gestaltet. Man wird nicht sofort mit zu vielen Daten erschlagen oder muss sich erst einmal Zeit nehmen, um sich zurechtzufinden.

OnPage.org jetzt GRATIS testen! (hier klicken)

Das neue Facelift hat eine seitliche Bilder-Navigation, die sich beim Klick auf einen Menüpunkt erweitert. Insgesamt ist es sehr intuitiv und so gut strukturiert, dass die Masse an Unterpunkten nicht erschreckend ist.

Ausgangspunkt ist immer das OnPage.org Dashboard, das alle wichtigen Punkte auf den ersten Blick bereithält. Persönlich empfand ich die Darstellung der kritischen Fehler im alten Design etwas gelungener, da sie eher ins Auge gesprungen sind.

Abbildung 8 Dashboard
Abbildung 8: Dashboard

Aktuell erhält man ein Thumbnail des Projektes und den Status der gecrawlten URLs. Des Weiteren einen Überblick der Indexierbarkeit der Seiten. Direkt darunter erscheint die Statistik über die Erreichbarkeit. Auf der linken Seite werden dann die wichtigsten Faktoren in drei Kategorien (SEO, Technik, Inhalt) zusammengefasst und mit einer Skala von 0-100 Prozent bewertet. Mit einem Klick wird man zu den Faktoren geleitet, welche nochmals mit einer Prioritätenskala ausgezeichnet sind.
Insgesamt wirkt das neue Design sehr homogen und angenehm. Die erste Orientierung am minimalistischen Menü ist etwas gewöhnungsbedürftig. Man wird diesen Aufbau jedoch nach einer kurzen Zeit sehr schätzen. OnPage.org zählt hier nach wie vor zu den besten Tools was das User Interface angeht.

8. Tutorial Videos

Insbesondere SEO Einsteigern helfen die kurzen, aber sehr informativen und ansprechenden Videos und FAQs, die man zu einzelnen Faktoren erhält. Neben dem bereits sehr umfangreichen Wiki von OnPage.org unterstützen diese kleinen Videos und die jeweilige Tour durch die einzelnen Punkte beim besseren Verständnis für das Thema SEO.

Abbildung 9 Tutorial Videos
Abbildung 9: Tutorial Videos

Wer nur eine kurze Erläuterung zu den einzelnen Diagrammen oder Spalten benötigt, wird mit einem Hover-Hinweis zu jedem Punkt aufgeklärt.

Genauso ausgereift wie die Benutzerfreundlichkeit zeigt sich der Support beim OnPage.org Tool. Mit einem Klick innerhalb der Anwendung hat man die Möglichkeit per Telefon, Ticket oder direkten Live Chat in Kontakt zu treten. Für eine Fehlermeldung oder einen Verbesserungswunsch gibt es separate Menüpunkte.

Abbildung 10 Support
Abbildung 10: Support

Bei unseren Anfragen bekamen wir in der Regel bei einem Ticket oder Fehlerbericht innerhalb eines halben Tages Rückmeldung und meist auch direkt die Lösung unseres Problems. Der Live-Chat ist in der Regel in den Geschäftszeiten online und nimmt sich ausreichend Zeit, um Fragen direkt und ausführlich zu beantworten.

9. Filtermöglichkeiten

Grundlegender Pfeiler der neuen OnPage.org v3 ist das komplexe Filtersystem. Gefühlt kann man nach jedem HTML-Tag filtern, das man auf einer Seite verwendet hat. Aber auch Filter wie beispielsweise „ist indexierbar“, „Sonderzeichen in URL“ oder „ist URL sauber?“ können verwendet werden, um gewünschte Facetten anzuzeigen. Darüber hinaus kann auch nach Attributen wie „Verwendet die Seite Flash“ oder „Time to First Byte“ gefiltert werden. Um der Masse an Optionen Herr zu werden, kann auch sehr praktisch eine Livesuche innerhalb der Filter verwendet werden.

Abbildung 11 Auswahlmöglichkeiten an Filtern
Abbildung 11: Auswahlmöglichkeiten an Filtern

Abbildung 12 Report Was ist indexierbar
Abbildung 12: Report: Was ist indexierbar?

Filter können generell auf jedes der neuen Reportings angewendet werden. In der aktuellen Version bleiben Filter über alle Reportings bestehen. OnPage.org spricht hier von den „sticky Filtern“. Dadurch ist es möglich, von Report zu Report zu springen, ohne jedes Mal den Filter wieder neu einstellen zu müssen.
Durch die Option jeden beliebigen Filter zu setzen, ergeben sich unbegrenzte Möglichkeiten genau die Daten auszuwählen, die von Interesse sind. So können diese nach allen Metriken untersucht werden.
Wem die Anzahl an vorhandenen Filtermöglichkeiten nicht genügt, wird sogar die Möglichkeit geboten, mittels regex eigene Filter hinzuzufügen.
Wie selbstverständlich erscheint es da, dass alle Filter auch negiert werden können. Mit einem Klick auf die Filteroptionen sind alle gewählten Filter einzeln editierbar.

13 - Benutzerdefinierte Felder mittels regex & Editiermodus
Abbildung 13: Benutzerdefinierte Felder mittels regex & Editiermodus

In den bereits beschriebenen Möglichkeiten des Expert-Modus dient jedes Element der ausgewiesenen Metriken als Möglichkeit der Filterung. Jedes Element kann mittels Klick zu den angewandten Filtern hinzugefügt werden. Auch einzelne Begriffe aus dem Meta-Title einer URL oder einer Unterkategorie im URL-Slug können als Filter verwendet werden.
Jeder Filter kann einzeln oder auch komplett wieder aus der Filterkombination entfernt werden. Mit einer beeindruckenden Geschwindigkeit werden die Daten, auch bei großen Webseiten, mit den neuen Filtern angezeigt.

Abbildung 13 Benutzerdefinierte Felder mittels regex & Editiermodus
Abbildung 14: 1-Klick Filtermöglichkeiten

Zuätzlich zu den Filtern besteht bei allen Reports die Möglichkeit, die angezeigten Metriken zu erweitern und so die angezeigten Daten um relevante zu ergänzen oder nicht benötigte zu reduzieren.
Auch zusätzliche Attribute können unterhalb des angezeigten Report-Diagramms angezeigt werden.

Abbildung 15 Anpassung der Reporte
Abbildung 15: Anpassung der Reporte

OnPage.org Impact ist die Möglichkeit der Verknüpfung der Daten der Google Search Console an die bisherigen Daten von OnPage.org. Aktuell befindet sich das Tool noch in der Alpha Version und ist nur auf Anfrage für manche User freigeschaltet. Zwar besitzen wir einen Zugang, jedoch konnten wir das Tool nicht konkret testen, da der Server unsere Anfragen nicht bearbeiten konnte. Im Rahmen der Alpha-Phase haben wir dafür natürlich absolutes Verständnis und sind gespannt auf die weiteren Phasen und Ergebnisse des Tools. Dennoch wollen wir einen kleinen Ausblick auf die Möglichkeiten geben, die wir von dem Tool erwarten können.

Mit den direkten Daten von Google in Kombinationen wird ein sehr mächtiges Tool geschaffen werden, das mögliche Auswirkungen von Onpage-Faktoren direkt auf die Position in den Suchergebnissen, die Klickrate und den Anzeigen der Ergebnisse in den SERPs analysieren kann. Zudem werden die Auswirkungen von Änderungen auf der Seite auf sehr viele Keywords, speziell auch Longtail-Keywords, messbar sein.

Es wird möglich sein, einen verlässlichen Sichtbarkeitsindex zu erstellen. Unabhängig von überwachten Keywords und wöchentlichen Rankingupdates. Die Daten kommen direkt von Google und bieten die „echte“ Sichtbarkeit über die Impressions über einen bestimmten Zeitverlauf an.

Wenn die Funktionen so umgesetzt werden, wie aktuelle Statements von OnPage.org verlautbaren lassen, wird das Tool die Keyword-Überwachung auf ein neues Level setzen. Daten können automatisiert gespeichert werden, um so die aktuelle Haupteinschränkung der Online-Version der Search-Console, die Begrenzung der Speicherung und Verarbeitung der Daten auf die letzten 3 Monate, zu umschiffen. Aggregiert mit den vorhandenen Daten und Vorschlägen zur Optimierung der Seiten, können dadurch Änderungen direkt gemessen werden und Erfolge sehr viel konkreter aufgezeigt werden.

***UPDATE: Das Keyword-Tool wurde inzwischen komplett überarbeitet und gestern (Stand: 04.02.2016) online gestellt. Genaue Infos dazu findet man unter https://de.onpage.org/blog/onpage-org-keywords.

Wir sind das neue Tool schon ausgiebig am Testen und werden Euch bald ein Update unseres Onpage.org-Tests veröffentlichen.

Nach eigenen Angaben sollen folgende KPIs mit OnPage.org Impact analysiert werden können:

    • Wie häufig wird die Domain innerhalb der Suchergebnisse angezeigt und für welche Keywords (Search Impressions)
    • Wie oft wurde die Domain, bei welchen Keywords, in den Suchergebnissen angeklickt (Click-throughs)
    • Click-Through-Rate (CTR) innerhalb der Suchergebnisse
    • Durchschnittliche Position in den Suchergebnissen
    • Wie Deine Webseite und ihre Unterseiten in den internationalen Suchergebnissen performen
    • Wie sich die Klickrate in den Suchergebnissen auf verschiedenen Endgeräten (z.B. Mobile User) entwickelt
    • Wie verhalten sich Brand-basierte Suchbegriffe gegenüber Non-Brand Suchanfragen
    • Bei welchen Suchbegriffen deine Seite im Vergleich zum vorherigen Zeitraum gefallen bzw. gestiegen ist

(Quelle Onpage.org-Blog)

Die umfassenden Features des neuen Tools sind im OnPage.org-Blog nachzulesen unter:
https://de.onpage.org/blog/onpage-org-impact-echte-ranking-daten-echter-impact

In Kombination mit den bisherigen extrem starken Filtermöglichkeiten des gesamten Tools OnPage.org Zoom sind wir sehr gespannt auf die Features, die andere Anbieter ähnlicher Monitoring Tools sicherlich gehörig unter Druck setzen werden.

11. OnPage.org Focus

Mit „Focus“ hat das Team von OnPage.org ein weiteres kostenloses Addon für Kunden geschaffen, das für die Sofortanalyse einzelner URLs gedacht ist. Im Gegensatz zum vollumfänglichen OnPage-Tool wird hier nur eine einzige URL analysiert. Daraus resultiert ein unmittelbares Ergebnis für den User, wie der aktuelle Stand des untersuchten Dokuments ist. Analysiert werden wichtige Indikatoren, welche die Qualität der Webseite beeinflussen können.

11.1. Urls

Der User muss sich dabei nicht auf einzelne URLs der eigenen Projekte beschränken, sondern kann an dieser Stelle beliebige URLs von Mitbewerbern oder anderen Projekten analysieren. Wichtig ist erneut zu betonen, dass es sich wirklich nur um genau diese URL handelt. Alle anderen URLs der Domain sind nicht von Belang. Dadurch wird eine Anzeige der Ergebnisse in Echtzeit möglich. Wir haben bei unseren Tests kein Limit der möglichen Wiederholungen feststellen können.

11.2. To Do Liste

Als Ergebnis der Analyse erhält man eine Auflistung, welche die grundlegenden SEO-Aspekte und deren Umsetzung auf der Webseite aufzeigt. Visuell dargestellt werden Statuscode und eine Übersicht über den hauseigenen OPQ sowie Indexierbarkeit und Fehlermeldungen.

16 - Ergebnis der Schnellanalyse
Abbildung 16: Ergebnis der Schnellanalyse

Direkt im Anschluss erhält man eine Checkliste, in der gravierende Fehler und Warnungen aufgelistet sind. „Gravierende Fehler“ sind Punkte, die umgehender Überprüfung bedürfen. Beispiele hierfür sind: Nichtindexierbarkeit, falsche/abweichende Canonisierungen, Check von H1 Überschriften & hierarchischem Aufbau selbiger, Crawlersteuerung, Hreflang-Auszeichnungen. Sehr positiv ist auch hier ein automatischer Check von unterschiedlichen Schreibweisen der URL wie mit und ohne www, Check von unterschiedlicher Erreichbarkeit der http- & https- Version und Schreibweisen mit und ohne Slash-Zeichen.

Bei der Rubrik „Warnungen“ handelt es sich um eine Überprüfung von typischen OnPage-Faktoren, die bei einer optimalen Gestaltung der Webseite von Belang sind. Typische Beispiele sind hier: Titles, Descriptions, Anzahl der CSS-Dateien, Alt-Tags, Spracheinstellungen. Überprüft werden aber auch beispielsweise: Das Vorhandensein von Favicon und der Umgang mit gecacheten Daten.

Als dritte Rubrik werden weitere Notizen aufgezeigt, die bei der Analyse der Seite aufgefallen sind, durch deren Veränderung aus SEO Sicht aber keine Verbesserung der Seite zu erwarten ist.

Die Checkliste gibt immer einen eindeutigen Hinweis, wie mit den einzelnen Aspekten umgegangen werden soll. Aus unserer Sicht eine sehr schöne und übersichtliche Zusammenfassung. Benötigt man weitere Informationen zu einem beliebigen Punkt, gelangt man mit einem Klick auf den Verbesserungsvorschlag zu der ausführlicheren Erklärung der Problemstellung mit den entsprechenden konkreten Vermerken zum aktuellen Stand der Seite.

11.3. Übersicht

Im Anschluss an die ToDo-Liste erhält man eine Übersicht über ein sehr breites Spektrum aller analysierten SEO Metriken. Key-Facts sind die Themen

  • Indexierbarkeit
  • Inhalt
  • Technik
  • Mobile
  • Social
  • App
  • Markup Stats

Es werden sehr viele Einstellungen und Faktoren überprüft. Angefangen von Optimierungen, die sehr grundlegend sind (z.B.: Titles & Descriptions) und die auch von vielen grundsätzlich kostenlosen Tools zufriedenstellend geprüft werden, bis hin zu fortgeschrittenen Header Einstellungen.

Neben der visuellen Bewertung der Umsetzung der einzelnen Punkte bietet Focus an vielen Stellen passende Möglichkeiten, um zu einem Aspekt weiterführende Informationen zu erhalten:

  • So wird beispielsweise direkt eine zu erwartende Vorschau des Ergebnisses in den Google Suchergebnissen angezeigt.
  • Es existiert eine Übersicht über die Verwendung von Keywörtern und der damit einhergehenden Fokussierung der Seite.
  • Eine Übersicht über Social Signals von Facebook, Twitter & Google+.
  • Des Weiteren gibt es direkte Verweise zum Pagespeedtest von Google sowie direkt die Möglichkeit, verlinkte URLs ebenfalls mit Focus zu analysieren.

Abbildung 17 Zusätzliche Infos und Möglichkeiten zu sehr vielen Onpage-Faktoren
Abbildung 17: Zusätzliche Infos und Möglichkeiten zu sehr vielen Onpage-Faktoren

12. WDF*IDF

Das WDF*IDF Tool von OnPage.org ist ebenfalls eine kostenloses Addon der OnPage-Zoom Pakete. Wie beim Portfolio einiger Mitbewerber, welche die Funktionen als Kernpunkte des jeweiligen Tools definiert haben, geht es in Kürze darum, den Inhalt eines Textes automatisch auf seinen Gehalt, seine Relevanz zur Suchanfrage im Verhältnis zu anderen Texten und die Wahrscheinlichkeit zur Bedürfnisbefriedigung des Users zu überprüfen und zu bewerten.

12.1. Erstellen der Analyse

Wir benötigen lediglich ein Keyword, für das wir einen möglichst relevanten Text schreiben möchten. Im folgenden Beispiel interessieren wir uns für „Eiweißpulver“. Als Feature an dieser Stelle ist uns aufgefallen, dass es die Möglichkeit gibt, verschiedene Länder und Spracheinstellungen vorzunehmen

Abbildung 17 Termgewichtungs-Analyse erstellen
Abbildung 18: Termgewichtungs-Analyse erstellen

12.2. Ergebnis

Das Ergebnis wird visualisiert in einem Balkendiagramm dargestellt. Positiv finden wir die vollkommen flexible Einstellungsmöglichkeit der Anzahl der verwendeten Terme. Mögliche Zusatzeinstellung ist die im vergangenen Jahr hinzugekommene Analyse der 2-Wort-Paare. Dadurch können nicht nur Single-Keywords bewertet werden, sondern auch eventuelle Sekundärkeywörter, für die gegebenenfalls eine realistischere Chance besteht zu ranken.

Abbildung 18 Termgewichtung Analyse erstellen
Abbildung 19: Terme für ein Keyword

12.3. Detaillierte Analyse

Eine weitere Option stellt die Anzeige von detaillierten Ergebnissen dar. Aus dieser geht hervor, wie die verwendeten Terme innerhalb der analysierten bereits rankenden Dokumente verwendet werden. Es stehen verschiedene Sortierungsmöglichkeiten nach verschiedenen Metriken innerhalb des Reports zur Verfügung. So erhält man weitere Ideen und eine Übersicht, welche Themen bei der Erstellung eines Textes berücksichtigt werden könnten.

Abbildung 19 Terme für ein Keyword
Abbildung 20: Terme – Erweiterte Ansicht

Eine detaillierte Beschreibung, für welche Informationen die einzelnen Balken und Farben stehen, findet ihr im folgenden Blogbeitrag von OnPage.org selbst: https://de.onpage.org/blog/next-level-wdfidf-texterstellung-und-analyse-on-steroids

Ziel des Reports ist es, die Gewichtung der Terme des eigenen Textes in den grünen Bereich zu bekommen. So scheint der Term relevanter zu sein als der Durchschnitt, aber nicht übermäßig, sodass der Inhalt als Spam ausgelegt werden könnte (es ranken schließlich Dokumente sehr gut, die diesen Term noch exzessiver verwenden).

12.4. Optimierungen

Hat man nun einen Text geschrieben oder möchte man einen bereits bestehenden Text überprüfen, gibt es in dem Tool einen Textassistenten, mit dessen Hilfe man in zwei verschiedenen Modi automatisierte Tipps, bezüglich der Verwendung verschiedener Terme erhält.

Im Assistenz-Modus erhält man als Benutzer konkrete Vorschläge, welche Begriffe man hinzufügen, häufiger verwenden oder in geringerer Häufigkeit einbinden sollte, um auf Basis der bereits rankenden Ergebnisse einen relevanteren Text zu dem Thema zu schreiben.

Abbildung 20 Terme - Erweiterte Ansicht
Abbildung 21: Assistenz-Modus – WDF*IDF Tool

Abbildung 21 Assistenz-Modus - WDFIDF Tool
Abbildung 22: Detail-Modus – WDF*IDF Tool

Der Detail-Modus beinhaltet die identischen Daten, zusätzlich gibt es jedoch eine Übersicht, in welchem Maße die verwendeten oder noch nicht verwendeten Begriffe zu häufig respektive zu wenig im Text enthalten sind.

Aus unserer Sicht werden hier gut verschiedene Zielgruppen angesprochen. Professionelle Texter interessieren sich sicherlich konkret für die „optimale“ Häufigkeit der einzelnen Terme in ihren Ergebnissen und greifen besser zur Detail-Analyse. User, die lediglich schnell Tipps bzw. eine einfach zu verstehende Anweisung erhalten möchten, sind mit dem Assistenz-Modus besser beraten, da dieser konkrete Optimierungsempfehlungen gibt.

12.5. Wettbewerb

Interessiert man sich zusätzlich für die bereits rankenden Ergebnisse im Detail, bekommt man wahlweise in einer aggregierten oder mehreren einzelnen Grafiken den WDF*IDF–Wert der zehn aktuell rankenden URLs angezeigt. Nach Wunsch können einzelne URLs per Klick ausgeblendet werden, um eine bessere Übersicht zu bekommen.

Abbildung 22 Detail-Modus - WDFIDF Tool
Abbildung 23: Termgewichtung der rankenden URLs

Insgesamt ein Tool wie viele andere, jedoch sehr stark, was die Usability angeht und auch für Kunden kostenlos zu nutzen. Dadurch werden Tools, die man ansonsten kostenpflichtig einzeln buchen würde, redundant. Allgemein gilt natürlich, die Ergebnisse nicht 1:1 „nach Kurve“ umzusetzen. Es ist absolut essentiell, dass ein Text gut lesbar und einzigartig ist sowie vor allem wertvolle Informationen zu einem Thema liefert, um ein bestmögliches Ranking zu gewährleisten.

13. Keyword-Überwachung OnPage.org

Ein weiteres Tool des OnPage.org-Portfolios ist die Keyword-Überwachung. Das Leistungsspektrum ist naheliegend. Es besteht die Möglichkeit, ein Set an eigens definierten Keywords zu überwachen.
Diese werden im wöchentlichen Turnus upgedatet und jeweils als Momentaufnahme gespeichert. Man kann bei der Erstellung des Keywordsets aus einem breiten Spektrum an verschiedenen Ländern auswählen, deren spezifisches Ranking von Interesse ist.

Abbildung 23 Termgewichtung der rankenden URLs
Abbildung 24: Breites Spektrum an verschiedenen Ausgangsländern

Auf der Übersichtsseite stehen die üblichen Filtermöglichkeiten zu Verfügung. Das heißt, man kann schnell und unkompliziert filtern, um lediglich alle Keywords auf bestimmten Positionen angezeigt zu bekommen.

Angezeigt werden jeweils neben der Position auch die Veränderung zur vergangenen Woche sowie die rankende URL. Es besteht die Möglichkeit, das aufgezeichnete Ranking historisch seit Beginn des Settings zu verfolgen, indem man die gewünschte Woche auswählt.
Darüber hinaus lassen sich die Rankings von Mitbewerbern auf die entsprechen Keywords monitoren. Aus unserer Sicht immer sinnvoll, da man hier schnell einen Überblick bekommt, ob man an einer Stelle abgehängt wird oder sich weiter in seiner Position stärkt.

Mit der kommenden Erweiterung der Überwachung „Impact“ über die Verknüpfung mit der Google Search Console sind hier weitreichende Möglichkeiten offen.
Als einzelne Überwachung der Keywords im gleichzeitigen Vergleich zu verschiedenen Mitbewerbern eignet sich das Tool dennoch, da auch eine Überwachung von Keywords möglich ist, für die (noch) kein Ranking und damit auch (vermutlich) keine Impressions in den SERPs vorhanden sind.

Manko einer sinnvollen Keyword-Überwachung ist sicherlich die Update-Rate von einer Woche. Hier einen Trend zu erkennen kann sehr schwer sein. Andere Toolanbieter wie beispielsweise das SEO-Standard-Tool Sistrix bieten hier auf wöchentlicher Basis auch eine automatische historische Überwachung an. Um eine kontinuierliche Überwachung der (eigenen) Keywords zu gewährleisten, ist es am sinnvollsten, die Google Search Console zu verwenden.
Der logische, aber nicht weniger beeindruckende Schritt zur kommenden Anbindung des OnPage.org-Tools an die Search Console bringt in Kombination mit dem Monitoring von Mitbewerbern ein enormes Potential an Analysemöglichkeiten.

Insgesamt komplettiert aber auch das aktuelle Keyword-Monitoring eine umfassende Überwachung der eigenen Webseite. Wer detaillierte Analysen möchte, sollte sich allerdings noch bis zum offiziellen Launch von „Impact“ gedulden oder auf alternative Keyword-Analyse-Tools auf Tagesbasis zurückgreifen.

14. Monitoring

Beim OnPage.org Monitoring handelt es sich um die permanente Überwachung der Erreichbarkeit der eigenen Projekte. Beim Server-Monitoring wird die Startseite der gespeicherten Projekte im 5 Minuten Takt angepingt und die Time to First Byte in einer Verlaufsgrafik über die vergangene Woche angezeigt.

Abbildung 24 Breites Spektrum an verschiedenen Ausgangsländern
Abbildung 25: Übersicht Erreichbarkeit & Time to First Byte

Es gibt eine Übersicht über akute Probleme des vergangenen Monats sowie eine Auflistung über eventuelle Timeouts oder sehr langsame Serverantworten mit konkreten Daten aus der obigen Grafik.

Abbildung 26 Erreichbarkeit & Antwortzeiten des Servers
Abbildung 26: Erreichbarkeit & Antwortzeiten des Servers

Ein zusätzliches Alert-System für besondere Vorkommnisse sorgt für eine schnelle Problembehebung, falls es zu serverseitigen Komplikationen kommt.

Eine zusätzliche Überwachung der Erreichbarkeit der robots.txt mit inkludiertem Änderungsmonitoring rundet die permanente Kontrolle wichtiger Serverdaten ab und ergänzt insgesamt sinnvoll die Erweiterungen des OnPage.org Tools. Dabei wird die robots.txt stündlich auf Erreichbarkeit geprüft und bei Misserfolg wird man auch wieder umgehend per E-Mail benachrichtigt.

Abbildung 25 Übersicht Überwachung der robots.txtAbbildung 27: Überwachung der robots.txt

Insgesamt erneut ein essentielles Tool, falls keine anderen Server-Überwachungsprogramme laufen. Gerade die robots.txt wird oft vernachlässigt. Auch kann unter Umständen mit einer kleinen Änderung ein großes Problem hervorgehoben werden. Für Agenturen ist das sicherlich sehr nützlich, um immer ein Auge auf Änderungen der Programmierer zu haben und etwaige Updates schnell bewerten zu können.

15. Fazit

Mit OnPage.org konnten wir ein Tool testen, das vom Funktionsumfang in dieser Tiefe seinesgleichen sucht. Den eingangs erwähnten Weg, ein Standard-Tool für Webmaster auf der ganzen Welt zu werden, ebnen sich die Entwickler mit starker Nutzer-Nähe und vor allem einer hohen Praxisaffinität. Die Möglichkeiten zur Filterung sind unglaublich umfassend und werden wohl in der Regel nur selten vollkommen ausgeschöpft werden können. Die vielen kostenlosen Erweiterungen stärken die Position des Tools, um Mitbewerber mit geringerem Leistungsportfolio obsolet zu machen. Mit der Möglichkeit für kleine Seiten einen kostenlosen Check zu bekommen, etabliert sich die Marke auch bei Webmastern, die nur einen geringen oder keinen ökonomischen Nutzen aus der Seite ziehen können.
Wir konnten bei unserem Test allerdings auch kleine Inkonsistenzen feststellen, was den Quellcode und die Analyse des Tools angeht.
Das Tool eignet sich im Endeffekt für viele verschiedene Arten von Nutzern. Für Agenturen ist der Preis aus unserer Sicht allerdings sehr hoch, um viele Kundenprojekte zu monitoren. Für Webmaster mit mittleren Budgets ist eventuell ein kontinuierliches Monitoring von sehr vielen statischen Blöcken nicht sinnvoll. Bei sehr volatilen Seiten ist die kontinuierliche Überprüfung unter Umständen sinnvoll.

Mit der Erweiterung um OnPage.org Impact dürfte aus unserer Sicht die Relevanz beträchtlich steigen, da aus den kombinierten Daten Analysen mit direkten Klick- und Rankingraten erzeugt werden können. Der messbare Nutzen der Veränderungen in den SERPs wird für weit mehr Nutzer enorm nützlich sein.

Die Autoren:

Johannes WiesnerJohannes Wiesner (Dipl.-Kfm.) arbeitet als SEO-Consultant bei der xpose360 GmbH. In dieser Position leitet er die Bereiche Webshop- & Offpage-Beratung.

Sebastian NeuwertSebastian Neuwert (B.A.) arbeitet als SEO-Consultant bei der xpose360 GmbH. In dieser Position verantwortet er die Bereiche Onpage & Technik.



Verpasse keine Informationen rund um den Online-Marketing-Tag in Wiesbaden!
Ihre Eingabe stimmte nicht mit dem Captcha überein

Anmelden Abmelden
×