Suchmaschinenoptimierung Strategien, Taktiken und Tools zur Analyse einer Website auf Auffindbarkeit im Netz
121WATT – „“SEO Analyse“ [Juli 2012, 121WATT]
SEO Analyse Die Analyse der eigenen Seite, von Konkurrenzseiten, sowie branchenfremden Webseiten ist eines der wichtigsten Instrumente eines Suchmaschinenoptimierers. Dies ist einer der besten Wege, um herauszufinden, was für die Suchmaschinenoptimierung sinnvoll ist und was nicht. Wenn von einer SEO-‐Analyse gesprochen wird, so ist damit (zumindest in Deutschland) eine Analyse in Hinsicht auf die Optimierung in Google gemeint, da Google in Deutschland mit Abstand Marktführer ist. (siehe http://www.seo-‐united.de/blog/internet/suchmaschinenverteilung-‐im-‐juni-‐ 2012.htm). Im interntaionalen Kontext sit natürlich auch die Betrachtung alternativer Suchmaschinen, wie Bing oder auch Yandex (Russland) von Relevanz.
DIE WICHTIGSTEN ASPEKTE EINER SEO ANALYSE Im Folgenden wollen wir einen ersten Ansatz liefern,unter welchen Gesichtspunkten, mit welchen Tools und mit welchen Indikatoren eine zielgerichtete Analyse der eigenen Präsenz aber auch fremder Websites angegangen werden kann. Im ersten Schritt macht es Sinn, die Analyse in einige elementare Kategorien zu untergliedern: • • • • • • • • • • •
Erster Eindruck Indexanalyse Keywordanalyse Rankinganalyse OnPage & OnSite Analyse Technische Analyse Textanalyse Interne Verlinkung & Informationsarchitektur Analyse externer Faktoren Externe Verlinkung Social Signals (Bewertungen, Facebook, Twitter)
Da die Analyse externer Faktoren ein eigenständiges Kapitel von beträchtlichem Umfang darstellt, verzichten wir in diesem Artikel auf die wesentlichen Elemente einer Analyse externer Faktoren und konzentrieren uns auf die Betrachtung der „internen“ und direkt beeinflussbaren Faktoren und Analyseschritte. Hinweis: Auch wenn zur Orientierung ein systematisches Vorgehen Sinn macht, ist zu bedenken, dass man bei einer fundierten Analyse immer wieder einen Schritt zurückgeht und einige Aspekte noch einmal genauer untersucht.
Ziele einer SEO Analyse Ziel der Analyse ist es, auf Basis von Indikatoren oder Kennzahlen, Ursachen von guten oder schlechten oder keinen Rankings (Positionen) einzugrenzen. Gegebenenfalls aber auch die Analyse von Wettbewerbern zur Ableitung interessanter SEO-‐ Strategien. Im nächsten Schritt sollte man aus der Analyse konkrete Optimierungsmaßnahmen ableiten können.
Fragen, die eine solche Analyse beantworten sollte, sind: • • • • • • • • •
Sind alle für uns wichtigen Seiten mit aktuellen Inhalten bei Google und vertikalen Google suchen (Bildersuche, Videosuche, Produktsuche etc.) im Index Hat Google Seiten indexiert, die eigentlich nicht indexiert werden sollten? Wo (Position) und mit welchen Suchbegriffen (Keywords) stehen wir mit unserer eigenen Website auf den Suchergebnisseiten (SERPs = Search Engine Result Pages)? Wo stehen wir mit unserer Website bei vertikalen Suchen von Google (Bildersuche, Videosuche, Produktsuche etc.) Zeigt Google unter für uns wichtigen Suchbegriffen genau die Seiten, die wir auch gerne unseren Nutzern für diesen Suchbegriff zeigen wollen? Motiviert der Textschnippsel (Snippet siehe Abbildung 1), den Google von unserer Seite seinen Nutzer zeigt, zum Klicken ein? Haben sich durch eigene Optimierungsanstrengungen wesentliche Kennzahlen oder Indikatoren verändert (z.B. bessere Positionen bei wichtigen Suchbegriffen) Wo und unter welchen Suchbegriffen steht unser Wettbewerb? Gibt es interessante branchenfremde Seiten, die für bestimmte Optimierungsansätze gerade ein Benchmark sind?
Abbildung 1: Google Snippet
SEO Analyse -‐ Ersten Eindruck überprüfen In diesem ersten Schritt geht es darum, einen ersten Eindruck der Website zu bekommen. Wo bin ich, worum geht es auf der Website und was erwartet mich als Nutzer, sind die zentralen Fragen. Im Fokus stehen dabei die wichtigsten Seiten (Pareto Regel) einer Internetpräsenz, wie die Startseite und wichtige Kategorie-‐ und oder Produktseiten, auf denen die Mehrheit der Nutzer landet. Zur Bestimmung der wichtigsten Seiten kann man Daten aus einem Web Analyse Tool heranziehen, wie zum Beispiel den Bericht „Beliebteste Webseiten“ in „Google Analytics“. Folgende Fragen sollte in diesem ersten Analyseschritt beantwortet werden. Ein guter Indikator sind die Bouncerates also die Absprungraten der wichtigsten Seiten. • • • • •
Kann man eine klare Zielstellung der Website erkennen? Wirkt die Seite, wie der Auftritt einer bekannten Marke mit „ansprechendem“ Layout? Ist der Nutzen (USP) oder der Inhalt der Website klar ersichtlich? Ist die Website klar gegliedert? Welche Produkte und Dienstleistungen stehen im Vordergrund und werden diese Angebote direkt von der Startseite verlinkt. Gibt es auf der Startseite sogenannte Trustindikatoren, wie zum Beispiel Gütesiegel, Prüfplaketten, Nutzerbewertungen oder Kundenreferenzen, die zu einem höheren Vertrauen und somit höheren Conversionsraten und geringeren Absprungraten führen.
Tipp: Bei diesem Bericht macht es aber Sinn in Google Analytics das erweiterte Segmente „nicht bezahlte Suchzugriffe zu verwenden. Content-‐> Zielseiten
Abbildung 2: Darstellung der Top Ten Seiten nach Seitenaufrufen in Google Analytics. In diesem Besipiel haben die zehn wichtigsten Seiten dieser Domain 93,6% Anteil an alle Seitenaufrufen (nicht bezahlte Suchzugriffe)
Tipp: Um zwar nicht unbedingt die Besucherstärksten Seiten, aber die aus Google Perspektive (wahrscheinlich) stärksten Seiten der eigenen und fremden Domains zu finden, kann man einige Suchoperatoren von Google miteinander kombinieren. Nach „ The Art of SEO“ , O’Reilly, 2010 eignen sich zur Analyse der stärksten Seiten einer Domain folgende Kombinationen: § [www site:domain.tld] Beispiel einer Suchabfrage: [ www site:121watt.de] oder § [inurl:domain site:domain.tld] Beispiel einer Suchabfrage [inurl:wikipediasite:de.wikipedia.org] § [domain.tld site:domain.tld] Beispiel einer Suchabfrage [121watt.de site:121watt.de] Die Nutzung dieser Suchoperatoren, insbesondere des [site:] Suchoperators ist nicht immer zuverlässig, gibt aber trotzdem interessante Hinweise für die Analyse
Abbildung 3: Verwendung von Google Suchoperatoren zur Identifizierung starker Seiten
SEO Analyse -‐ Indexanalyse Ziel der Indexanalyse ist eine Überprüfung, • • • •
welche Seiten einer Domain Google in seinen Index übernommen hat? Wie sehen in einer Übersicht die Snippets (siehe Abbildung 1) aus? Welche Verzeichnisse und subdomains finden sich, wenn man die eigene Domain überprüft? Gibt Google Sitelinks aus
Site Links Zuerst gilt es mal zu überprüfen, ob bei der Eingabe von navigatorischen Suchbegriffen Google auch Sitelinks zurückgibt. Im Regelfall weisen stärkere Seiten immer sitelinks auf. In einem zweiten Schritt überprüfen Sie ob Sie mit der SAuswahl der sitelinks zufrieden sind. Änderungen können in den Google Webmaster Tools vorgenommen werden. Falls aber keine Sitelinks vorhanden sind, ist dies ein Hinweis auf mangelndes Vertrauen von Google in die Domain
Abbildung 4: Sitelinks bei Eingabe von navigatorischen Suchbegriffen
Indexierung – Anzahl Seiten Besonders hilfreich ist dabei die Verwendung des [site:domain.de] Befehls bei Google, der einen übersichtlich zeigt, wie viele Seiten (grober Näherungswert) Google im Index hat – Abbildung 4.
Abbildung 4: Site Abfrage bei Google Auf der Suche nach subdomains kann man den site Befehl erweitern (Siehe Abbildung 6) und erhält direkt von Google eine Liste der Subdomains, die bei Google auffindbar sind. In diesem Beispiel erfolgt eine Kombination aus dem [site:domain.de –inurl:www.domain.de]. Für Interessierte eine sehr umfangreiche Liste der Google Site Operatoren findet sich unter folgenden Link: 121watt.de/3cb
Abbildung 6: Suche nach subdomains über Google
Hinweis Indexanalyse: Eine regelmäßige Überprüfung der eigenen Seite bei Google ist immer sinnvoll, um zu überprüfen, ob • • • • •
Ob Google Sitelinks für die eigene Domain ausgibt alle wichtigen Seiten von Google indexiert wurden sich Seiten bei Google finden, die gar nicht für Nutzer auffindbar sein sollten viele Seiten im Index sind, die keinen Nutzen für den User haben sich doppelte Inhalte (Duplicate Content) bei Google finden – dazu mehr in der technischen Analyse
Keywords, Rankings & Verteilung Die Bestimmung der richtigen Suchbegriffe (Keywords) ist bei der Entwicklung einer umfassenden SEO Strategie immer das Fundament für alle weiteren SEO Maßnahmen. Zur quantitativen und qualitativen Analyse gibt es eine Reihe von Tools, die diesen Prozess unterstützen. Viele dieser Tools stammen direkt von Google: • • • • • • •
Google Keyword Tool Google Insights for Search Google Trends Google Suggest oder das Kontext Targeting (steht seit Ende 2010 Google AdWords Kunden zur Verfügung) aber auch externe Tool wie Übersuggest, das eine systematische Auswertung von Google Suggest Daten erlaubt.
Für die SEO Analyse geht es aber in der Hauptsache darum, zu verstehen, für welche und für wie viele Suchbegriffe wird meine Website gefunden. Sind das die Suchbegriffe, die für mein Unternehmen sinnvoll sind? Gibt es synonyme Suchbegriffe mit höherem Potential, auf die man seine Optimierungsbemühungen konzentrieren sollte. Wie sieht die Verteilung der Positionen aus – siehe Abbildung 7?
Abbildung 7: Rankingverteilung zweier Domains. Quelle: Sistrix SEO Tools
Das Ergebnis einer Keyword und Rankinganalyse könnte dann wie folgt aussehen (Quelle für die erhobenen Daten sind in diesem Fall Sistrix SEO Tools und Google Analytics) •
• • • • • • • •
6.490 Suchbegriffe wurden in den Top 100 Positionen bei Google gefunden. Im Vergleich zum gleichen Zeitraum des letzten Jahres mit 5.765 Suchbegriffen ist dies ein Plus von 12% Davon 51 auf Position 1 137 in den Premiumpositionen zwischen 1-‐3 676 Treffer in interessanten Positionen zwischen 11-‐20 64% des Suchvolumens aus der organischen Suche kommt durch Markenbegriffe zustande (aus Google Analytics) Im Vergleich zur Konkurrenz hat die eigene Domain weniger Suchbegriffe auf der interessanten ersten und zweiten Ergebnisseite (siehe Abbildung 6). Die Sichtbarkeit der 100 wichtigsten Suchbegriffe hat sich um 15% erhöht. Der Suchbegriff „xyz“ hat im Vergleichszeitraum 7 Positionen von 2 auf 9 verloren Die Entwicklung der Impressions (also wie oft die Website in den Suchergebnislisten einem Nutzer gezeigt wurde) und die Entwicklung der Klicks ( siehe Abbildung 7 – Google Webmaster Tools)
Abbildung 8: Suchabfragenübersicht aus den Google Webmaster Tools bzw. Google Analytics Hinweis: Neben den hervorragenden Möglichkeiten die Google mit seinen Webmaster Tools (zu finden unter http://www.google.com/webmasters/) bietet, helfen für solche Analyse oft nur noch kostenpflichtige Tools weiter, die aber dafür sehr detaillierte Analysen zulassen.
Beispiele Analyse Tools: • • • • •
Sistrix SEO Tool Box Searchmetrics Tools SEOlytics Tools Seomoz Tools Screaming Frog
OnPage & OnSite Analyse Die Onpage-‐ und Onsite-‐Analyse umfasst sowohl die Überprüfung von technischen Problemen, wie die generelle Crawlbarkeit, Doppelte Inhalte (Duplicate Content), Ladezeit der Seite, die korrekte Verwendung von Meta-‐Angaben oder auch Fehlerseiten (404 oder 410) als auch, ob die beabsichtigten Suchbegriffe verwendet werden. Weiterhin gibt es Inhalte in ausreichendem und sinnvollem Umfang, werden diese Inhalte auch richtig ausgezeichnet und wie ist die interne Verlinkung organisiert.
Technische Analyse Zugang zur Seite Der einfache Zugang zu Ihrer Website für die Crawler (googlebot) ist Grundvoraussetzung der Suchmaschinenoptimierung. Ziel ist es, Google & Co. einen schnellen Zugang zu allen relevanten Seiten der Webpräsenz zu geben. Dabei sind die Spider auf der Suche nach lesbarem Text. Bilder, Flash Anwendungen, Java oder Java Script sind für die Spider gar nicht oder nur schwer lesbar. Überprüfen Sie Ihre eigenen Seiten in den Google Webmaster Tools über die Funktion „ Abruf wie durch Google Bot“. Installieren Sie die Webdeveloper Toolbar (siehe Hinweis) und surfen Sie auf allen Ihren wichtigen Seiten, während Sie Java Script und Cookies deaktiviert haben. Hinweis: Abseits der Google Webmaster Tools ist die Webdeveloper Toolbar, als Firefox Plugin, zur Überprüfung der eigenen und vor allem fremder Websites ein mächtiges und sehr umfangreiches Tool. Alle Informationen zu den Google Webmastertools gibt es unter http://www.google.com/webmasters/ Hinweis: Ein weiteres sehr gutes Tool zur Onpage Analyse ist das online Tool www.onpage.org Es gibt hierzu einen kurzen Testbericht auf dem 121WATT Blog: http://blog.121watt.de/seo-‐ suchmaschinenoptimierung/onpage-‐org-‐testbericht-‐review
Robots.txt Diese Textdatei teilt den Crawlern mit, welche Verzeichnisse auf Ihrer Webpräsenz durchsucht werden dürfen und welche für die Suchmaschinenbots (beabsichtigt) gesperrt sind. Überprüfen Sie, ob
•
• •
die Datei "robots.txt" vorhanden ist. Das können Sie einfach, in dem Sie in die Statuszeile Ihres Browsers folgendes eingeben www.domain.de/robots.txt also beispielsweise http://www.121watt.de/robots.txt die Crawler freien Zugang zu allen wichtigen Webseiten haben umgekehrt, bestimmte Bereiche für die Crawler gesperrt sind oder gesperrt werden sollten
Weitere Informationen und Best Practices zur robots.txt-‐Datei finden Sie unter: http://www.seo-‐ trainee.de/robots-‐txt-‐so-‐wirds-‐gemacht/ Hinweis: Wollen Sie bestimmte Seiten aus dem Index nehmen ist die robots.xt ein ungeeignets Mittel. Wählen Sie dazu wie im nächsten Absatz beschrieben die Metangaben. IN diesem Beispiel wäre die Metangabe noindex.
Meta Tags Überprüfen Neben der Meta description gibt es noch weitere Anweisungen, wie sich Google und andere Suchmaschinen auf Ihrer Seite verhalten sollen, als Beispiel sei der folgende Meta Tag genannt: Damit verbieten Sie dem Suchprogramm, Links auf Ihrer Seite weiter zu folgen und Ihre Seite im Index zu führen. Bei einer SEO Analyse wird geprüft, ob durch den Webmaster unbeabsichtigt wichtige Seiten aus dem Index ausgeschlossen wurden. Hinweis: Ein weiteres hilfreiches Tool ist das Firefox Plugin seerobots, das über diesen Link verfügbar ist -‐ http://andre.fm/seo/presenting-‐seerobots/
404 Fehler und Weiterleitungen überprüfen Ziel einer Weiterleitung ist es, den Nutzer beim Aufruf eines Links, der zum Beispiel nicht mehr gültig ist, auf die richtige Seite zu lenken. Aus Sichtweise der Suchmaschinenoptimierung ist die richtige Anwendung der folgenden zwei Umleitungen von Bedeutung:
Umleitung -‐ HTTP Status Code 302 Dieser Status Code leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Status Code, dass die Webseite unter der angeforderten URL nicht existiert, aber in Zukunft wieder existieren wird. Dies kann zu Problemen führen, da zum einen Google diese Adresse erst einmal im Index behält und alle Verlinkungen, also die Linkkraft, auf die alte Seite angerechnet werden.
Umleitung -‐ HTTP Status Code 301 Dieser Status Code leitet den Nutzer auf die gewünschte Seite um. Aus Sichtweise der Suchmaschine bedeutet dieser Status Code, dass die Webseite unter der angeforderten URL nicht existiert und auch in Zukunft nicht wieder existieren wird. Die alte Webseite wird nicht mehr in den Index übernommen und die Linkkraft wird aus Sichtweise von Google auf die neue Seite umgeleitet.
Fehlerseite -‐ HTTP Status Code 404 Dieser Statuscode bedeutet, dass der angeforderte URL nicht mehr existiert. Das kann zum Beispiel dann eintreten, wenn ein Verweis auf eine nicht existierende Adresse auf dem Server führt. Oft finden sich zahlreiche falsche Weiteleitungen (HTTP Status Code 302) und Verlinkungen, die auf eine nicht mehr existente Seite verlinken (404). Überprüfen Sie Folgendes: • •
•
Falls Sie verschiedene Domains reserviert haben, ob diese richtig weitergeleitet sind (301 Weiterleitung) Ob Ihre Startseite unter verschiedenen Versionen verfügbar ist, zum Beispiel unter www.domain.de und unter domain.de. Entscheiden Sie sich für eine Version und leiten die andere Version per 301 weiter. Über die Google Webmaster Tools Rubrik „Crawlingfehler“ (siehe Abbildung 9) lassen sich sehr gut 404 Fehler analysieren. Ziel ist es, diese Fehler zu beheben und wie in diesem Beispiel die Verlinkung von denen durch Google monierten Seiten richtig zu setzen.
Abbildung 9: Google Webmaster Tools – 404 Fehler Hinweis: Ein sehr gutes Tool zur Überprüfung der richtigen Weiterleitungen ist das Firefox Plugin Live http Headers oder im Google Chrome die Entwicklertools
Duplicate Content. Duplicate Content oder doppelte Inhalte sind ein Problem für Suchmaschinen. So sagt Google in seinen Webmasterrichtlinien:“Erstellen Sie keine doppelten Seiten, Sub-‐Domains oder Domains, die im Grunde denselben Content haben“. Das Problem für die Suchmaschinen ist zu bestimmen, welches die richtige Seite ist und welche in den Index aufgenommen werden soll (PDF, Druckansicht,
etc). Die doppelten Inhalte können zu einer unnötigen Verteilung der Linkkraft auf verschiedene Darstellungsformen des gleichen Inhalts führen. Es gibt mehrere Methoden, um Duplicate Content zu finden: 1. Überprüfen Sie doppelte Inhalte, in dem Sie zum Beispiel eine längere Textpassage ( ca 5 -‐15 Wörter) auf Ihrer Website kopieren und in Anführungsstrichen bei Google eingeben (siehe Abbildung10 : –in diesem Beispiel findet sich 6 mal der identische Text auf dem host www.bundesregierung.de
Abbildung 10: Überprüfung von doppelten Inhalten mit der „Phrasensuche bei Google“ 2. Druck-‐ und andere doppelte Versionen Ihrer Seiten finden Sie, indem [site:domain.de inurl:id] oder [site:domain.de inurl:type] bei Google eingeben. Dadurch finden Sie alle Seiten einer Domain, die „id“ bzw. „type“ in der URL haben, welche Indikatoren für Duplicate Content sein können. 3. In den Google Webmaster Tools kann unter dem Punkt „Optimierung“-‐>“HTML-‐Verbesserungen“ eingesehen werden, welche Seiten dieselben Titles bzw. Meta-‐Descriptions haben. 4. Das Tool „Screaming Frog“ ermöglicht Ihnen ebenfalls zu sehen, ob Ihre Seite Duplicate Content enthält. Für jede gecrawlte Seite erzeugt Screaming Frog einen Hashwert. Sollten zwei Seiten denselben Hash haben, handelt es sich um eine duplizierte Seite.
Abbildung 11: Hashwerte bei Screaming Frog zur Feststellung von Duplicate Content
Ladezeiten überprüfen Überprüfen Sie die Ladezeit Ihrer wichtigen Webseiten – Dazu gib es eine Reihe von Tools, wie zum Beispiel YSlow oder in den Google Webmaster Tools in der Rubrik „Website-‐Leistung“ eine Übersicht – Abbildung 10. Google empfiehlt allen Webmastern: “dringend, die Website-‐Leistung in regelmäßigen Abständen mithilfe von Page Speed, YSlow, WebPagetest oder anderen Tools zu überprüfen“.
Abbildung 12: Überprüfung der Ladezeiten in den Google Webmaster Tools Ein weiteres gutes Tool zur Überprüfung von Ladezeiten ist Pingdom (http://tools.pingdom.com/fpt/) und in Google Analytics werden auch die Ladezeiten der User angezeigt, besonders interessant in Kombination mit der geographischen Herkunft. Oft lassen sich die Ladezeiten schon ohne einen Server Wechsel stark verbessern. Bilder können optimiert werden, die kleinen Bilder als Sprites geladen werden und eine Zusammenfassung der CSS und Javascript Dateien kann schon eine Verbesserung bringen. Der größte Hebel liegt sicherlich aber im Client-‐side und Server-‐side Caching. Um noch mehr Speed rauszuholen lohnt der Einsatz von CDNs wie Amazons AWS3 oder Cloudfront.
Inhaltliche Analyse
Ausreichende Texte & sinnvolle Texte Prüfen Sie im Zug Ihrer Analyse, ob Sie Ihre wichtigen Webseiten mit ausreichendem Text versehen haben, die dem Nutzer dazu dienen sollte, den Inhalt und Zweck der einzelnen Webseiten besser zu verstehen. • • • •
Kommen die wichtigen Suchbegriffe in genügender und sinnvoller Menge vor. Überprüfen Sie zum Beispiel mit dem Firefox Addon „Search Status“ oder“Screaming Frog“ die Anzahl der Wörter und die Häufigkeit Ihrer wichtigen Suchbegriffe. Sind Ihre Suchbegriffe in wichtigen Auszeichnungselementen (H1 & H2) vorhanden? Ist mein Text für Besucher problemlösend und hilft ihnen weiter?
Tipp: Überprüfen Sie Ihren Text in einem Analysetool – hier mql ein vorkonfigurierter Google Analytics Report den Sie direkt abspeichern können -‐ http://www.121watt.de/xvb - Bericht: Seiteneffizienz - SEO – inspieriert von Avinash Kaushik
Title Tag & Meta Description Der Title Tag definiert den Titel eines Webdokuments und ist für Google nach wie vor eines der wichtigsten OnPage Kriterium zur Relevanzbeurteilung. Der Meta Description beschreibt den Inhalt des Dokuments und wird i.d.R als Teil des Snippets (siehe Abbildung 1) dargestellt. Der Meta Description ist zwar kein wichtiger Faktor für die Relevanzbeurteilung, bestimmt aber als Teil des Snippets über die Klickrate in den SERPs. Überprüfen sie bei allen relevanten Seiten, ob die für Sie relevanten Suchbegriffe in der Meta Description vorkommen. Der Title Tag sollte für jede Seite einzigartig und den Inhalt der Webseite möglichst genau beschreiben. Überprüfen Sie dabei, ob die für Sie wichtigen Suchbegriffe in den Title Tags prominent vorkommen. Vermeiden Sie Title Tags mit mehr als 70 Zeichen. Überprüfen sie in den Google Webmaster Tools, in der Rubrik HTML Vorschläge alle Fehlermeldungen, die Ihnen Google anzeigt, insbesondere:
• • •
Fehlende Title Tags & Meta-‐Descriptions Doppelte Title Tags & Meta-‐Descriptions Zu kurze oder zu lange Title Tags & Meta-‐Descriptions
Hinweis: Ein sehr gutes Tool zur Überprüfung der OnPage Optimierung ist die Desktop Anwendung Screaming Frog (siehe Abbildung 11), die einen schnellen Überblick über die Gestaltung und Länge der Title Tags, Meta Descriptions, H1 und H2 und weiteren Elementen bietet.
Abbildung 13: Überprüfung der Title Tags mit Screaming Frog SEO Spider -‐ http://www.screamingfrog.co.uk/seo-‐spider/
Sprechende URLs Sprechende URLs wie zum Beispiel www.domain.de/seo-‐analyse/ helfen Suchmaschinen und Nutzern zu verstehen, welche Inhalte sich hinter der URL verbergen können. Zusätzlich werden bei der Verlinkung von Inhalten durch Nutzer wichtige Suchbegriffe im Link-‐Text übergeben. Bei URLs mit umfangreichen Paramatern läuft man immer Gefahr, dass diese URLs von den Suchmaschinen nur teilweise oder auch gar nicht indexiert werden.
Image Alt Tags Das ALT Attribut soll einen alternativen Text für ein Bild
enthalten, um den Inhalt des Bildes auch dann zugänglich zu machen, falls der Nutzer den Inhalt der Bilder nicht interpretieren kann. Überprüfen Sie Ihre Bilder auf fehlende oder nicht optimierte ALT Tags. Alle Bilder sollten mit einer aussagekräftigen alternativen Beschreibung versehen sein (Suchbegriffe verwenden). Zur Überprüfung der Alt Tags auf einer Seite eignen sich die bereits vorgestellten Tools „Webdeveloper Toolbar“ – Abbildung 12 und das Desktop Tool „ Screaming Frog SEO Spider“
Abbildung 14: Darstellung der ALT Tags mit der Webdeveloper Toolbar Hinweis: Wer mehr zum Thema Bilder und der Erkennung von Bildern wissen möchte, sei folgende Anwendung von Google empfohlen. Google macht immer mehr Anstrengungen, um den Inhalt von Bildern zu erkennen – siehe http://www.google.com/mobile/goggles/
Interne Verlinkung & Informationsarchitektur Die Prüfung der internen Verlinkung ist ein entscheidender Teil einer SEO-‐Analyse, denn genauso, wie die externe Verlinkung ist auch die interne Verlinkung ein (starker) Hinweis für Google, welche Dokumente(URLs) innerhalb des Webauftritts für den Webmaster von großer Bedeutung sind. Desto mehr und stärkere Links eine einzelne Webseite hat, desto wichtiger erscheint Sie in den Augen von Google. Google selber schreibt in seinen Richtlinien dazu: „Erstellen Sie eine Website mit klar strukturiertem Aufbau und Textlinks. Jede Seite sollte über mindestens einen statischen Textlink erreichbar sein.“ Überprüfen Sie, ob: • • •
•
•
Ihre interne Verlinkung möglichst flach ist und barrierfreie Links (Text-‐Links) hat. Ihre wichtigen Landingpages mit passenden Anchor-‐Texten verlinkt wurden. Ihre Seiten ohne eine hohe Relevanz für Suchmaschinen (zum Beispiel Impressum oder AGBs) weitgehend aus der internen Verlinkung ausgeschlossen wurden bzw. auf noindex gesetzt wurden. Sie von wichtigen Seiten zu viele ausgehende Links haben. Dazu sagt Google:“Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß.“ Ein vernünftiges Maß ist immer schwer zu sagen, aber früher galt als Daumenregel, das eine Seite nicht mehr als 100 ausgehende Links besitzen sollte. Zur Überprüfung eignet sich hier zum Beispiel das FirefoxPlugin „Search Status“ – zu finden unter www.121watt.de/gmp – Abbildung 13 Ihre wichtigsten Webseiten auch die meisten und stärksten internen Links haben – zur Überprüfung dienen hier wieder die Webmaster Tools von Google in der Rubrik „Interne Links“
• •
•
Aus Sicht der Informationsarchitektur der Nutzer immer weiß, wo er ist (Place of Information), z.B. gibt es eine Brotkrumennavigation? Aus Sicht der Informationsarchitektur der Nutzer auf allen (wichtigen) Seiten weiß, wo es noch mehr relevante Inhalte gibt (Information Scent) -‐ z.B. durch Deep und Cross-‐Linking
Abbildung 14: Link Report mit dem Firefox Plugin „Search Status“
Ausgehende Verlinkung Links von der eigenen Website auf externe Seiten sollten nie auf fragwürdige Webseiten verweisen, andernfalls könnte sich dies negativ auf die Reputation der Webseite bei Google auswirken. Insbesondere Seiten, die pornographische Inhalte oder Viren enthalten. Grundsätzlich gilt die Faustregel: Ist die verlinkte Webseite für meine Nutzer interessant und hilfreich? Es gibt mehrere Wege, die ausgehenden Links einer Webseite zu überprüfen: 1. Nach einem Crawlvorgang mit Screaming Frog erhalten Sie auch eine Liste mit ausgehenden Links. 2. Bing.com bietet mit dem Suchoperator „linkfromdomain:[example.com] eine Möglichkeit alle ausgehenden Verlinkungen zu sehen.
Abbildung 15: Ausgehende Links auf bundesregierung.de
Zusammenfassung: Die Analyse der eigenen Website aber auch anderer Websites ist kein einmaliges Projekt, sondern als kontinuierlicher Prozess zu sehen. Auf Basis der eigenen Firmenziele und der daraus resultierenden Online Marketing und SEO Ziele, ist es sinnvoll, eine umfangreiche Analyse in regelmäßigem Abstand, zum Beispiel ½ oder ¼ jährlich vorzunehmen, ggf. auch unter Hinzuziehung von externer Expertise. Neben der Aufdeckung von Fehlerquellen ist es immer ein Ziel auch mittels spezifischer SEO-‐KPIs den Fortschritt der eigenen Aktivitäten nachzuvollziehen und Ursachen von Veränderungen schneller eingrenzen zu können. Wichtige SEO KPIs können zum Beispiel sein: • • • • • •
Anzahl Visits aus organischer Suche ( Analytics Tools, wie Google Analytics oder etracker, AT Internet etc.) Anzahl und % Veränderung Impressions in den SERPs (Google Webmaster Tools) Anzahl und % Veränderung an Klicks (Google Webmaster Tools) Anzahl Keywords mit Top1 , Top 1-‐3 , Top 10, Top 100 Positionen (z.B. Sistrix Tools) Sichtbarkeitsindex ( Sistrix Tools, Searchmetrics, Seolytics etc.) Rankingveränderungen für zum Beispiel Top 50 Suchbegriffe
Kleinere Analyse von geringerem Umfang, zum Beispiel bei Veränderungen relevanter KPIs oder Fehlermeldungen in den Google Webmaster Tools, sollten hier je nach Ressourcensitutation als fester Bestandteil der täglichen/wöchentlichen SEO Arbeit eingeplant werden.