e

Real. Clear. Results.
Und was können wir für Sie tun?

Basics of App Store Optimization – Wie du deine App im App Store sichtbar(er) machst

Basics of App Store Optimization – Wie du deine App im App Store sichtbar(er) machst

App Store Optimierung (kurz ASO) – von vielen lange eine unterschätzte und missachtete Teildisziplin des App Marketings – gewinnt immer mehr an Popularität. Dabei geht es um die Verbesserung der Sichtbarkeit innerhalb des Stores und die Animation der Nutzer zum tatsächlichen Download der App.

Checkliste SEO Anforderungen für Ihr CMS

Checkliste SEO Anforderungen für Ihr CMS

Suchmaschinenoptimierung bildet heutzutage eine wichtige Grundlage für den erfolgreichen Internetauftritt einer Unternehmung oder eines Online Shops. Idealerweise erfüllt Ihr CMS (Content Management System) von Haus aus bestimmte Kriterien in Bezug auf SEO und bietet Flexibilität in der technischen sowie redaktionellen Erstellung und Anpassung von Content.

Durch die Verwendung eines SEO-freundlichen CMS wird eine solide Basis für nachhaltige und langfristige Rankings bei Suchmaschinen geschaffen. Dies hat zum Vorteil, dass viele OnSite SEO Optimierungsmassnahmen bereits zum Zeitpunkt der Publikation eines Inhaltes integriert sind und so nicht nachträglich umgesetzt werden müssen, was unnötig Zeit verschwendet.

Ist die Migration auf ein neues CMS in Planung, sollte bei der Auswahl des Partners darauf geachtet werden, dass verschiedene Punkte des SEO-Prozesses bereits Bestandteil des neuen CMS sind. Damit Ihnen die Beurteilung der verschiedenen Content Management System-Anbieter einfacher fällt, haben wir in einer Checkliste die wichtigsten SEO Anforderungen zusammengetragen. Die Checkliste ist in die verschiedenen Bereiche unterteilt:

Relevanz
Im Bereich der Relevanz wird gesteuert, wie die Snippets innerhalb der Suchresultate bei Google dem User dargestellt werden.

Crawlability & Indexierung
Für eine optimale Indexierung bei Suchmaschinen müssen auf der Webseite veröffentlichte Inhalte bestimmte technische Voraussetzungen erfüllen und manuell steuerbar sein.

Webarchitektur & Internal Linking
Ihre Internetseite sollte eine gute und übersichtliche Struktur und eine sinnvolle Navigation aufweisen. Denn eine gute Interne Verlinkung innerhalb der Webseite hilft auch Nutzern und Suchmaschinen sich einfach und schnell durch die Seite zu navigieren und Inhalte zu entdecken.

Weitere Funktionalitäten
Die weiteren Funktionalitäten beinhalten zusätzliche Features, welche über die Basis-Anforderungen hinaus gehen, Ihrer Website aber zusätzlichen Nutzen bringen bzw. den Suchmaschinen weitere Informationen übermitteln.

Checkliste SEO Anforderungen CMS - Infografik by BlueGlass

Hier PDF herunterladen oder Infografik auf Eurer Website mittels dem Code einbinden. Jetzt kopieren und einfach teilen:

<href="http://www.blueglass.ch/blog/checkliste-seo-anforderungen-cms/"><img alt="Checkliste SEO Anforderungen für CMS - Infografik by BlueGlass Interactive" src="http://www.blueglass.ch/wp-content/uploads/2015/04/Checkliste-SEO-Anforderungen-für-CMS-Infografik.jpg" width="800px" height="2667px" /></a>
<a href="http://www.blueglass.ch/">Von <strong>BlueGlass Interactive</strong> - Digital Marketing Agentur mit Search im Herzen und Content im Blut</a></code>

Relevanz

Title-Tag: Automatische Generierung und Ausspielung des Title-Tags (Seitentitel). Die automatische Wiedergabe erfolgt durch verschiedene Variablen wie “Titel”, “Kategorie”, etc. Pro Zielseite ist ein individueller Title erforderlich, dieser sollte aber manuell überschreibbar sein.

Description-Tag: Description Tags sollten automatisch aus den definierten Variablen der jeweiligen Seite erstellt und ausgespielt werden können. Pro Zielseite ist eine individuelle Description erforderlich, die auch manuell überschrieben werden kann.

Headings (H-Tags): Relevante und aussagekräftige H-Tags (H1, H2, H3, etc.) strukturieren die einzelnen Titel. Headings sollten individuell überschreibbar sein und relevante Keywords enthalten.

Bilder: Für alle Bilder sollte die Möglichkeit bestehen, einen ALT-Tag zu vergeben. Dieser beschreibt das Bild und enthält jeweils das wichtigste Keyword.

Crawlability & Indexierung

Web Standard: Ein sauberes HTML mit der Integration von CSS und JavaScript bildet die Grundlage dafür, dass Mikrodaten gemäss schema.org eingebettet werden können und die Inhalte für Suchmaschinen einfach lesbar sind.

Format: Der Content sollte direkt ins HTML der entsprechenden Seite geladen werden. Post-load Funktionalitäten wie JavaScript, AJAX, ifFrames, etc. sollen wenn möglich vermieden werden, ebenso iFrames und Flashs.

Multi-Device Fähigkeit: Die Seiteninhalte werden auf verschiedenen Geräten wie Desktop, Tablet und Mobile korrekt angezeigt (Responsive Design).

URL: SEO-freundliche URLs (Nice-URLs) werden automatisch generiert. Die URLs sollten dabei das wichtigste Keyword der Zielseite enthalten und die jeweilige Sprache in einer konsistenten URL-Struktur abbilden.

301-Weiterleitungen: Wenn ein Seiteninhalt nicht länger verfügbar ist, muss das System die Seite automatisch mit einer 301-Weiterleitung auf die dazugehörige, nächsthöhere Kategorie verlinken. Nice to have: ein Redirect Tool, mit welchem für jede URL die Weiterleitung individuell gewählt werden kann.

Canonical-Tag: Der Canonical-Tag ist ein Verweis von einem Duplikat auf die kanonische, also bevorzugte Seite mit dem “Original” Inhalt und bietet damit die Möglichkeit um Duplicate Content (identischer Seiteninhalt ist unter mehreren URLs vorhanden) zu vermeiden bzw. gegenüber den Suchmaschinen korrekt auszuweisen.

Mehrsprachigkeit / Geografische Ausrichtung: Für mehrsprachige Websites ist es wichtig, dass ein Targeting der verschiedenen geografischen Standorte und Sprachversionen über das CMS möglich ist.

XML-Sitemap: Alle URLs der Website, welche durch Google indexiert werden sollen, müssen in einer XML-Sitemap aufgeführt werden. Die dynamischen XML-Sitempas sollten dabei automatische generiert und aktualisiert werden. Sie werden nach dem offiziellen sitemaps.org Protokoll erstellt und in der robots.txt Datei vermerkt.

Grösse & Ladegeschwindigkeit: Das CMS optimiert und minimiert den Code, Anfragen und Bilder, was die Erhöhung der Ladegeschwindigkeit ermöglicht.

RSS Feeds: Das CMS sollte für neue News- und Blogbeiträge automatisch RSS Feeds generieren, um den Content zu streuen, Engagement, Backlinks und Traffic zu erzeugen. Beim RSS Feed sollte darauf geachtet werden, dass jeweils nur ein Textausschnitt verwendet wird und ein Link auf den ganzen Artikel verweist.

Robots.txt: In der robots.txt-Datei wird aufgeführt, welche Seiten der Crawler nicht indexieren soll. Zusätzlich werden die XML-Index-Sitemaps verlinkt.

Meta-Tags “noindex”, “nofollow”: Links sollten mit einem noindex oder nofollow Meta-Tag versehen werden können, damit einzelne Inhalte wie Disclaimer, AGBs, etc. nicht von Suchmaschinen indexiert werden.

Druckversion / Druckansicht: Druckversionen sollten auf “no-follow” and “no-index” gesetzt werden, damit eine Indexierung durch Suchmaschinen nicht möglich ist. Dies hilft, Duplicate Content zu verhindern.

Webarchitektur & Internal Linking

Kategorisierung: Das CMS bietet ein in sich konsistentes, hierarchisch organisiertes und individuell gestaltbares System zur Darstellung der Inhalte und Produkte.

Navigation: Die Navigations-Struktur sollte so aufgebaut sein, dass die Suchmaschinen-Crawler einfachen Zugriff auf alle Bereiche der Webseite haben. Das CMS muss sicherstellen, dass die Navigation auf HTML-Elementen basiert.

Navigation Breadcrumbs: Bei mehrstufigen URLs sollten Breadcrumbs verwendet und mit dem entsprechenden Breadcrumb schema.org Markup gekennzeichnet werden.

Link Tracking: Das System soll Broken Links (404-Seiten) einfach erkennbar machen. Alle internen Backlinks sollten einer URL durch das System zugerechnet werden.

Interne Suche: Das CMS bietet die Möglichkeit die internen Suchresultate (Site Search) einfach zu verwalten und Duplicate Content Probleme zu verhindern. Die Konfiguration der Site Link Search Box sollte ebenfalls unterstützt werden.

Paginierung: Bei Inhalten, die sich über mehrere Seiten ziehen erleichtert die Einbeziehung der rel=”next” und rel=”prev” Tags den Suchmaschinen die Anzeige.

Tags: Erstellung individuell gestaltbarer Tags sollte durch das CMS zur Verfügung gestellt werden. So können automatisch Seiten mit starkem Fokus auf relevante Suchbegriffe erstellt werden. Dabei sollen die Tags eine eindeutige, statische URL erhalten.

Filterung & Sortierung: Links zu filterbarem oder sortierbarem Inhalt sollen mit “no-follow” bezeichnet werden.

Weitere Funktionalitäten

Microformats (schema.org): Zur besseren Kennzeichnung vorhandener Daten gegenüber Suchmaschinen können einzelne Inhalte mit schema.org Markups hinterlegt werden, was eine Rich Snippet Anzeige innerhalb der Suchresultate ermöglicht.

HTML 5 Elemente: Semantischer HTML-Markup für die Strukturierung verschiedener Inhalte wie Texte, Bilder und Hyperlinks für eine bessere Indexierung. Die HTML5 Tags sollten einzeln über das CMS gesteuert werden können.

Tracking: Für die Messung der Online Aktivitäten ist es wichtig, dass das CMS in der Lage ist, den Tracking-Code (Google Analytics) regelmässig zu aktualisieren, sowie dass es benutzerdefinierte Tracking-Codes wie bspw. den Google Tag Manager unterstützt.

Spezifische Landingpages: Online Marketing Kampagnen verwenden oft zur thematischen Abholung von Besuchern sogenannte Landing Pages. Das CMS muss in der Lage sein solche individuellen Zielseitenzu generieren, welche weder in der Navigation erscheinen, noch das SEO beeinflussen.

Social Buttons: Social Buttons sollten gut sichtbare integriert werden. Somit könnenInhalte einfach auf externen Communities und Plattformen geteilt werden.

Social Meta Tags: Für die Interaktion mit Social Media Sites sollen spezifische Social Meta Tags verwendet werden. Diese erlauben eine exakte Definition der Titel, Beschreibungen und Bilder, welche bei Facebook (Open Graph) und Twitter (Twitter Cards) erscheinen sollen. Standardmässig sollten entsprechende Social Meta Tags (je Page Type) inkl. Auswahl eines sinnvollen Bildes im CMS hinterlegt werden.

User Generated Content (Reviews / Kommentare): User generated content (UGC) kann in verschiedenen Formen auftreten. Je nach Art der Webseite bietet sich dieser in Form von Kundenmeinungen, Produktebewertungen oder Kommentaren an. So haben Sie die Möglichkeit zu Ihren Inhalten zusätzlichen Content zu schaffen. Das CMS sollte die Möglichkeit des User-Feedbacks gewährleisten.

Blog Posts / Kommentare / Sharing: Bloggen oder wertvollen Content zu erstellen ist für jede Webseite mit Wachstumsabsichten ein absolutes Muss. Content kann die Relevanz einer Seite je nach Aktualität der Information erhöhen. Stellen Sie sicher, dass Ihr CMS eine Möglichkeit für Blogs und/oder News bietet, unabhängig davon, ob aktuell ein Blog oder ähnliches geplant ist. Dies ebnet den Weg für einen künftigen Einsatz und verhindert unnötige Kosten folgen.

So wird deine Seite bei Google gefunden – Digitale Selbsteinschätzung in 15 Minuten

So wird deine Seite bei Google gefunden – Digitale Selbsteinschätzung in 15 Minuten

Wir alle nehmen die Welt subjektiv wahr. Es ist schwierig eine echt objektive Perspektive zu erhalten. Dies stimmt im wahren Leben genauso wie auch in der virtuellen Welt. Wie also erhalte ich ein objektives Bild meiner digitalen Präsenz?

Wieso sollte ich etwas ändern müssen? Wenn ich meine Firma google, erscheint sie immer an oberster Stelle.

BlueGlass Interactive bietet Unterstützung und präsentiert folgende Anleitung für eine digitale Selbsteinschätzung in fünf einfachen Schritten:

  1. Definiere 5 relevante Suchbegriffe (Keywords):

Um zu schauen, ob und wie deine Website gefunden wird, musst du zuerst verstehen wie Google verwendet wird. Die Google Suche liefert Ergebnisse zu eingegebenen Suchbegriffen. Du solltest dir also erstmals Gedanken machen, zu welchen Begriffen dein Angebot gefunden werden soll. So sollte man beispielsweise als Reisebüro gefunden werden, wenn jemand nach „Ferien buchen“ oder „Kurzurlaub“ sucht.

  • Ein Suchbegriff darf durchaus aus mehreren Wörtern bestehen, beispielsweise “günstig Schuhe kaufen in Zürich”.
  • Verwende nicht deinen Firmennamen oder Produktenamen als Suchbegriffe.
  • Versuch dich in dein Zielpublikum einzufühlen:
    • Wen möchte ich ansprechen, bedienen?
    • Was beschäftigt diese Gruppe? Was braucht, sucht diese Gruppe?
    • Wie sucht diese Gruppe? Welche Suchbegriffe verwendet sie?

Falls es dir nicht leicht fällt, dich in deine Zielgruppe einzufühlen, gib es für die Keyword-Suche verschiedene Tools. Google selbst bietet den Keyword Planner. Die meisten Profis setzen Searchmetrics ein. Beide Tools sind sehr ausführlich und wahrscheinlich etwas zu aufwendig für Anfänger. Eher zu empfehlen ist die Freemium Version von Searchmetrics oder das Keywordtool.io, welches wohl das einfachste hierfür einzusetzende Tool sein dürfte.

Als praktisches Beispiel für unsere Selbsteinschätzung, verwende ich die Webseite einer ärztlichen Gemeinschaftspraxis Ärztegemeinschaft Dietlikon. Ich habe folgende fünf Suchbegriffe definiert:

  • Arztzeugnis Dietlikon
  • Röntgen Zürich nord
  • Notfallarzt Dietlikon
  • Rheumatologie Dietlikon
  • Hausarzt Zürich nord

Ich habe ganz bewusst verschiedene medizinische Begriffe, welche ich glaube würden bei gegebenem Bedürfnis zu einer Google Suche führen, mit der relevanten Region kombiniert. Die Region habe ich mal sehr lokal und manchmal etwas grösser gewählt, um zu sehen wie die Seite sich zu anderen aus Nachbargemeinden misst.

  1. Inkognito surfen:

Schau wie deine Seite wirklich von Google wahrgenommen und angezeigt wird. Immer wieder bekommen wir folgende Aussage zu Ohren: „Wieso sollte ich etwas ändern müssen? Wenn ich meine Firma google, erscheint sie immer an oberster Stelle.“ Dies ist genau die subjektive Wahrnehmung, welche zu einer verzehrten Realität führt. Denn Google kennt dich, deine Firma, deine Seite und dein Surf-Verhalten. Somit erhältst du auf Google Suchergebnisse, welche auf dich, dein Verhalten und deine aktuelle geographische Lage zugeschnitten sind. Was du also siehst entspricht in keiner Weise dem, was deine angestrebte Zielgruppe zu sehen bekommt.

So erhältst du die objektiven Suchergebnisse von Google:

Zuerst musst du eine neutrale Web Session starten. Das heisst, ins Internet, aber so, dass ich nicht erkannt werde. Internet Browser bieten dafür eine Funktion:

  • Im Google Chrome Browser drücke: Ctrl+Shift+N
  • Im Firefox Browser drücke: Ctrl+Shift+P
  • Beim Internet Explorer heisst diese Funktion InPrivate, drücke Ctrl+Shift+P
  • Für Safari oder auf iPad & iPhone gibt es die Funktion: Privates Surfen aktivieren

In einer Inkognito oder InPrivate Web Session surft man anonym, weil alle Informationen, wie GPS Koordinaten und hinterlegte Cookies, Tags, etc. nun vom Browser unterdrückt werden. So erkennt dich Google nicht und kann die Ergebnisse nicht auf dich zuschneiden. Du erhältst also eine objektive Perspektive.

  1. Verwende nun die definierten Suchbegriffe

Gib nun in deinem Inkognito Fenster den ersten Suchbegriff ein. Schau was Google dir für Ergebnisse liefert.

  • Wird deine Seite zu diesem Suchbegriff überhaupt gefunden?
  • Bist du unter den organischen Ergebnissen der ersten Seite?
  • Wie sieht dein Snippet aus? Ist er informativ angereichert?

Wiederhole nun dieses Vorgehen für alle definierten Suchbegriffe. In unserem Beispiel erhalten wir folgende Ergebnisse:
result 1 newresult 2x

Im ersten Beispiel ist zu erkennen, dass zwar ein Arzt unserer Gemeinschaftspraxis rankt, jedoch nicht aufgrund unserer Website. Ebenfalls zu erkennen ist, dass Google grosse Mühe hat überhaupt relevante Inhalte zum Begriff “Arztzeugnis Dietlikon” zu finden. Dies könnte nun eine Chance darstellen, um neue Besucher für die Webseite anzuziehen. In unserem Fall, haben wir das vorgegebene Ziel des Kunden erreicht. Sie wollen unter keinen Umständen Arztzeugnis-Suchende bedienen.

Im zweiten Beispiel sieht man deutlich, dass unsere Seite in den Ergebnissen eins und zwei rankt. Das erste Ergebnis ist das lokale Karten-Ergebnis von Google und resultiert aufgrund des Google+ Eintrags dieses Arztes. Die Arztpraxis wird dann gleich als oberstes Ergebnis nach der Karte angezeigt. Besser kann man für diesen Begriff nicht gefunden werden.

Snippet

Das Snippet ist nicht mit Information angereichert (Rich Snippet), ist aber trotzdem informativ und übersichtlich und enthält eine klare Aussage. Dies ist bereits gut, aber noch nicht optimal. Ein optimierter Rich Snippet ergänzt die Anzeige mit zusätzlichen Information, wie Bewertungen, Bildern, usw. Wer die Möglichkeit von Bewertungen auf seiner Website schafft, kann sich diese im Snippet anzeigen lassen. (Mehr zu Rich Snippets aus einem früheren Bericht)

result 3

Eine kurze Erklärung, weshalb der Eigenname sich nicht für die Recherche eignet. Wenn man nach “Praxis Dietlikon” sucht, nimmt Google automatisch an, man meine die Seite http://www.praxisdietlikon.ch und liefert ein ausführlicheres Snippet (Site Links), mit einer Auswahl an direkten Links zur Seite. Aufgrund der starken Ähnlichkeit des Suchbegriffs und des Urls (dasselbe geschieht auch bei Firmennamen oder Produktenamen) nimmt Google an, man kenne die Seite bereits und wolle tiefer einsteigen. Deshalb liefert es das Site Link Snippet mit entsprechender Auswahl. Dies ist nicht zu verwechseln mit Rich Snippets, welche den Informationsgehalt des Ergebnisses erhöhen sollen, um dem Suchenden eine bessere Entscheidungsgrundlage zu liefern.

  1. Prüfe deine Website aus der Perspektive von Google

Um zu sehen, was Google auf deiner Seite findet und indexiert, musst du folgendes tun. Gib in der Adresszeile deines Browsers Site: (url deiner Website) und drück Enter. In unserem Beispiel geben wir folgendes ein: Site:http://www.praxisdietlikon.ch

Site 03

Nun erhalten wir von Google eine Auflistung aller Seiten und Unterseiten, welche indexiert wurden und wie diese als Snippet angezeigt werden. Ziel muss es sein, hier alle relevanten Seiten deiner Website aufgelistet zu haben. Idealerweise geschieht dies in der Reihenfolge der gewünschten Relevanz. Fehlt eine Seite oder wird die wichtigste Seite erst an letzter Stelle aufgeführt, sollten Änderungen vorgenommen werden.

Unser Beispiel zeigt ein gutes Ergebnis. Alle relevanten Seiten erscheinen sauber. Die Startseite erscheint zuoberst und gleich danach rankt die Kontakt-Seite, mit sichtbarer Telefonnummer im Snippet.

Du hast nun einen Eindruck davon erhalten, wie Google deine Webseite wahrnimmt und wie Suchende auf deine Webseite geführt werden. Unter Profis bezeichnet man diesen Prozess als der erste Teil einer Customer Journey.

Jetzt müssen wir uns die nächste Frage stellen:

Wo führt Google deine Besucher pro Suchbegriff hin und was wird dem Besucher dort geboten?

  1. Information und Call to Action

Wenn der Suchende sich für ein Ergebnis entschieden hat und auf dessen Link klickt, hat er bereits mindesten zwei Stationen auf seiner Customer Journey hinter sich. Er hat einen Suchbegriff eingegeben und er hat ein darauf folgendes Ergebnis ausgewahlt. Nun wird er zur Seite geführt und erwartet dort eine passende Fortsetzung seiner Journey. Wer also nach “Rheumatologie in Dietlikon” sucht und das Ergebnis einer Arztpraxis in Dietlikon anwählt, möchte nicht zu einem Bericht über den Firmenausflug 2007, bei dem ein Rheumatologe anwesend war, geführt werden.

Bedienen wir den Besucher nicht mit der erhofften Information, dem erwarteten Angebot oder dem erwünschten Inhalt, so verlässt er die Seite.

Überprüf nun selbst für deine Suchbegriffe, wo du landest, und ob du als Suchender mit der gefundenen Information zufrieden wärst.

Es geht um die Gestaltung einer klaren und zielgerichteten Customer Journey.

digitale selbsanalyse 09In unserem Beispiel beginnt die Customer Journey mit der Eingabe des Suchbegriffs (wir verwenden hierfür nach wie vor ein Inkognito Fenster).

Im nächsten Schritt seiner Reise sieht der Suchende das Snippet. Liefert es die gesuchte Information? Lädt es zum Klicken ein? Für Dr. med. Daniel Müller können wir dies positiv beantworten. Sogar die Telefonnummer erscheint direkt im Snippet.

digitale selbsanalyse 10

Falls unser Suchender nicht gleich zum Telefon greift, so wird er sich zur Seite dieses Arztes führen lassen.

digitale selbsanalyse 11

Hier erwartet der Suchende dieselbe Information, jedoch mit viel mehr Detail und Tiefe. Erfüllt die Seite diese Erwartungen?

Der Besucher erhält in unserem Beispiel den Lebenslauf, den Nachweis für die Kompetenz im Fachgebiet Rheumatologie und ein Foto des Arztes. Hier scheinen die Erwartungen erfüllt zu werden.
Haben wir dem Suchenden erstmals eine schlüssige Customer Journey beschert, ist das Ziel aber noch nicht erreicht. Was soll der Besucher nun tun? Neben den bereitgestellten Informationen ist es ganz wichtig dem Besucher ein „Call to Action“ zu bieten. Ein „Call to Action“ soll eine Aktion beim Besucher auslösen. Hier sagen wir dem Besucher was zu tun ist: „Hier Bestellen“, „Download now“, „Jetzt kaufen“. Hier, am Ende der Customer Journey wird der Besucher zum Abschluss geführt, hier wird die Conversion realisiert. Der „Call to Action“ muss schlüssig in die Customer Journey passen und sollte prominent dargestellt sein.
Für den Rheumatologen ist der Abschluss die Kontaktaufnahme per Telefon. Und schon zeigt sich der Pferdefuss in unserem Beispiel. Zwar erscheint die Telefonnummer in der Fusszeile, jedoch ist dies nicht annähernd prominent genug, um als „Call to Action“ zu gelten. Man sollte dringend das Profil des Arztes mit Telefonnummer und Call Button, prominent neben dem Foto, ergänzen.
Wie steht es um die Customer Journey zu deiner Website? Spiel die Customer Journey für deine Suchbegriffe und Website durch. Wer den Aufwand nicht scheut, kann das für noch viele weitere Suchbegriffe durchspielen. Danach hast du eine objektive Perspektive deiner online Präsenz. Diese digitale Selbsteinschätzung ermöglicht dir nun die Planung sinnvoller Massnahmen zur Verbesserung deiner Website.

Customer Journey Website

Diese Anleitung zur digitalen Selbstanalyse lässt sich leicht mit vier Fragen zusammenfassen:
• Werde ich gefunden?
• Wie werde ich gefunden?
• Wo werde ich hingeführt?
• Was geschieht dort?
Und vergiss nie: „Bei allen Nachforschungen musst du immer inkognito surfen.“
Wenn du für dein Angebot und für deine Seite diese fünf Fragen mit einer schlüssigen und Zielgerichteten Customer Journey beantwortest, bist du auf dem besten Weg ein Digital Jedi zu werden.
Hast du noch Fragen oder suchst du Unterstützung, zögere nicht uns zu kontaktieren.

SEO Content Optimierung – gute Inhalte schaffen

SEO Content Optimierung – gute Inhalte schaffen

“Was ist der Inhalt? Wer ist die Zielgruppe?”

Eine der wichtigsten Aufgaben eines Online Marketers ist es, diese Fragen für alle Webseiten bzw. Landingpages einzeln beantworten zu können. Nur so ist es möglich, dass die Seiteninhalte einerseits auf die Bedürfnisse/Interessen der User optimiert und andererseits den Suchmaschinen die nötigen Signale gesendet werden. Letztere können die indexierten Seiten nicht wie wir Menschen aufnehmen. Suchmaschinen orientieren sich aufgrund der Struktur der internen Verlinkung sowie der Inhalte auf den einzelnen Seiten. So entscheiden sie, ob eine Webseite für den vom User eingegebenen Suchbegriff relevant ist oder nicht.

Die genaue Funktionsweise des Google Algorithmus wird seitens des Suchmaschinenbetreibers nicht offen gelegt. Aufgrund zahlreicher Studien, Forschungsarbeiten, Interviews und Beobachtungen vieler Search Marketers sind aber bereits reichlich Faktoren bekannt, welche in die Berechnung der Rankings mit einfliessen. Im deutschsprachigen Raum veröffentlicht der bekannte SEO-Tool Anbieter Searchmetrics jährlich  Studien über die Ranking-Faktoren bzw. deren Korrelation mit dem Ranking..

Dieser Beitrag gibt Euch eine Anleitung, wie Ihr in drei Schritten die Relevanz Eurer Zielseiten verbessern könnt. Vorausgesetzt, die Hausaufgaben der OnSite-Optimierung sind bereits erledigt.

Am Anfang steht die Keyword-Recherche

Themenbezogene Keywords (Suchbegriffe) bilden das Fundament einer professionellen Content-Optimierung. Relevante Keywords werden mittels einer so genannten Keyword-Recherche ergründet. Um eine möglichst hohe Reichweite zu erzielen, werden mögliche Suchbegriffe identifiziert, die potenzielle Besucher bei ihrer Suche verwenden. Auch sollten Kriterien wie Suchvolumen oder Wettbewerb in die Recherche einbezogen werden. Je umfassender und detaillierter eine Keyword-Recherche erfolgt, desto besser können die Zielgruppen angesprochen bzw. erreicht werden.

Idealerweise werden die Keywords zusätzlich in unterschiedliche Stufen wie Fokus-Keyword oder Supporting-Keywords eingeteilt. Pro Seite wird ein Fokus-Keyword (hohes Suchvolumen) definiert, auf welches die Inhalte ausgerichtet werden. Um die Zielseite auf das ausgewählte Keyword zu optimieren, wird es innerhalb der SEO-Elemente (URL, Page Title, Headings sowie ALT-Tag) gebraucht. Die Supporting-Keywords unterstützen bei der Textgestaltung und bestätigen zusätzlich die Themenrelevanz. Aufgrund dieser Begriffe können Suchmaschinen das Fokus-Keyword besser der entsprechenden Thematik zuordnen.

Tools zur Keyword-Recherche

Zur Ermittlung der passenden Keywords stehen eine Menge Tools zur Verfügung. Eine der wichtigeren Quellen für eine Keyword-Recherche ist Google selbst. Hier die gängigsten Tools:

Google Keyword Planer: Liefert Keyword-Vorschläge, die ausgestattet sind mit Parametern  wie monatliches Suchvolumen oder CPC (Kosten pro Klick) der Begriffe. Um den Keyword Planner nutzen zu können, ist ein Google AdWords-Account Voraussetzung.

Google AdWords Keyword Planer

Google Suggest: Die automatische Vervollständigung gibt Vorschläge zum eingegebenen Begriff und hilft beim Start der Recherche. Eingeblendet werden häufige Suchanfragen mit Bezug zum ursprünglichen Such-Begriff, in diesem Fall Content Optimierung. So können auf die Schnelle erste Keyword-Ideen zusammengetragen werden, bevor die Recherche vertieft wird.

Übersuggest: Eine etwas tiefere Analyse, die ähnlich wie Google Suggest funktioniert, bietet Übersuggest. Hier kann der Suchbegriff eingegeben, sowie Sprache und Such-Quelle definiert werden. Das Programm startet eine automatische Suchabfrage nach allen Vorschlägen, die Google findet.

Google Trends: Dieses Tool visualisiert die Suchthemen-Trends innerhalb der Google Suche seit 2004. Die Suchergebnisse werden in Relation zum gesamten Suchaufkommen gesetzt. Die Daten werden wöchentlich aktualisiert und sind weltweit oder für bestimmte Länder / Regionen verfügbar. Aus der Historie können klare saisonale Trends abgeleitet werden.

 Google Trends

Verwendung der Keywords in SEO-Elementen

Wichtige Anhaltspunkte für Suchmaschinen zum Seiteninhalt liefern die SEO-Elemente. Sie sind für Suchmaschinen-Crawler über den Quellcode abrufbar. Die Informationen werden indexiert, verarbeitet und zur Berechnung der Ranking-Position verwendet. Es handelt sich dabei um

URL: Webadresse, welche mit den /-Zeichen die Seitenarchitektur einer Website widerspiegelt

Page Title (Meta Tag): Seitentitel, welcher im Webbrowser und im Suchresultat angezeigt wird

Meta Description (Meta Tag): Seitenbeschreibung; wird innerhalb der Suchresutalte angezeigt

Headings (H1): Bezeichnet die Hauptüberschrift einer Zielseite und sollte das Fokus-Keyword enthalten

Headings (H2-H4): Überschrift 2. – 4. Stufe, sollten wenn möglich Supporting-Keywords enthalten und die Inhalte der Seite strukturieren

Image ALT-Tags: ALT-Tag zur Bildbeschreibung. Unterstützt das Ranking in der Bildersuche von Suchmaschinen

SEO Elemente auf Seite

Das innerhalb der Suchmaschinen angezeigte Snippet wird relevanter durch die Integration der wesentlichen Keywords in URL, Page Title sowie Meta Description. Während der Page Title ein Faktor für die Ranking-Berechnung darstellt, ist die Meta Description massgeblich für die Click-Through-Rate (CTR) und sollte nach dem AIDA-Modell aufgebaut werden. Letztere soll dem User in 1-2 Sätzen beschreiben, was ihn auf der entsprechenden Zielseite erwartet bzw. ein Verkaufsargument darstellen. Bei Page Title und Meta Description sollte das Fokus-Keyword wenn möglich am Anfang oder weit vorne im Text stehen. Die Page-Tags können mit unterstützenden Keywords ergänzt werden. Auch bei der Gestaltung der URL-Struktur sollte darauf geachtet werden, dass jeweils das Fokus-Keyword je Zielseite in der URL enthalten ist.

Headings, auch H-Tags genannt, sind ebenfalls ein wichtiges Relevanzsignal. Die H-Tags sollten nur innerhalb des Haupt-Content platziert werden und nicht auf Navigationselementen. Der H1-Tag wird von den Suchmaschinen am höchsten gewichtet. Daher ist es wichtig, dass die Hauptüberschrift des Textes mit einem H1-Tag gekennzeichnet wird und das Fokus-Keyword enthält. Weitere Untertitel werden mit H2, H3, etc. markiert. Durch die Verwendung von H-Tags kann der Text klar gegliedert bzw. strukturiert werden.

Optimierte Alternativ-Texte (ALT-Tags) helfen zusätzlichen Traffic aus der Google-Bildersuche zu spezifischen Suchanfragen zu generieren. Mittels dem ALT-Attribut wird der Inhalt eines Bildes beschreiben, sodass auch Suchmaschinen verstehen können was das angezeigte Bild wiedergibt. Durch die Verwendung des Fokus-Keywords sowie weiteren wichtigen Begriffen, wird die Keyword-Relevanz innerhalb eines Textes dadurch nochmals bestärkt.

SEO und Content Creation

Die Qualität der Seiteninhalte rückt seit den Google Panda Updates immer mehr in den Vordergrund. Suchmaschinen sind heutzutage in der Lage guten Content, wie Texte, Videos, Infografiken, usw. zu erkennen, und belohnen  die Seite mit besseren Rankings innerhalb der Suchergebnisse. Einzigartiger und qualitativ hochwertiger Content, welcher dem Besucher einen Mehrwert bietet, steht heute im Fokus der Suche. Mit einer vorgelagerten Keyword-Recherche und anschliessender Themenfindung können passende Inhalte erstellt werden, welche auf Nachfragen oder Bedürfnisse der User ausgerichtet sind.Texte sollen also primär für den User und nicht für die Suchmaschine geschrieben werden. Dies wirkt sich entsprechend positiv auf das Nutzerverhalten und verbessert die gemessenen Qualitätsfaktoren, wie Absprungrate, Verweildauer, User-Interaktion oder Social Signals.

Im zweiten Schritt werden die Inhalte dann für Suchmaschinen optimiert.  Dabei gilt es einige Punkte,  bezüglich Wortwahl oder Textaufbau zu berücksichtigen.

Termgewichtung – WDF*IDF

Heute sollte der Hauptfokus der suchmaschinenoptimierten Textgestaltung auf der Termgewichtung (WDF*IDF) und nicht mehr auf der Keyword-Dichte liegen. Denn die Suchmaschinen versuchen immer mehr den semantischen Zusammenhang der Begriffe zu deuten. Somit sind für ein gutes Ranking nicht mehr einzelne Keywords, sondern die Wortsemantik und der Kontext relevant. In den Texten müssen also auch Synonyme oder ähnliche Begriffe vorkommen, welche das Fokus-Keyword unterstützen und die Einzigartigkeit bzw. die Vielfältigkeit fördert.

Mit über 6 Mia. täglichen Suchanfragen liegen Google eine Menge Informationen vor, um herauszufinden, was der einzelne Suchende beabsichtigt zu erhalten, wenn er Begriffe im Suchfeld eingibt. Ein Blog-Post von Google aus dem Jahr 2010 belegt, dass bei rund 70% aller Suchanfragen Synonyme eine Rolle spielen. Mit der WDF*IDF Formel kann die optimale Verteilung relevanter Keywords innerhalb eines Textes ins Verhältnis zur inversen Dokumenthäufigkeit gesetzt werden. Mit anderen Worten, durch eine WDF*IDF Analyse kann die optimale Verteilung relevanter Keywords in einem Text bestimmt werden, sodass dieser mit den Inhalten der Top platzierten Seiten zum entsprechenden Suchbegriff mithalten kann.

Es gibt eine Vielzahl WDF*IDF Tools am Markt, welche Texter dabei unterstützen, die optimale Anzahl Keywords zu benutzen. Dazu gehören Onpage.org oder auch der Content Optimizator von Searchmetrics.

Seitenstruktur

Wo auf einer Seite die Begriffe platziert werden, ist oft genauso wichtig wie die Wahl der Keywords selber. Die Seitenarchitektur sowie der inhaltliche Aufbau spielen für Suchmaschinen eine zentrale Rolle. Sie reagieren positiv auf Inhalte, welche eine saubere Struktur aufweisen. Jede Webseite besteht aus verschiedenen Content-Bereichen wie Header, Footer, Sidebar und Haupt-Content, welche unterschiedlich gewertet werden.

Idealerweise wird der Haupt-Content in Abschnitte eingeteilt, welche durch Bilder, Zwischentitel oder Leerräume getrennt werden. So ist die Seite für den User einfach scannbar und er kann sich einen Überblick über die Inhalte verschaffen.

Mit dem Hummingbird-Update zeigt Google, dass sie in Zukunft mehr Wert auf Texte legen werden, die das Zusammentragen der darin enthaltenen Informationen erleichtern.

Ein weiteres Hilfsmittel zur Kennzeichnung und Strukturierung von Inhalten gegenüber Suchmaschinen bietet schema.org. Dieser HTML-Markup wird von den grösseren Suchmaschinen wie Google, Bing oder Yahoo unterstützt und dient der Kennzeichnung verschiedener Inhalte.

Seiten Struktur

Fazit

Keywords bilden wichtige Grundelemente für die Erstellung von Seiteninhalten. Durch sie kennen wir die Sprache der User und können diese Begriffe entsprechend in die Textegestaltung einbauen. Genauso wichtig ist aber die vorgängige Schaffung einer soliden Basis, worauf die SEO Content Optimierung aufbauen kann. Ist die Website technisch sowie strukturell in einem weniger guten  Zustand und fehlen zudem relevante Signale, wie Title-Tag oder Headings, ist die Erreichung einer hohen Reichweite bzw. eines guten Rankings, trotz gutem und keyword-reichem Content, eher schwierig.

Natürlich tragen weitere Einflussfaktoren, wie Anzahl Backlinks, Internal Linking, Page Speed oder Social Signals ebenfalls zu einem guten Ranking bei. Für eine gute Positionierung in den Suchresultaten müssen somit unterschiedliche Faktoren der Suchmaschinenoptimierung berücksichtigt werden.

 

Recap der BrightonSEO 2014

Recap der BrightonSEO 2014

Britanniens SEO-Branche versammelt sich zwei Mal jährlich im Küstenstädtchen Brighton nahe London und tauscht die neusten Trends, Erkenntnisse und Zukunftsprognosen aus.

Wir von BlueGlass Zürich und London waren dieses Jahr mittendrin und haben die im September stattfindene Konferenz für euch mitverfolgt. Hier der neuste Schrei der Branche:

Die Zukunft von Google

Einige Speaker haben Zukunftsprognosen zu Google aufgestellt. Allen voran Ian Miller, der seine gesamte Präsentation dem Suchriesen gewidmet hat. Google sei nicht mehr nur eine Suchmaschine. Mit hohen Marktanteilen in anderen Bereichen, wie den Tools (Google Analytics, Marktanteil 80%), E-Mail Services (Gmail, Marktanteil 10%) oder Web-Browser (Chrome, Marktanteil 60%) und Markterweiterungen mit riesigen Zukäufen, wie nest (3.2 Mia USD), Skybox (500 Mio USD) oder My Waze (966 Mio USD) deckt Google eine immer breitere Produkt- und Servicepalette ab. Google entwickelt sich zu einem Datengiganten mit Datenmassen, die nicht mehr nur unsere Online-Aktivitäten umfassen, sondern auch unser Offline-Verhalten.

Was möchte Google damit bezwecken?

“Hat Google Böses vor?” fragte Ian Miller keck in die Runde. Er glaube nicht, denn primär möchte der Konzern mit den angesammelten Daten Geld verdienen. Zusätzlich will sich der Konzern aber auch von den Grenzen des Webs lösen und die Gesamtheit der Informationen auf der Welt für jeden, zu jeder Zeit zugänglich machen. Miller meint, Google wolle in Zukunft keine Suchanfragen mehr beantworten, sondern dem Benutzer bereits vor der Anfrage die Bedürfnisse erfüllen.

“My vision when we started Google 15 years ago was that eventually you wouldn’t have a search query at all. You’d just have information come to you as you need it.” Sergei Brin, Google

Ian Miller und Matthew Brown (Moz) sehen Google Now als Funktionenvorschau der zukünftigen SERPs, da Google die Kacheln danach als Searchfunktionen oder Rich-Snippets in die Suchergebnisse integriert.

Google Now

 

Context is the new index

Um dies zu ermöglichen, braucht Google Daten. Diese müssen sie verstehen können, nicht nur indexieren. Verstehen bedeutet in diesem Zusammenhang, den Kontext zu erkennen. Die Entwicklung ist bereits im Gange, wie das Suchresultat von Google.com zeigt (von heute).

SERP

Marcus Tober von Searchmetrics analysierte die SERPs von google.com zu ähnlichen Anfragen und zeigte bei seiner Präsentation, dass Google seit dem Hummingbird Update den Kontext besser verstehen kann. Bei Suchanfragen mit dem gleichen Kontext, aber verschiedener Wortwahl, zeigt Google mehr gleiche Suchresultate, als vor dem Update.

Wie können wir Google dabei helfen?

Oder besser gesagt, wie können wir die Daten auf unserer Website für Google verständlicher machen, damit wir unseren Konkurrenten vorgezogen werden? Verschiedene Speaker haben auf strukturierte Daten hingewiesen, wie beispielsweise die Markups von Schema.org. Es gibt aber auch noch weitere, die noch wenig verwendet werden. Jan-Willem Bobbink und Matthew Brown von Moz hoben JSON-LD hervor, eine JSON-basierte Serialisierung für verlinkte Daten.

Rankingfaktoren 2014

Von der Zukunftsmusik zur Gegenwart – Marcus Tober zeigte die Ergebnisse aus der Rankingfaktoren-Studie 2014 von Searchmetrics. Die grösste Veränderung seit dem letzten Jahr konnten sie bezüglich der relevanten Keywords und Site Speed feststellen. Somit hat die User Experience einen wesentlichen Einfluss auf das Ranking. Tober meinte, dass Search Engine Optimization sich zu Search Experience Optimization entwickelt. Die User Experience sei aber nicht nur vom Content und dem Speed, sondern auch von der Seitenstruktur abhängig.

The Secrets to Newsworthy Content

Viele Unternehmen versuchen mit Kampagnen die Aufmerksamkeit der User auf ihre Inhalte zu lenken. Inhalte müssen heute  interessant genug sein, damit die Leute sich damit beschäftigen. Andy Miller von BlueGlass London gab seine Techniken für erfolgreiche Content Marketing Kampagnen preis. Der Inhalt müsse drei von fünf Punkten erfüllen:

  • Aktualität
  • Emotionen auslösen
  • Wirkung auf Verhalten / Einstellung
  • Aufmerksamkeit
  • Glaubwürdigkeit

 

Schliesslich geht es nicht darum, das zu erzählen, was man als Marke positionieren möchte, sondern was das Publikum interessiert.

Fazit

SEO ist zu einem strategischen Element innerhalb eines Unternehmens geworden. Die Zeiten der Keywordrecherche und anschliessenden Landing Page Gestaltung sind vorbei. SEO soll sich heute auch um die User Experience kümmern und den gesamten Kaufprozess beachten. So vielfältig die Rolle eines SEOs, so umfassend war auch die BrightonSEO. Mit namhaften Speakern zu verschiedenen Disziplinen – von Strategy über Links zu Data und Content – hat BrightonSEO als Experten-Konferenz überzeugen können.

Die Teilnahme an der BrightonSEO ist für alle Besucher kostenlos und wird von den verschiedenen Sponsoren getragen. Trotzdem oder vielleicht auch deswegen verzeichnete die BrightonSEO einen grossen Andrang von namhaften Online Marketers hauptsächlich aus England. Die Location im Brighton Dome war übrigens grandios. Wir sind begeistert und freuen uns auf die nächste Ausgabe.

Weitere lesenswerte Recaps zur #BrightonSEO:

Wie fandet ihr die BrigtonSEO?

 

BlueGlass an der BrightonSEO

Sitelinks Search Box: How to & Pros n’ Cons

Sitelinks Search Box: How to & Pros n’ Cons

Anfang letzter Woche hatte ich berichtet, dass die Sitelinks Search Box auch in der Schweiz getestet wird und welche neuen Features diese mit sich bringt. Ende letzter Woche wurde die Sitelinks Search Box dann offiziell im Google Webmaster Central Blog bekanntgemacht und Massnahmen näher beschrieben, welche für ein Erscheinen notwendig sind.

Im Folgenden eine Übersicht wie auch Eure Website zu einer Sitelinks Search Box kommen kann und welche Vor-, aber auch Nachteile diese mit sich bringt.

Wie sieht die Sitelinks Search Box aus?

Die Search Box wird innerhalb eines Suchresultats vor den Sitelinks angezeigt. Diese erscheint meist bei navigational Searches, sprich Brand-Suchen, da man davon ausgehen kann, dass User eigentlich nach etwas Spezifischem bezogen auf diesen Brand suchen und nicht einfach nur nach Informationen zum Brand / Unternehmen selbst.

Sitelinks Search Box - Praxisbeispiel | blueglass.ch

Die Search Box unterstützt Autocomplete, welches seitenspezifische Suchvorschläge aufzeigt. Bis noch vor einer Woche wurde der User zu einer weiteren Google-Seite geführt mit site:domain.ch [keyword der search box] (siehe den dazugehörigen BlueGlass Blogbeitrag.

Trifft man die nötigen Vorkehrungen auf der eigenen Website, so leitet Google den User nun direkt zur entsprechenden Suchresultateseite der Website nach der der User gesucht hat.

Implementation der Sitelinks Search Box

Die in der Suche integrierte Search Box wird weiterhin zu einer Google-Trefferliste mit site:domain.ch [keyword der search box] führen, sofern auf der Website nicht die von Google geforderten OnSite-Massnahmen durchgeführt werden.
Möchtet Ihr also nicht, dass die Suchbox den User direkt auf Eure Seite führt, so könnt Ihr diesen Abschnitt überspringen und Euch weitere Anstrengungen sparen.

Es bedarf zweier Massnahmen, welche man umsetzen muss, damit die Search Box wie oben beschrieben zur eigenen Website weiterleitet:

1) Internal Site Search
Die Website muss über einen funktionierenden Site Search verfügen, damit Google die User zur richtigen Seite leiten kann. Sollte Eure Website bisher keine Internal Site Search aufweisen, so empfehlen wir dies in vielen Fällen ohnehin. Eine effiziente Suche verbessert zum einen die Usability, vor allem innerhalb eines E-Commerce Shops. Zum anderen konvertieren Besucher, welche die Site Search nutzen erwiesenermassen besser als diejenigen, welche den Site Search nicht nutzen (siehe “E-Commerce Site Search”).

2) Schema.org Markup
Durch die strukturieren Daten weiss Google wo sich die Site Search der Website befindet und welches URL Muster die Site Search verwendet. So kann Google die interne Suche der Website nutzen, um direkt zur korrekten Suchresultateseite auf der jeweiligen Website zu führen.

Eine ausführliche Beschreibung der Massnahmen zur Sitelinks Search Box findet Ihr hier.

Es ist allerdings zu beachten, dass die Umsetzung dieser Massnahmen keinerlei Garantie dafür ist, dass die Sitelinks Search Box in Euren Suchresultaten erscheint. Ob Eure Website ein Kandidat für die Search Box ist, wird schlussendlich durch den Google Algorithmus entschieden.

Pros & Cons der Sitelinks Search Box

Pros:

1) Verbesserte User Experience

Dieses neue Google Feature ist ein weiterer Schritt in die Richtung in die Google sich entwickeln möchte. Die einzelnen Steps von der Suchanfrage hin zur Antwort bzw. zum zufriedenstellenden Suchergebnis sollen so weit wie möglich reduziert werden. Der User wird somit direkt zur Seite geleitet, welche der Suchanfrage am nächsten ist anstatt zu einer weiteren Google Suchresultate Seite.
Mit Hilfe des seiten-spezifischen Autocomplete wird dem User bereits bei Google die Suche erleichtert.

2) Mehr organischer Traffic

Durch Erscheinen der prominenten Search Box wird mehr organischer Traffic direkt zur Seite weitergeleitet. Nutzen User die herkömmliche Suchleiste für nachfolgende spezifsche Anfragen, so bleibt der User bei Google und klickt womöglich auf ein Search Snippet eines anderen Brands. Bisher bot Google eine integrierte Suchleiste, welche auf Subseiten führt, nur in Form von Ad Extensions bei bezahlten Anzeigen. Nun können User auf Subseiten geleitet werden ohne dass man dafür bezahlen muss.

Cons:

1) Startseite wird übersprungen

Viele Kunden nutzen Google für die Suche einer spezifischen URL. Durch die neue Search Box landen Kunden nicht mehr auf der Startseite. Dadurch können gerade bei E-Commerce Shops spezielle Angebote an dem Besucher vorbeigehen oder der Cross-Selling Umsatz beeinflusst werden.

2) Reduzierung von User Interactions

Da User mit Hilfe der Search Box voraussichtlich schneller und mit weniger Klicks auf der gewünschten Subseite landen, könnten User Interaction Kennzahlen, wie z.B. Besuchsdauer oder Seiten/Visit geringer ausfallen. Da diese Kennzahlen bekanntlich einen Einfluss auf das Ranking haben, stellt sich die Frage, ob Google diese Auswirkungen bereits berücksichtigt hat.

Fazit

Die Vor- und Nachteile zur Sitelink Search Box sind vorerst nur erste Einschätzungen. Wie sich die Search Box und deren Nutzung entwickeln wird und welche Auswirkungen daraus resultieren, muss beobachtet werden. Bisher wurde die Search Box relativ wenig in Aktion gesehen. Ich konnte das Suchresultat von letzter Woche beispielsweise auch nicht mehr reproduzieren.

Wir von BlueGlass finden die Search Box jedenfalls ein tolles Feature und empfehlen jedem Website-Betreiber, bei dem ein Internal Site Search Sinn macht, die notwendigen Massnahmen für die Sitelink Search Box zu implementieren; dann aber auch die Auswirkungen zu beobachten.

Was haltet Ihr von der neuen Sitelink Search Box?

 

Google Schweiz testet Search Box in organischen Suchresultaten

Google Schweiz testet Search Box in organischen Suchresultaten

Ende August wurde auf searchengineland.com darüber berichtet und heute morgen hatte ich die Ehre das neue Feature der Google-Suche in meinen Suchresultaten zu sehen. Wie es scheint, testet auch Google Schweiz die Search Box innerhalb der organischen Suchresultate:

Search Box im organischen Snippet von upc cablecom

 

Die Suche enthält ebenfalls den Google Autocomplete, wie folgendes Bild zeigt:

Google Autocomplete in Search Box des organischen Snippets

 

Aktiviert man die Suche, erhält man alle Seiten der jeweiligen Website hinsichtlich der Suchanfrage:

Suchresultat der Search Box Suche

 

Das Resultat erscheint auch bei Variation des Brands, wie “upc” oder “cablecom”:

Search Box im organischen Snippet zu "upc"

 

Bei derselben Suchanfrage innerhalb google.ch FR/IT/EN erhielt ich allerdings ein herkömmliches Resultat:

Suchresultat bei google.ch FR ohne Search Box

 

Um zu testen, ob noch weitere Brands eine Suchleiste im organischen Resultat aufweisen, habe ich nach verschiedenen Firmen, wie “UBS”, “Novartis”, “Credit Suisse”, “Nestle”, “Sunrise”, “car4you.ch” oder “autoscout24.ch” in verschiedenen Varianten gesucht. Ohne Erfolg! Jedoch fand ich die Search Box auch bei “Orange” und “Swisscom”:

Search Box in Suchresultat zu "Swisscom"

Möglicherweise wird dies erst einmal nur für eine Branche getestet.

Was ist der Unterschied zur bisherigen In-Search Search Box?

Die Search Box innerhalb der organischen Suchresultate ist in dem Sinn nichts Neues. Bereits 2008 wurde in einem Google Blogpost darüber berichtet.
Google begründete die Suchleiste damit, dass User oftmals nach einem Brand suchen und gleich darauf eine spezifische Anfrage hinsichtlich Inhalten dieses Brands tätigen. Somit kann diese Suchleiste direkt die gewünschten Ergebnisse liefern. Dies wird aber nur bei auserwählten, vor allem sehr grossen Brands, angezeigt.

Allerdings wird die Search Box in diesem Fall als Erweiterung der Google Sitelinks integriert und nicht, wie in der heutigen Entdeckung, als Erweiterung des eigentlichen Search Snippets. Die neue Search Box ist grösser, zeigt Autocomplete Resultate und führt eine komplette Google-Suche durch anstatt nur innerhalb der ersten Resultate zu suchen.

Es ist im Moment nicht ersichtlich, was es benötigt, damit ein solches Resultat ausgespielt wird und ob dieses Feature überhaupt die Testphase überlebt. Wir werden dies weiterhin beobachten.

Habt Ihr ebenfalls schon ein organisches Suchresultat inklusive Search Box erhalten?

4 Google Analytics Reports zur Optimierung der Website

4 Google Analytics Reports zur Optimierung der Website

Eine Website soll Kundenbedürnfnisse erfüllen, Conversions oder Leads generieren. Tut sie das nicht oder zu wenig, sollte sie optimiert werden. Leichter gesagt als getan – Daten sowie mögliche Ansatzpunkte gibt es (zu) viele. Dieser Blogbeitrag zeigt euch, wie die richtigen Informationen aus Google Analytics herausgelesen werden, um die Website auf die Erfolgsspur zu lenken.

Keinesfalls sollt ihr es blindlings mit Massnahmen mit unsicherem Ausgang probieren oder euch als anderes Extrem in die ziellose Analyse einer riesigen Datenmenge stürzen. Ich stelle euch in diesem Blogbeitrag vier Google Analytics Reports vor, mit welchen ihr das Big Picture eurer Website erhaschen könnt. Diese vier Reports liefern die benötigten Ansatzpunkte, um erste Massnahmen zur Website-Optimierung vorzunehmen.

Für die Reports ist es empfehlenswert, in eurem Google Analytics Account Ziele mit Trichter anzulegen und – sofern vorhanden – die interne Suchfunktion auszuwerten. Für die Einrichtung der Ziele und Site Search findet ihr in der Google Analytics Hilfe alle relevanten Informationen.

Top 4 Google Analytics Reports

 

1. Seiten mit schlechtem Engagement

Das Besucher-Engagement entscheidet über guten oder schlechten Content. Spätestens seit dem letzten Panda Update bringt ein grosses, jedoch wertloses (weil für den User nicht spannendes) Content Angebot keine Rankingvorteile. Dieser Report zeigt auf, wo sich auf eurer Website der “schlechte” Content versteckt.
Jeder Webmaster sollte wissen, welche Seiten (und Inhalte) bei den Usern schlecht ankommen und in grossen Absprungs- & Ausstiegsraten sowie kurzen Besuchszeiten resultieren (sprich schlechtes Engagement). Optimiert man diese Seiten, verbessert sich nicht nur das Userverhalten, sondern auch die Rankings steigen, da Engagement inzwischen ein wichtiger Rankingfaktor ist.

Insight

Welche Themen Interessieren die User? Was funktioniert in Sachen Texte bzw. Inhalte? Natürlich funktioniert das auch im Hinblick auf Conversion-Optimierung und nicht nur Textverbesserung.

Vorgehen

Um die zu optimierenden Seiten herauszufinden, sucht man sich in Google Analytics die Seiten mit hohem Traffic und schlechter Besucherqualität raus.

Verhalten > Website Content > alle Seiten > grosser Zeitraum > Sortiert nach Seitenaufrufen > Vergleichende Darstellung > Vergleichswerte: Absprungrate, Ausstiege, Besuchszeit

Google Analytics Report Engagement

Resultat

Ziel ist es, die besucherstärksten URLs mit den Angaben zur Absprungrate, Seiten pro Besuch sowie Ausstiege zu notieren. Von Interesse sind bei dieser Betrachtung primär Seiten mit viel Traffic, da die inhaltliche Thematik bei diesen Seiten die User dementsprechend eigentlich ansprechen würde und weil die Besucherqualität dadurch aussagekräftig ist.
Die besucherstärksten URLs werden in einer Excel Tabelle notiert und jeweils aufgeführt, ob die Absprungrate, Seiten pro Besuch sowie Ausstiege unter- oder überdurchschnittlich sind. Der Inhalt von URLs mit zwei oder drei unterdurchschnittlichen Werten sollte optimiert werden. Nach ein paar Monaten können die Werte nochmals gemessen und die Veränderung erfasst werden.

Excel mit URLs zur Contentoptimierung

2. Contenterweiterung bzw. -optimierung

Welche Bedürfnisse führen User auf meine Website bzw. was erwarten sie zu finden? Dieser Report gibt Aufschluss dazu, in welchen Themenbereichen Potentiale für Contenterweiterungen bestehen und liefert wie der erste Report (siehe “Seiten mit schlechtem Engagement”) Inputs zur Contentoptimierung. Die Contenterweiterung zu Themen, die von Usern auf meiner Website erwartet werden und grosses Suchvolumen aufweisen, führen zu Trafficsteigerung. Contentoptimierungen verbessern, wie oben erklärt, das Engagement und können dadurch zu besseren Rankings verhelfen.

Insight

Welche Usererwartungen erfüllt die Website bisher noch nicht? Wie kann die Absprungrate gesenkt werden? Wie kann das Engagement verbessert werden?
Liefert Inputs für jegliche Arten von Websites: E-Commerce Shops, Content-lastige Websites (Blogs etc.), Webauftritt von Unternehmen etc.

Vorgehen

Die Site Search und die von den Besuchern eingegebenen Suchbegriffe liefern hilfreiche Inputs zu deren Erwartungen und konkreten Bedürfnissen. Ist jemand bereits auf meiner Website und erhält zu einer Suchanfrage (kennzeichnet ein bestimmtes Bedürfnis) die Antwort, dass es keine Inhalte/Angebote etc. dazu gibt, wird er mit hoher Wahrscheinlichkeit von der Website abspringen. Natürlich ist das sehr schade, gerade weil anscheinend eine bestimmte Erwartung und ein zu befriedigendes Bedürfnis besteht. Man verliert also in jedem dieser Fälle einen potentiellen Kunden.

Verhalten > Site Search > Suchbegriffe > Zeitraum: letzte 3 Monate > erweiterter Filter: Ausschliessen | einmalige Suchen insgesamt | weniger als 2 > filtern absteigend nach % Suchausstiege

Google Analytics Report Contenterweiterung

Resultat

Zu Suchanfragen, welche zu 100%igem Ausstieg führen, besteht höchstwahrscheinlich kein Content bzw. Angebot auf der Website. Zu diesen Themen sollte möglicherweise Inhalt geschaffen bzw. Produkte ins Sortiment aufgenommen werden.
Bei Suchanfragen, welche hohe Ausstiegsraten aufweisen, sollte das Resultat, welches die Site Search gibt, kontrolliert und optimiert werden.

3. Erfolgslose Zielseiten

Mit diesem Report wird untersucht, welche Einstiegsseiten zwar Traffic generieren, bisher jedoch (fast) keine Conversions ausgelöst haben.
Der Report ist geeignet für alle Arten von Websites, da schliesslich jede Website Conversions generieren soll- sei dies eine Kontaktaufnahme, eine Newsletter-Abonnierung oder der Kauf eines Produkts.

Insight

Wo sollen Conversion-Optimierungen ansetzen?

Vorgehen

Verhalten > Website-Content > Zielseiten > sortiert nach Anzahl Sitzungen > grosser Zeitraum > Darstellung: Leistung > Wert: Abschlüsse für Ziel oder spezifisches Ziel wählen

Google Analytics Report Zielseiten

Resultat

Besucherstarke Einstiegsseiten mit einem geringen Anteil an den Zielabschlüssen sollten pro Ziel notiert werden. Diese Seiten sollten darauf untersucht werden, ob der User verständlich von dort aus auf weiterführende Seiten weitergeleitet und quasi auf eine Conversion vorbereitet bzw. hingeführt wird. Falls nicht, sollte die Userführung mit Call-to-actions und Buttons verbessert werden.

4. Schwachstellen im Conversion-Trichter

Dieser Report zeigt diejenigen Seiten auf, welche im Conversion Trichter am meisten Absprünge der Besucher verursachen und dadurch die Anzahl Zielerreichungen mindern.

Insight

Für welche Seiten muss ich eine Conversion-Optimierung in Betracht ziehen? Müssen die Seiten eventuell auch aus Usability Sicht verbessert werden?

Vorgehen

Conversions > Ziele > Zielprozessfluss > spezifisches Ziel auswählen > filtern nach Medium > nacheinander alle Medien auswählen und Prozessfluss analysieren

Google Analytics Report Conversion Trichter

Resultat

Pro Ziel wird für jedes Medium die Seite mit den meisten Ausstiegen notiert. Bei diesen Seiten sollte analysiert werden, ob für den User der Prozess klar und verständlich ist, er alle notwendigen Informationen findet und ob die weiterführende Verlinkung deutlich gekennzeichnet ist.

Tipp: Die mühsam zusammengeklickten Reports könnt ihr über den Button “Verknüpfung” abspeichern.

Ansatzpunkte

Die Analyse der aufgeführten Reports und die daraus abgeleiteten Massnahmen können natürlich nicht als umfassende Website-Analyse sowie -Optimerung angesehen werden. Vielmehr dienen sie einem vereinfachten Zugang zur Website-Optimierung sowie der Umsetzung von Quick Wins.
Ergänzend und in weiteren Schritten braucht es weitere Daten Insights, Auswertungen und Tools um die Optimierung einer Website voranzutreiben. So sind zum Beispiel Rankingdaten unabdingbar, um aktiv an der Contentverbesserung und -erweiterung zu arbeiten (und letztlich auch die Resultate der Optimierungsbemühungen zu verfolgen).

Effizientes Link Re-Building aus 404-Seiten

Effizientes Link Re-Building aus 404-Seiten

Wenn eine nicht vorhandene Seite aufgerufen wird, dann gibt der Server gewöhnlich den HTTP-Antwortcode 404 wieder. Dies bedeutet schlicht und einfach: «Seite wurde auf dem Server nicht gefunden» und der Content wird nicht gecrawlt und indexiert. Zu jeder ordentlichen Website Maintenance gehört auch das Checking der 404-Seiten. Denn 404-Seiten bergen SEO-technische Potentiale in Form von ins Leere laufendem Link Juice und Traffic, die nicht ignoriert werden sollten.

Was macht ihr jedoch, wenn Eure Website eine Vielzahl von 404-Seiten wiedergibt? Wie findet Ihr heraus, welche der 404-Seiten extern verlinkt sind und gegebenenfalls die User Experience beeinträchtigen? Hier leistet mein 404 Checkup Template (404 CT™) Abhilfe. Das 404 CT™ identifiziert relevante 404-Seiten, welche Backlinks oder Traffic erhalten und vereinfacht Euch das Backlink Maintenance bzw. Link Re-Building. Wie einfach und schnell Ihr dies zu Nutzen Eurer Website verwenden könnt, erfahrt Ihr nach einer kurzen Einführung im Detail.

Wieso treten 404-Seiten auf?

Es gibt verschiedene Gründe wieso 404-Seiten auf Eurer Website auftreten können. Diese gliedern sich in interne und externe Gründe:

Interne Gründe

  • Vorhandene Seiten wurden gelöscht und danach nicht weitergeleitet. Dies passiert z.B. häufig bei URLs zu temporären Promotions oder Gewinnspielen.
  • Im Rahmen eines Relaunchs durch unsauberes Matching der alten und neuen URLs
  • Durch technische Bugs auf der Seite, z.B. das Auftreten von case-sensitiven URLs
  • Durch fehlerhafte interne Verlinkung

Externe Gründe

  • Ein Backlink einer externen Website wurde auf eine fehlerhafte URL gesetzt
  • Ein User teilt eine URL Eurer Website, welche einen Schreibfehler enthält
  • Eine externe Website, welche eine Linkpartnerschaft mit Euch unterhält, hat Bugs auf der Seite, welche fehlerhafte Links generiert.

In einem perfekt funktionierenden CMS und einem optimal erstellten Weiterleitungsprozess dürften 404-Seiten eigentlich nicht entstehen. Doch wer lebt schon in einer perfekten Welt! Des Weiteren sind die externen Ursachen für das Auftreten von 404-Seiten auf der eigenen Seite nicht immer beeinflussbar.

Aus diesem Grund ist es wichtig, dass in regelmässigen Abständen ein 404 Checkup stattfindet. Bei einer Website mit rund 3’000 indexierten Seiten führen wir diesen beispielsweise alle drei Monate durch.

Wie findet man 404-Seiten auf der Website?

Auf der Suche nach 404-Seiten der eigenen Website kann man auf verschiedene Tools zurückgreifen. Die gratis Variante liefert das Google Webmaster Tools.

Google Webmaster Tools

Innerhalb des “Crawling-Fehler”-Berichts im Tab “Crawling” findet man eine Auflistung der 404-Seiten, welche der Googlebot gefunden hat. Dabei werden die ersten 1’000 Seiten angezeigt. Die Liste kann heruntergeladen werden. Man erhält im Download mehr als 1’000 Seiten, allerdings trotzdem nicht alle der im Chart angezeigten Seiten. Später können die Seiten als korrigiert markiert werden.

Google Webmaster Tools

Screaming Frog

Ein weitere Möglichkeit bieten Crawling Tools, wie Screaming Frog. Bei Screaming Frog kann man gratis allerdings nur 500 URLs crawlen, was meist nur eine kleine Anzahl 404-Seiten abdeckt. Möchte man mehr 404-Seiten als die des GWMTs erhalten, wird die kostenpflichtige Variante empfohlen.

Screaming Frog

Searchmetrics

Searchmetrics  liefert innerhalb der Site Optimization ebenfalls 404-Seiten. Diese Funktion ist allerdings kostenpflichtig. Die 404-Seiten können exportiert werden.

Searchmetrics

Server Log-Datei

Eine Server Log-Datei ist ein Protokoll der Server Aktivitäten. Dort können also laufend alle 404-Seiten aufgezeichnet werden, welche effektiv generiert wurden. Eine Prüfung der Log-Dateien können somit aufschlussreiche Daten liefern – nicht nur hinsichtlich 404-Seiten (siehe “Server Log Essentials for SEO”)

Was tun bei einer Vielzahl von 404-Seiten?

Als allererstes…ruhig bleiben! Es besteht kein Grund zur Sorge, dass Google die Website abstraft oder das Ranking der Website negativ beeinflusst wird (siehe Statement von Google).

Allerdings beeinträchtigt es natürlich die User Experience, wenn User über einen externen Link auf eine 404-Seite geführt werden und je nach dem in einer Sackgasse landen. Ausserdem kann es die Zahl der indexierten Seiten beeinflussen, wenn ein Crawler anstatt auf existierenden Content auf eine 404-Seite weitergeführt wird. Daher ist es wichtig von Anfang an für User als auch Crawler eine nützliche 404-Seite bereitzustellen, welche auf interessanten und hilfreichen Content verlinkt.

Dem Auftreten von 404-Seiten sollte man gründlich nachgehen, damit diese nicht nochmals erscheinen. Es bringt nichts alle 404-Seiten einfach weiterzuleiten, da damit das Problem nicht behoben ist. Ausserdem muss eine 404-Seite nicht weitergeleitet werden, sofern diese nicht extern verlinkt ist.

Besteht nur eine kleine Zahl von 404-Seiten sollte das Problem schnell identifiziert und behoben sein. Das Google Webmaster Tools liefert zu jeder nicht gefundenen URL zusätzlich alle URLs, über welche diese 404-Seite verlinkt wird. Dafür einfach auf die entsprechende 404-Seite klicken. So können mögliche Gründe, wie interne Broken Links, identifiziert werden.

GWMT Verlinkt über

Erhält man jedoch Tausende von 404-Seiten wird die Analyse und Reparatur sehr zeitaufwendig. In diesem Fall macht es Sinn relevante 404-Seiten zu identifizieren und deren Behebung zu priorisieren. Relevante 404-Seiten sind Seiten, welche externe Backlinks aufweisen und/oder Traffic erhalten. Zum einen da Besucher, welche über Links oder z.B. Bookmarks kommen natürlich auf einer funktionierenden Seite landen sollten. Und zum anderen da über externe Backlinks Link Juice fliesst, der das Ranking einer Seite positiv beeinflusst. Bei einem 404 Status Code läuft der Link Juice allerdings ins Leere. Da natürliche Links aber, wie jeder weiss, wertvoll sind, vor allem von starken Seiten, wäre es schade und für die Website gar fahrlässig, wenn man diesen Link Juice einfach ins Nichts laufen lassen und nicht für die Website nutzen würde.

Hier kommt nun mein absolut kostenfreies 404 Checkup Template ins Spiel, mit dem ich Euch Link Re-Building bzw. Backlink Maintenance relativ einfach mache.

404 CT™ – Link Re-Building leicht gemacht

Unter folgendem Link könnt ihr das 404 CT™ downloaden und selbst ausprobieren.

 

Um das Template einsatzfähig zu machen, müsst Ihr nach dem Öffnen zuerst in der oben erschienenen gelben Leiste den Button “Inhalt aktivieren” drücken.

Und so funktioniert das 404 CT™:

1. Sammlung der 404-Seiten

Innerhalb der hellblauen Register könnt ihr alle exportierten 404-Seiten der Tools eintragen (siehe oben). Hier findet Ihr ein Register für das Google Webmaster Tools, für ein Crawler Tool, wie Screaming Frog sowie für Searchmetrics.

Wichtig: Alle Daten müssen als CSV-Datei exportiert werden. Die Daten sollten nicht formatiert oder bearbeitet werden, sondern einfach im Rohzustand in die Spalte A der jeweiligen Register kopiert werden! Dies gilt auch für Schritt 2 “Sammlung der Seiten mit Backlinks & Zielseiten”!

404 CT™ Schritt 1

2. Sammlung der Seiten mit Backlinks & Zielseiten

Damit man relevante 404-Seiten, welche über Backlinks verfügen, identifizieren kann, bedarf es der Sammlung aller Seiten mit Backlinks, um diese mit den 404-Seiten zu matchen.

Google Webmaster-Tools

Das Google Webmaster-Tools bietet innerhalb des Menüpunkts “Suchanfragen” → “Links zu Ihrer Website” die Möglichkeit den “am meisten verlinkten Content” auszuwählen. Diese Liste bitte als CSV-Datei herunterladen und in das entsprechende Register unbearbeitet hineinkopieren.

GWMT Schritt 2

Google Analytics

Zusätzlich dazu lade ich die Zielseiten aus Google Analytics herunter, da dies Seiten sind, welche Traffic auf die Seite gebracht haben, sozusagen Einstiegsseiten waren. So werden auch URLs abgedeckt, welche z.B. als Bookmark gespeichert wurden. Hier sollte man einen langfristigen Zeitraum wählen, um einen umfassenden Datenpool zu erhalten, z.B. die letzten 6 Monate. Der Google Analytics Bericht ist zu finden unter “Verhalten” → “Website-Content” → “Zielseiten”.

Google Analytics Zielseiten

Im GWMT und Google Analytics wird meist nur der URL-Slug und nicht die gesamte URL mit Domain ausgeliefert. Damit man die URLs später mit den 404-Seiten matchen kann, müssen die exportierten URLs mit der Domain vervollständigt werden.

Hierzu habe ich ein extra Feld im Template vorbereitet. Bitte tragt Eure Domain (mit oder ohne www) in der Zelle A4 im Register “Zielseiten – GA” ein. Das Verketten der Domain mit der restlichen URL erfolgt dann automatisch für die exportierten Daten aus Google Analytics und dem Google Webmaster-Tools.

Schritt 2- Verketten GA - 404

Sollte man auch über kostenpflichtige Tools verfügen, so empfiehlt sich als weitere Datenquelle für verlinkte Seiten auch MajesticSEO sowie Searchmetrics.

MajesticSEO

MajesticSEO stellt die Seiten, welche Backlinks erhalten in dem “Seiten”-Bericht zur Verfügung.

Majestic SEO

Dort bitte ebenfalls einfach das komplette Datenset als CSV-Datei herunterladen und unbearbeitet in das entsprechende Register kopieren.

Searchmetrics

Searchmetrics bietet denselben Bericht unter “Verlinkte Seiten” des Backlink Research Bereichs.

Searchmetrics Schritt 2

Alle gesammelten URLs könnt Ihr dann in die jeweiligen blau markierten Register des 404 CTs™ eintragen:

Schritt 2 - 404 CT

3. Identifizierung von 404-Seiten mit Backlinks

Sind alle 404-Seiten sowie Seiten, welche Backlinks erhalten und Zielseiten gesammelt, beginnt das Matching und für Euch der einfachste Teil des 404 CTs™.

Schritt 3 - 404 CT

Innerhalb des ersten Registers namens “Start” findet Ihr den Button “404 CT™ aktivieren”.

Schritt 3 - 404 CT - Button

Sobald Ihr diesen gedrückt habt, beginnt das 404 CT™ zu arbeiten und liefert Euch im Register “404 CT – Ergebnis” alle 404-Seiten mit Handlungsbedarf, d.h. wie bereits beschrieben, alle 404-Seiten, die externe Backlinks oder im ausgewählten Zeitraum Traffic erhalten haben.

Schritt 3 - 404 CT - Ergebnis

 Im Register “Check” könnt Ihr bei Interesse nachsehen, bei welchen Tools der Match stattgefunden hat, nämlich dort wo ein “X” in einer grün hinterlegten Zelle steht.

Schritt 3 - 404 CT - Check

4. Link Re-Building

Die Macht ist nun mit Euch! Ihr seht eine einmalige Liste mit Seiten vor Euch, die mit Hilfe von Link Re-Building einen wertvollen Nutzen für Eure Website liefern kann. Sollte die Spalte leer sein, so wisst Ihr immerhin, dass die aufgetretenen 404-Seiten keine Nachteile für Eure Website mit sich bringen. Nichtsdestotrotz sollte dem Auftreten der 404-Seiten auf den Grund gegangen werden.

Ich empfehle Euch zu jeder 404-Seite der Liste nun die entsprechende Zielseite zu definieren. Manch einer wird sich jetzt sicher fragen: “wieso die Mühe, wenn man diese einfach auf die Startseite weiterleiten könnte?”. Startseiten erhalten aber sowieso schon die meisten Backlinks. Dies ist eine sehr gute und einfache Möglichkeit Deep Links beizubehalten bzw. zu vermehren und Subseiten und deren Ranking zu stärken. Gerade Subseiten sind Conversion Seiten und daher gewünschte Zielseiten. Eine neue Produktseite, welche noch nicht viele Backlinks generiert hat, kann so von der Weiterleitung profitieren.

Schritt 4 - 404 CT

Bei den Zielseiten solltet Ihr Seiten mit ähnlichem Content auswählen, damit eine gute User Experience beibehalten bleibt. Sollte es eine entsprechende Seite nicht geben, so würde ich eine Seite einer nächst höheren Kategorie wählen anstatt die Startseite. Diese sollte nur in Fällen als Zielseite genutzt werden, wenn jede andere Seite keinen Sinn machen würde, z.B. bei einem nicht mehr vorhandenen Gewinnspiel.

Wurden nur eine geringe Anzahl 404-Seiten identifiziert, z.B. 10-20 Seiten, sollten diese und deren Backlinks nochmals einzeln geprüft werden, ob eine Weiterleitung überhaupt sinnvoll ist. Dafür kann das Google Webmaster-Tools (siehe oben) oder z.B. auch MajesticSEO herangezogen werden. Kommt der Backlink beispielsweise von einer schwachen oder skurrilen Domain, so kann auf die Weiterleitung verzichtet werden. Ansonsten wird empfohlen die einzelnen 404-Seiten mittels einem 301-Redirect auf die vorher definierte Zielseite weiterzuleiten.

Fazit

Ich habe diese Methode und dieses Template nun schon bei verschiedenen Projekten angewendet. Die Handhabung ist einfach und je nach Anzahl 404-Seiten, welche identifiziert werden, relativ schnell umgesetzt. Kann man sich dafür mehr Zeit nehmen, könnte man beispielsweise die Seiten nicht einfach weiterleiten, sondern die externen Quellen kontaktieren, und um einen Linkaustausch bitten. Des Weiteren könnte die Linkeinbindung der Fremdseite mit Content, welchen man dessen Webmaster liefert, noch aufgebessert werden, um dem Link zu mehr Aufmerksamkeit zu verhelfen und dessen Traffic zu steigern.

Ich würde mich freuen, wenn Ihr das 404 CT™ ausprobieren und mir Euer Feedback senden würdet. Bei Gefallen bitte weiterempfehlen, teilen, liken, tweeten etc. Und solltet Ihr Fragen oder Schwierigkeiten bei der Handhabung haben, könnt Ihr mich gerne kontaktieren.

Wie geht ihr ansonsten mit 404-Seiten auf Eurer Website um?

 

Suchmaschinennutzung in der Schweiz 2014

Suchmaschinennutzung in der Schweiz 2014

Sobald man eine eigene Website betreibt, stellt man sich früher oder später Fragen wie: Wie suchen meine Kunden nach meinem Produkt? Für welche Suchmaschine soll ich meine Website optimieren? Suchen die Kunden mit Google oder Bing oder mit etwas anderem?