SEO Wikis

Die wichtigsten Online Marketing Begriffe erklärt

A

  • Definition

    Der Begriff “Adaptive Content” stammt aus dem Englischen und lässt sich mit “anpassungsfähigen Inhalten” übersetzen. Es handelt sich hierbei um eine Marketingstrategie, die darin besteht, anpassungsfähige Inhalte zielgruppen- und medienspezifisch zu präsentieren. Die flexible Gestaltung von Adaptive Content hat zur Aufgabe, ihn universell einsetzbar zu machen, und zwar sowohl online als auch offline.

    Auf diese Weise ist gewährleistet, dass die Nutzer/-innen die präsentierten Inhalte gemäß ihrer Erwartungen konsumieren können. Dabei variieren die Erwartungen erheblich je nach Situation, in welcher sich die Nutzer/-innen befinden, sowie je nach Gerät, das sie während des Content-Konsums verwenden. Eine auf die Bedürfnisse von Nutzer/-innen zugeschnittene Interaktion mit Adaptive Content hat oberste Priorität.

    Hauptelemente von Adaptive Content

    Um als Adaptive Content zu gelten, müssen die präsentierten Inhalte bestimmte Eigenschaften besitzen. Als Grundlage hierfür dient das sogenannte COPE-Modell, dessen Erfolgsmaxime lautet: “Create Once Publish Everywhere”. Ins Deutsche übersetzt bedeutet sie so viel wie “Einmal kreieren, überall veröffentlichen”. In Bezug auf das COPE-Modell sollte Adaptive Content die folgenden vier Elemente umfassen:

    • Mehrfache Nutzbarkeit: Adaptive Content setzt voraus, dass die ersten Inhaltsentwürfe eine universelle Form aufweisen, und zwar unabhängig vom endgültigen Publikationsformat. Auf diese Weise wird es ermöglicht, dass Adaptive Content auf verschiedenen Kanälen und Endgeräten veröffentlicht werden kann. Seine allgemeine Einsetzbarkeit ist das A und O.
    • Sinnvolle Strukturierung: Es ist von entscheidender Bedeutung, dass Adaptive Content klar und sinnvoll strukturiert ist. Diese Regel betrifft alle Kanäle und Endgeräte, auf denen anpassungsfähige Inhalte für die Nutzer/-innen bereitgestellt werden. Die Idee dahinter ist, den Nutzer/-innen ein positives Benutzererlebnis (engl. User Experience) dauerhaft zu gewährleisten.
    • Starke Personalisierung: Unterschiedliche Kanäle erfordern unterschiedliche Inhalts- und Anspracheformen. Aus diesem Grund ist es wichtig, Adaptive Content flexibel an zielgruppenspezifische Bedürfnisse anzupassen sowie auf sich verändernde Anforderungen schnell zu reagieren. Dies bezieht sich auf die Marketingkommunikation in der digitalen wie in der realen Welt.
    • Technische Anpassung: Erst im letzten Schritt gilt es Adaptive Content in technischer Hinsicht umzusetzen. Dieser Schritt umfasst die Anpassung der Inhalte an entsprechende Ausgabeformate und Endgeräte mittels Auszeichnung mit Metadaten. Zudem sind die Übernahme von Adaptive Content in das CMS und die Optimierung für SEO-Anforderungen hochrelevant.

    Vorteile von Adaptive Content

    Die Vorteile von Adaptive Content liegen für beide Seiten auf der Hand: Die Nutzer/-innen profitieren von maßgeschneiderten Inhalten, die auf das jeweilige Publikationsformat und das verwendete Endgerät inhaltlich und technisch zugeschnitten sind. Eine klare Struktur macht anpassungsfähige Inhalte verständlich und leserfreundlich. Zudem wirkt Adaptive Content durch eine starke Personalisierung ansprechend.

    Neben den Nutzer/-innen schöpfen auch die Unternehmen und Agenturen das wachsende Potenzial von Adaptive Content aus. Zum einen bringt die Einbeziehung von anpassungsfähigen Inhalten in die Marketingstrategie ein erhebliches Einsparungspotenzial an Zeit und Kosten. Zum anderen erzeugt Adaptive Content Wettbewerbsvorteile, indem er den Aufbau von Kundenbeziehungen und eine werthaltige Kundenbindung begünstigt.

    Ein Trend: Adaptive Content in Virtual- und Augmented Reality

    Die Grenzen zwischen Realität und Virtualität werden immer durchlässiger. Eine steigende Zahl von Nutzer/-innen zeigt großes Interesse daran, das Beste aus beiden Welten herauszuholen. Bereits heute nutzen viele Kunden/-innen die Vorteile der Online-Präsenz eines Geschäfts und seines gleichzeitigen Beratungsservices vor Ort. Folglich muss Adaptive Content auf die neuesten Entwicklungen im VR/AR-Bereich entsprechend reagieren.

  • Kurz erklärt

    Advertorials bezeichnen Werbeanzeigen in einem redaktionellen Umfeld, dessen Optik oder Stil sie nachahmen. Damit strahlen sie auf den ersten Blick die Wirkung redaktioneller Beiträge aus, transportieren mit ihrem Informationswert dann aber eine gezielte Marketingbotschaft.

    Advertorials – mehr erfahren

    Der Begriff Advertorial ist ein Kunstwort und setzt sich aus den englischen Wörtern Advertisement für Werbeanzeige und Editorial für einen Leitartikel oder auch das Adjektiv redaktionell zusammen. Adverticle oder Publireportage bilden seltener genutzte Synonyme für ein Advertorial.

    Solche Advertorials finden sich im Print- wie im Onlinebereich gleichermaßen. Äußerlich orientiert sich ihre Gestaltung eng am redaktionellen Umfeld, in dem sie als Marketinginstrumente platziert werden. Inhaltlich gehen die Advertorials über klassische Werbeanzeigen zumeist weit hinaus und erreichen dabei dann ein redaktionelles Niveau mit vielen Hintergrundinformationen zu Dienstleistungen oder Produkten.

    An einer oder mehreren Stellen sollen die Werbebeiträge ihre Leserschaft dann online über Weiterleitungen beziehungsweise Verlinkungen auf Produktseiten oder in Onlineshops führen. Advertorials in Printmedien zielen alternativ beispielsweise auf den Anruf bei einer Bestellhotline ab.

    Der werbliche Charakter erschließt sich flüchtigen Lesern oft nicht sofort. Deswegen und durch die Bezahlung für die Platzierung der Advertorials sind Medien zu einer Kennzeichnung als Werbung verpflichtet. Dazu verlangt unter anderem der Presserat eindeutige, auch für unkundige Leser klar erkennbare, gut sichtbare Begriffe wie Anzeige oder Werbung. Die direkte Bezeichnung als Advertorial oder auch als Sponsored Post führt manches Mal zu Beschwerden und Rügen durch den Presserat.

    Advertorial vs. Gast- oder Partnerbeitrag

    Gast- beziehungsweise Partnerbeiträge können häufiger ohne Kennzeichnung als Werbung auskommen. Inhaltlicher Mehrwert zählt hierfür genauso als entscheidendes Kriterium wie das Fehlen direkter Produkt- oder Verkaufsangebote ohne weitere Kennzeichnung. Erscheint der Inhalt ausdrücklich als Partnerbeitrag eines anderen Mediums unter dessen Logo oder Namen, ergibt sich daraus ebenfalls nicht automatisch kennzeichnungspflichtige Werbung.

    Nutzen und Wirkung von Advertorials

    Alle Advertorials – online wie beim Print – haben ein Ziel: Interaktion mit potenziellen Kunden. Bei Inhalt oder Platzierung zeigen sie sehr zielgruppenorientierte Einsatzmöglichkeiten. Ein Advertorial springt zwar nicht sofort ins Auge wie die typischen Banner, Pop-Ups und Ähnliches, aber genau das ergibt einen weiteren Vorteil. Diese Werbung stört nicht großartig oder gerät gar in die Fänge eines Adblockers. Zudem wirkt das Advertorial immer

    • seriös und
    • eignet sich optimal für erklärungsbedürftige oder komplexe Produkte wie Dienstleistungen und
    • anspruchsvolle Zielgruppen.

    Damit empfiehlt sich das Advertorial zum Beispiel stark für den B2B-Bereich. Online ergibt sich außerdem viel Potenzial für SEO und weiteres Suchmaschinenmarketing.

    Studien zeigen dazu die breite Akzeptanz von Advertorials:

    • 90 Prozent geben Advertorials positive Bewertungen
    • besonders ihr Informationsgehalt wird geschätzt
    • mehr als 80 Prozent halten sie für glaubwürdig und
    • nur eine Minderheit bewertet sie eher als irreführend

    Diese Zahlen stammen zwar vom Verlag Deutscher Zeitschriftenverleger, aber in der Tendenz können diese Aussagen genauso für den Onlinebereich angenommen werden. Hier kommt es besonders darauf an, die sehr kurze durchschnittliche Aufmerksamkeitsspanne der Seitenbesucher zu gewinnen, bevor sie weiternavigieren. Vor allem eine knackige Überschrift, ansprechende Fotos oder Grafiken helfen dabei.

    Entscheidend für den Erfolg eines Advertorials bleibt aber letztlich immer der hohe Informationsgehalt. Er ist ein absolutes Muss! Der werbliche Charakter hat dahinter klar zurückzubleiben.

  • Ein Algorithmus ist eine Anweisung, die aus einer Folge verschiedener und aufeinander aufbauender Rechenschritte besteht, die zu der Lösung eines Problems führen. In der Regel betrifft das bestimmte Rechenschritte innerhalb mathematischer Aufgaben, die mit Hilfe eines vorgegebenen Schemas arbeiten.

    Die Anwendungsmöglichkeiten sind jedoch vielseitiger und zielen entsprechend auch auf das Internet und die dortige Bereitstellung von Inhalten und Suchanfragen ab. Es geht um Anwendungen, die im Web zum Auswerten, Prüfen und Sammeln von Daten und Websites genutzt werden. Das macht eine umfangreiche Analyse des Userverhaltens möglich, so dass Webinhalte auf die Suche oder die Aktionen der User abgestimmt werden können.

    Wo kommen Algorithmen im Internet zum Einsatz?

    Algorithmen spielen für die Personalisierung und Entscheidungshilfe in vielen digitalen Bereichen eine Rolle, so bei Social Media, SEO oder für Unternehmen und Websites, die Algorithmen für die automatische Lösung von Problemen nutzen. Auch in Navigationssystemen sind Algorithmen dazu gedacht, die richtige Route oder gewünschte Strecke zu ermitteln.

    Social Media wie Facebook, Instagram und Twitter und Suchmaschinen wie Google arbeiten dabei mit einem sehr aufwendigen Algorithmus zur Optimierung, Anpassung und Filterung ihrer bereitgestellten Inhalte. Bei Social-Media-Plattformen geht es darum, dass User die für sie interessanten Inhalte erhalten, während die weniger relevanten herausgefiltert werden. Der Suchmaschinenalgorithmus hat dagegen die Aufgabe, alle indexierten Webinhalte und Seiten in der Relevanz zum Suchergebnis zu prüfen und einzuordnen. Das macht eine ständige Weiterentwicklung des Algorithmus‘ notwendig, der gleichzeitig in seinem Gebrauch nicht durchschaubar ist.

    Der verwendete Algorithmus von Suchmaschinen ist oftmals dekodiert und lässt sich damit schwerer manipulieren. Angestrebt sind eine hohe Relevanz zwischen Suchergebnissen und Inhalten und eine schematische Positionierung der Websites nach bestimmten Kriterien, die für User inhaltlich einen Mehrwert bieten. Algorithmen sind daher im Web ständig präsent und helfen dabei, Daten zu sammeln und auf das Userverhalten abzustimmen.

    Wie funktioniert ein Algorithmus?

    Ein Algorithmus besteht aus einer Anzahl von vorgegebenen Parametern, die in die Bewertung und Suche einfließen. In der Regel handelt es sich um interne Parameter, die eine Einordnung der Suchbegriffe in ihrer Häufigkeit und Popularität gestatten. Je besser der Inhalt einer Website auf die Parameter des Algorithmus‘ abgestimmt ist, desto höher wird sie in der Suchmaschine positioniert.

    Daneben gibt es externe Parameter. Dazu gehören der Ankertext von Links und der PageRank. Solche Werte fließen in den Algorithmus ein und ordnen die Relevanz der Inhalte zu. Alle Parameter sind komplex miteinander verbunden, während die interne Optimierung immer von der externen abhängt. Die Zuordnung der Parameter ermöglicht in der Kombination bestimmter Werte das Sammeln von Daten oder die Filterung.

    Welche Bedeutung haben Algorithmen für SEO?

    Die Suchmaschinenoptimierung dient dazu, die Algorithmen der Suchmaschinen günstig zu beeinflussen und so durch das Setzen von Keywords und anderen Marketingmaßnahmen eine bessere Positionierung der Websites zu erzielen. Zwar ist der Algorithmus in seinen Parametern nicht bekannt, dennoch gibt es Konzepte, die sich im SEO bewährt haben.

    Der Google-Algorithmus PageRank wird zwar ständig weiterentwickelt, trotzdem hat er die simple Aufgabe, die große Menge an Informationen im Netz zu sortieren und geordnet bereitzustellen. Dadurch erhalten User auf Suchanfragen die relevanten und nützlichen Ergebnisse. Dazu prüft der Algorithmus nicht nur das Userverhalten und die Häufigkeit der Suchbegriffeingabe, sondern auch weitere Daten, darunter den Standort und das Klickverhalten. Das ermöglicht eine Bereitstellung von Inhalten, die trotz gleicher Suche zu verschiedenen Ergebnissen führt.

  • Worum geht es?

    ALT-Tags oder auch ALT-Attribute sind kurze ALTernative Texte, die Bildinhalte in knapper Form beschreiben. Beim Laden einer Webseite wird der Beschreibungstext dem Seitenbesucher allerdings nur dann angezeigt, wenn ein Bild aus irgendeinem Grund nicht lädt. Dann erscheint anstelle der Grafik der im ALT-Tag hinterlegte Text oberhalb der unteren Begrenzungslinie des Platzhalters für das Bild. Der Seitenbesucher hat trotz des aktuell nicht angezeigten Bildes eine Kurzinformation über dessen Inhalt. Die Nichtanzeige von Bildern kann verschiedene Ursachen haben: ein veralteter Browser, eine durch den Nutzer deaktivierte Bildanzeige oder auch eine defekte URL.

    Wo werden ALT-Tags hinterlegt?

    ALT-Tags sind HTML-Elemente, die direkt beim zugehörigen Bild-Link im Quelltext der Webseite hinterlegt werden. Folgendes Beispiel zeigt, wie das ALT-Attribut im HTML-Quelltext erscheint.

    img src=“/bildarchiv/radwandern_auf_kreta.jpg“ alt=“Radwandern auf Kreta Ein Mann ist mit seinem Fahrrad unterwegs.“

    Tieferer Sinn des ALT-Tags: Barrierefreiheit

    Grundsätzlich dient ein ALT-Tag der Barrierefreiheit. So erhalten sehbehinderte Nutzer, die sich die Seite über einen Screenreader vorlesen lassen, eine Information über das Bild. Diese Information erhalten sie unabhängig davon, ob das Bild korrekt angezeigt wird oder nicht.

    Was im ALT-Tag stehen sollte?

    Die Textlänge im ALT-Tag ist zwar nicht begrenzt, der Text sollte aber den Inhalt eines Bildes möglichst nur kurz und sinnvoll beschreiben. Idealerweise enthält er das Hauptkeyword, das aber auch hier nicht gehäuft auftreten darf. Andernfalls könnte das von Google als Keyword Stuffing interpretiert werden, was sich negativ auf die Seitenbewertung auswirkt.

    Welche Bedeutung hat der ALT-Tag als SEO-Kriterium?

    Besucher bekommen den ALT-Tag nur zu sehen, wenn ein Bild nicht angezeigt wird. Der Webcrawler von Google und anderen Suchmaschinen liest den Tag dagegen im HTML-Quelltext. Für Suchmaschinen ist diese Angabe von großer Bedeutung, weil sie Bilder nicht erkennen können. Durch die Nutzung des Tags signalisiert der Seitenbetreiber, dass er großen Wert auf die Barrierefreiheit seiner Seite legt. Für Google ist die Barrierefreiheit einer Webseite wiederum ein wichtiges SEO-Kriterium, das sich positiv auf die Seitenbewertung auswirkt. Durch eine Integration des Hauptkeywords im Beschreibungstext verstärkt der Seitenbetreiber zudem den Keywordfokus. Übrigens: Mit ALT-Tags lassen sich auch die Rankings bei der Bildersuche optimieren.

    Hinweis: Bei älteren Browsern fungierte der ALT-Tag noch als Tooltip, der beim Überfahren des Bildes mit der Maus (Mouse-over) angezeigt wurde. Diese Aufgabe übernimmt heute der Title-Tag.

    Fazit

    Der ALT-Tag ist ein wichtiges Attribut zur Erhöhung der Barrierefreiheit und somit zur Verbesserung der Usability einer Website. Zudem ist das Attribut ein wichtiges SEO-Kriterium, das der nachhaltigen OnPage-Optimierung dient. Sollte der Browser ein Bild nicht anzeigen können, hat der Besucher zumindest eine rudimentäre Information zu dessen Inhalt. Zwar ist die Nutzung des ALT-Tags optional, dennoch sollten Seitenbetreiber immer davon Gebrauch machen, weil sich in dem Kurztext auch ein Keyword (im Idealfall das Hauptkeyword) unterbringen lässt.

  • Als Ankertext (engl.: Anchor Text) werden ein oder mehrere Wörter im sichtbaren Fließtext von Webseiten bezeichnet, die mit einem Backlink hinterlegt sind. Im Regelfall sind Ankertexte farblich unterlegt und heben sich so vom Rest des Textes ab. Mit einem Klick auf den Ankertext findet eine Weiterleitung des Nutzers zur im Link hinterlegten Webseite statt.

    Grundsätzlich können Ankertexte vom Betreiber der Webseite frei gewählt werden. Im Sinne einer guten Suchmaschinenoptimierung empfiehlt es sich, eine intelligente Wortwahl mit Bezug auf das Linkziel zu treffen. Dies können beispielsweise Keywords sein, die bei einer Google-Suche mit der verlinkten Zielseite als Suchergebnis verwendet würden.

    Zusammenhang von Ankertext und Backlinks

    Jeder Ankertext ist mit einem HTML-Code hinterlegt, der auf die Zieladresse bei Anklicken des Textes verweist. Dieser hinterlegte Backlink kann innerhalb der eigenen Webseite sowie auf fremde Webangebote verlinken. Für den Webseitenbetreiber ist im Sinne eines guten Online-Marketings wichtig, eine Konsistenz zwischen dem gewählten Ankertext und dem Backlink zu erzeugen.

    So sollte der gewählte Anchor Text keine falschen Erwartungen wecken, was den Nutzer bei Anklicken des Textes erwartet. Oft wird der Ankertext zum Aufrufen weiterführender Informationen genutzt, die der Nutzer unmittelbar nach dem Anklicken vorfinden sollte. Üblich ist auch die Verwendung von Webadressen als Ankertext, um eine direkte Verlinkung auf die benannte Internetseite herbeizuführen.

    Sinnvolle Gestaltung von Ankertexten

    Was die Länge des Ankertextes zur SEO-freundlichen Verlinkung anbelangt, gibt es seitens Google keine expliziten Einschränkungen. Der Anker kann ein einzelnes Wort oder die URL einer Webseite sein. Auch mehrere Wörter oder Halbsätze lassen sich als Anchor Text mit einem Link hinterlegen, sofern die gesamte Formulierung zum Linkziel passt.

    Die Verlinkung kompletter Absätze ist nicht ausgeschlossen, entspricht den Gewohnheiten der heutigen Internetnutzung jedoch nicht und wirkt auf den Betrachter befremdlich. Mehrere Wörter als Ankertext zu verwenden empfiehlt sich, um verschiedene relevante Keywords für die verlinkte Webseite in einem Satz sprachlich miteinander zu verbinden. Dies gilt speziell, wenn Nutzer den Ankertext als Long-Tail-Keyword bei einer Google-Suchanfrage eingegeben würden.

    Bedeutung für Ihre SEO

    Das Setzen von Backlinks gehört zu den wichtigsten Aspekten der Onpage-Suchmaschinenoptimierung. Für einen natürlich wirkenden und intelligenten Linkaufbau ist die Wahl von Backlinks zu themenrelevanten Seiten empfehlenswert, die dem Nutzer der eigenen Webseite durch Anklicken einen echten Mehrwert bieten.

    Zur Steigerung der Relevanz der eigenen Webseite fällt der Wahl der Ankertexte für themenrelevante Backlinks eine wichtige Rolle zu. Für die Wahl der Ankertexte empfiehlt sich der Einsatz von SEO-Tools und die Durchführung einer Keyword-Analyse, um relevante Begriffe in den eigenen Fließtext einzubinden. Wie bei allen zeitgemäßen SEO-Maßnahmen sollte der menschliche Betrachter der Webseite nicht vergessen werden. Der verwendete Anchor Text muss somit zum restlichen Text passen und darf den Lesefluss nicht stören.

B

  • Backlinks sind ein wichtiges SEO-Element für Webseiten: Die von externen Seiten auf einen Webauftritt führenden Links werden von Google und Co. als Qualitätsmerkmal eingestuft. Die Logik dahinter: Je mehr Quellen von außen auf eine Seite verlinken, desto hochwertiger muss der Inhalt dieser Seite sein. Entsprechend höher wird die Seite im Ranking gewichtet. Um Backlinks richtig einzusetzen, gibt es einige wissenswerte Details.

    Hier sind Antworten auf die wichtigsten Fragen zum Thema Backlinks:

    Definition: Was ist ein Backlink?
    Warum werden Backlinks benötigt?
    Was kennzeichnet gute Backlinks?
    Wann werden Backlinks abgestraft?
    Was ist ein Ankertext (Anchortext)?

    Wann werden Backlinks abgestraft?

    Suchmaschinen können Webseiten im Ranking abstrafen, wenn viele Backlinks als wertlos eingestuft werden. Damit schieben Google und Co. den sogenannten Linkfarmen sowie Linkverkäufern einen Riegel vor. Linkfarmen sind Artikel- oder Branchenverzeichnisse, die einzig dazu dienen, möglichst zahlreiche Links auf andere Seiten zu setzen. Linkverkäufer wiederum sind Anbieter, die sich für das Setzen von Backlinks bezahlen lassen. Kritisch sieht Google es auch, wenn eine Seite für jeden erhaltenen Backlink jeweils einen eigenen auf die Quelle des Backlinks verweisenden Link setzt. Seitenbetreiber sollten deshalb dieses „Cross Linking“ nur sparsam nutzen.

    Was ist ein Ankertext?

    Der Ankertext (Anchortext) ist der Text-Schnipsel auf der externen Seite, hinter dem der Backlink hinterlegt ist. Solch ein Ankertext ist oft nur ein bis drei Worte lang. Meist sind Ankertexte farblich hervorgehoben. Für die Ziel-Seite des Backlinks der Inhalt des Ankertextes wichtig. Der Textschnipsel sollte möglichst punktgenau zum Thema der verlinkten Seite passen. Dann nämlich wird der Backlink von Google besser bewertet, als wenn ein generischer Ankertext wie „weitere Informationen“ gewählt wird.

  • Der Begriff Bad Neighbourhood (deutsch: schlechte Nachbarschaft) bezieht sich auf eine Gruppe von Internetseiten, die von den Suchmaschinen als nicht vertrauenswürdig eingestuft werden. Die Folge dieser Einstufung ist die Herabsetzung des Rankings der Webseite beziehungsweise die Entfernung aus dem Index der Suchmaschine. Eine Verlinkung zu oder ein Backlink von einem Bad Neighbour kann das Ranking einer vertrauenswürdigen Seite negativ beeinflussen.

    Kriterien einer Bad Neighbourhood

    Der Algorithmus der Suchmaschinen bewertet die Inhalte und den Aufbau einer Internetseite unter Berücksichtigung mehrerer Parameter. Es gibt drei große Kategorien, die von Google & Co. als nicht vertrauenswürdig angesehen werden: PPC (pills, porn and casinos). Hinzu kommen rassistische und sexistische Inhalte, Fake-Shops sowie Internetseiten, die urheberrechtlich geschützte Inhalte illegal verbreiten.

    Viele Webseitenbetreiber setzen auf eine gezielte Manipulation des Suchmaschinen-Algorithmus, um ihr Ranking zu verbessern. Im Gegensatz zur professionellen Suchmaschinenoptimierung rücken diese Methoden nicht den inhaltlichen Mehrwert für den Besucher in den Fokus, sondern füllen die Seite künstlich mit einer Vielzahl von Links. Dies weckt die Aufmerksamkeit des Algorithmus, mindert allerdings die Leserlichkeit des Inhalts. Um dieser Entwicklung entgegenzuwirken, haben die Suchmaschinen die Liste der Kriterien für die Abstufung einer Internetseite um diese Kategorien erweitert.

    Kriterienliste für einen Bad Neighbour:

    Inhalte, die gegen die Richtlinien der Suchmaschinen verstoßen
    Link-Spamming
    Verschleierung der eigentlichen Inhalte („Cloaking“)
    Unverhältnismäßig hoher Anteil an Werbung
    Schwacher Content (z. B. überdurchschnittlich hoher Anteil an Füllwörtern)

    Weist eine Internetseite eines oder mehrere dieser Merkmale auf, wird sie von dem automatisierten Algorithmus der Suchmaschinen herabgestuft. Eine hintere Platzierung in den Suchergebnissen ist die Folge. Grobe Verstöße münden im Ausschluss aus dem Index. In diesem Fall ist die Internetseite für die Nutzer nicht mehr sichtbar. Mit dieser Maßnahme versuchen Google & Co. eine hohe Qualität ihrer Suchergebnisse sicherzustellen.

    Auswirkungen einer Bad Neighbourhood

    Die Einstufung als Bad Neighbour wirkt sich nicht nur auf die betroffene Internetseite aus. Sie verschlechtert das Ranking aller Seiten, die sich in ihrer unmittelbaren Umgebung befinden. Die bloße Nähe zu einem Bad Neighbour oder einer Bad Neighbourhood ist ausreichend, um als nicht vertrauenswürdig eingestuft zu werden.

    Unter „Nähe“ verstehen die Suchmaschinen:

    Verlinkungen zu einem Bad Neighbour
    Backlinks von einem Bad Neighbour
    Nutzung desselben Servers

    Backlinks von einem Bad Neighbour zu einer vertrauensvollen Seite unterliegen einer milderen Bewertung, da sie vom Webseitenbetreiber nur schwer verhindert werden können. Ein direkter Link zu einer abgestraften Internetseite schwächt das Ranking stark. Sind die anderen registrierten Domains auf dem verwendeten Server in der Vergangenheit durch anstößige Inhalte aufgefallen, kann dies das Ranking der eigenen Webseite zusätzlich verschlechtern.

    Identifizierung einer Bad Neighbourhood

    Internetseiten, die als nicht vertrauenswürdig gelten, teilt der Algorithmus der Suchmaschinen eine niedrige Qualitätsstufe zu. Dieser sogenannte PageRank beträgt bei Bad Neighbours den Wert 0. Eine isolierte Betrachtung dieses Wertes reicht zur Identifizierung nicht aus – neuen Webseiten wird standardmäßig ein PageRank von 0 zugeteilt.

    Eindeutige Indikatoren für einen Bad Neighbour sind ein schlagartiger Abfall des Rankings oder eine kontinuierliche Verschlechterung über einen längeren Zeitraum. Der PageRank einer Internetseite kann über den Webservice „Google Search Console“ eingesehen werden.

  • Kurz erklärt

    Der Begriff des Blog Marketings kann drei unterschiedliche Szenarien beschreiben:

    1. Blog-Betreiber, die durch Marketingmaßnahmen Reichweite und Monetarisierung ihres Blogs steigern wollen
    2. Unternehmen, die einen eigenen Blog als Teil ihres Onlinemarketings betreiben und
    3. der Inbegriff des Blogs Marketings – die gezielte Platzierung von Beiträgen und Werbetexten wie Advertorials auf den Blogs Dritter

    Blog Marketing – mehr erfahren

    Blogs – als Kurzform für Weblogs – zählen zu den wichtigsten Entwicklungen des Internet 2.0. Neue Technologien schufen dabei kurz nach der Jahrtausendwende viele Interaktionsmöglichkeiten, senkten aber vor allem die Eintrittsschwelle, um selbst zum Anbieter oder Ersteller von Onlineinhalten zu werden. Blogs erfreuten sich dabei von Beginn an großer Beliebtheit. Content-Management-Systeme, Engagement und Kreativität einzelner sorgten schnell für eine Professionalisierung der Blogs, die mittlerweile praktisch jedes Thema abdecken. Blogs mit besonders großem Publikum gewannen dabei schnell an Attraktivität als Marketingkanal.

    Der jeweilige Themenbereich und die Expertise der Autoren sind zwei Erfolgsfaktoren eines Blogs. Der dritte – oft entscheidende – ist die Authentizität. Fans oder regelmäßige Leser eines Blogs mögen ihre Autoren und vertrauen ihnen. Das macht sie und ihre Blogs zu idealen Marketingbotschaftern.

    Unternehmen können hier von Reichweite und Ruf profitieren. Gegen Bezahlung platzieren Sie werbliche Inhalte als Gastbeiträge oder bestellen bei den Blog-Autoren Beiträge zu bestimmten Themen. Das ergibt eine hochwertige Werbung – besonders im Vergleich zu einer einfachen Anzeigenwerbung auf dem Blog oder anderswo.

    Ganz ähnlich wirkt der unternehmenseigene Blog im Marketing-Mix: als anspruchsvolle, informative Werbung. Unternehmen besitzen hier ebenso die Möglichkeit, ihr Branding und Kundenvertrauen aufzubauen oder zu stärken. Dazu müssen sie mit hochwertigen Inhalten und Mehrwert über die reine Produktwerbung hinaus überzeugen. Gast-Beiträge und Verweise beziehungsweise Linktausch mit anderen reichweitenstarken Seiten steigern den Blog-Erfolg dann oft noch zusätzlich.

    Nutzen und Wirkung des Blog Marketings

    Blog Marketing schafft Reichweite, stärkt das Image von Marke oder Produkten langfristig und kann kurzfristig auch Neuigkeiten wie Produktvorstellungen transportieren. Um diese Ziele zu erreichen, müssen Blog und die Präsentation der Inhalte sorgfältig gewählt werden.

    Denn ansonsten besteht das große Risiko, mit diesem Marketing dem eigenen Ruf eher zu schaden. Besonders Produkttests auf Blogs bilden hier einen sensiblen Bereich, bei dem in der Außenwirkung leicht der Eindruck von Schleichwerbung entstehen kann. Andererseits schadet ein ausdrücklich werblicher Charakter nicht per se. Wie bei Advertorials erfordert er dann aber eine Kennzeichnung. Derartige Blog Advertorials bilden längst einen festen Teil des Blog Marketings.

    Am Schluss zeigt sich die Nähe der beiden Marketingmaßnahmen auch bei den Erfolgsfaktoren: die Qualität und der Zusatznutzen für die Leser entscheiden wesentlich darüber, ob dieses Onlinemarketing funktioniert.

  • Kurz erklärt

    Die Bounce Rate ist ein Wert oder eine Kennzahl, die angibt, wie viel Prozent aller Besucher eine Webseite ohne weitere Interaktion direkt wieder verlassen beziehungsweise abspringen – daher der Begriff Absprungrate oder Bounce Rate.

    Bounce Rate – mehr erfahren

    Im Onlinemarketing bilden Webanalysen unverzichtbare Werkzeuge, um Effizienz, Qualität oder Wirkung einer Internetseite zuverlässig zu beurteilen. Dazu werden Daten über Besucherzahlen sowie ihr Verhalten auf einer Internetseite gesammelt und ausgewertet. Im Ergebnis stehen eine ganze Reihe wichtiger Kennzahlen als Indikatoren für den Erfolg der Seite – die sogenannten Key Performance Indicators, kurz KPI. Die Bounce Rate zählt zu den am meisten beachteten KPI.

    Was passiert hier auf der Webseite? Internetnutzer finden in der Regel über Links oder Suchergebnisse auf die Webseite. Dort führen sie dann jedoch keine weiteren Aktionen mehr aus, sondern verlassen die Seite unmittelbar wieder. Es bleibt beim Seitenaufruf. Die Bounce Rate erfasst solche Absprünge mit dieser einfachen Grundformel:

    Seitenbesucher ohne weitere Aktion / Gesamtzahl der Seitenbesucher * 100 = Bounce Rate in %

    Der Griff zum Taschenrechner erübrigt sich aber meist. Denn Webanalyseprogramme oder Tools wie Google Analytics liefern die Bounce Rate in ihren Standardauswertungen gleich mit. Die Werte erscheinen oft sehr hoch. Das kann auf Optimierungsbedarf für die Webseite hinweisen, muss es aber nicht. Absprungraten erfordern regelmäßig eine differenzierte Betrachtung.

    Bounce Rate richtig interpretieren und handeln

    Zum Beispiel ein neuer Blog-Beitrag, dessen Besucher über Social-Media-Kanäle kommen, den Text lesen und dann weitersurfen, kann alle gut unterhalten oder informiert haben und steht trotzdem mit einer sehr hohen Bounce Rate da. Hier braucht es weitere Kennzahlen wie die Verweildauer oder Average Time on Site oder die Zahlen der Likes und Shares in Sozialen Netzwerken, um den Erfolg des Blog-Beitrages zu beurteilen.

    Ähnliches gilt für ein Glossar oder Wiki. Finden Nutzer schnell das Gesuchte, verweilen sie meist nicht länger auf der Seite. Hier decken sich Bounce und Exit Rate oft sogar. Die Exit Rate bezieht sich immer auf die letzte Seite des Besuches. Handelt es sich dabei zum Beispiel um die Abschlussseite eines Kaufes, sind hohe Werte sogar positiv zu bewerten.

    Für einen Onlineshop ergeben eine große Exit Rate vorher oder eine hohe Bounce Rate ansonsten aber direkt ein Alarmsignal. Viele Seitenbesucher sind dann offensichtlich schnell abgeschreckt und werden wahrscheinlich niemals zu Nutzern oder Kunden. Hier gilt es, die Gründe dafür zu finden und die Seite zu verbessern:

    • beim Design, um die Seite einladender, nutzerfreundlicher oder auch seriöser zu machen
    • mit technischer Optimierung oder
    • weniger Werbung
    • mehr oder besseren Inhalten
    • optimierten Keywords und Seitenangaben für die Suchmaschinen

    Alle diese Punkte zählen zur On-Page-Optimierung. Dabei muss die Aufmerksamkeit heute verstärkt mobilen Nutzern gelten. Die Internetnutzung über Smartphones wächst ständig und außerdem sind mobile Nutzer noch ein Stück ungeduldiger als Desktop-Surfer, was die Bounce Rate weiter anheizen kann. Eine sorgfältige Seitenoptimierung hilft aber nicht nur hier, sondern schafft zugleich die Grundlage für ein hohes Ranking in den Suchmaschinen.

    Fazit: Bounce Rates spielen für das Ranking zwar keine entscheidende Rolle, aber Seitenbesitzer sollten sie im Rahmen einer kontinuierlichen On-Page-Optimierung trotzdem immer im Blick behalten. Werte über 50 Prozent deuten meist auf Verbesserungsbedarf hin.

C

  • Kurz erklärt

    Canonical Tags sind besondere Markierungen in der Internetsprache HTML. Sie dienen der Information der Suchmaschinen, wenn die Inhalte einer Seite noch auf anderen Seiten bereitgestellt werden. Die Canonical Tags definieren für Google und Co. dann Original und weitere Variante(n). Es wird dadurch kein Duplicate Content erkannt. Ansonsten identifizieren die Suchalgorithmen eine der Seiten als kopierten Inhalt (Duplicate Content) und werten diese Seite deutlich herab – mit entsprechenden Folgen für das Seitenranking.

    Canonical Tags – mehr erfahren

    Die Notwendigkeit oder der Hintergrund von Canonical Tags zeigt sich am besten an ein paar Beispielen:

    • eine Startseite ist über verschiedene URLs erreichbar
    • einige Seiteninhalte stehen in verschieden Versionen zur Verfügung – zum Beispiel als PDF und als Druckversion oder
    • Inhalte der eigenen Seite werden zusätzlich auf anderen externen Seiten veröffentlicht

    In diesen Fällen und einigen mehr erkennen Suchmaschinen sofort die doppelten Inhalte bei ihrer Indexierung der Seiten. Dabei können die Suchmaschinen nicht zwischen absichtlichen oder erwünschten, versehentlichen oder illegalen Kopien unterscheiden. Sie wählen deswegen die für ihre Algorithmen relevanteste Seite für die Suchergebnisse aus und bewerten die andere Seite wegen des Duplicate Contents negativ. Selbst sehr ähnliche Inhalte (Near Duplicate Content) können dadurch zu schlechteren Positionen in den Suchergebnissen führen.

    Canonical Tags verhindern das. Sie werden im Quellcode der Internetseite bei den Metainformationen der Seite eingetragen – bei der Originalressource genau wie bei den Kopien. Ein Canonical Tag sieht dann beispielsweise so aus.

    rel=“canonical“ href=”http://beispielseite.de/beispielseite.htm”>

    Er zeigt den Suchmaschinen an, dass diese Seite die Hauptressource für die Indexierung sein soll. Aller weiteren Seiten mit der gleichen URL wie ein PDF-Dokument verweisen durch den Canocial Tag auf die Hauptressource und werden von den Suchmaschinen nicht weiter erfasst.

    Nutzen und Wirkung der Canonical Tags

    Die Wirkung der Canonical Tags geht aber noch weit über die bloße Information der Suchmaschinen und den Schutz der Seiteninhalte hinaus. Denn mit ihnen lässt sich gezielt die Popularität der einzelnen Seiten mit identischen Inhalten steuern Die Hauptressource oder -seite erhält ein besseres Ranking, wird vermehrt aufgerufen, bekommt mehr Besucher und kann leichter die im Onlinemarketing gesteckten Ziele erreichen.

    Fehlende oder fehlerhafte Canonicals Tags schaden der Seite dagegen. Seiten-Prüftools oder Duplicate-Content-Checker helfen dabei, damit in diesem wichtigen Bereich keine Fehler passieren können.

    Mit der Google Search Console können für diese Suchmaschine auch direkt Parameter festgelegt werden, wie eine Seite oder bestimmte URLs in der Indexierung behandelt werden sollen. Im Ergebnis bewirken die entsprechenden Einstellungen hier das Gleiche wie die Canonicals Tags im Quellcode.

    Am Ende wirkt die durchgängige Implementierung von Canonical Tags aber als bessere, sauberere Lösung, die nicht nur von Google sofort erkannt wird.

    ACHTUNG:

    Bitte-noch-Öffnungstag-und-link-beim-Canonical-Beispiel-voranstellen.Ich-kriege-es-nicht-durch-den-HTML-Editor-hier.Wie-hier:https://de.ryte.com/wiki/Canonical_Tag

  • Kurz erklärt:

    Die Click-Through-Rate – kurz CTR oder alternativ Click-Through-Ratio – beschreibt das prozentuale Verhältnis von tatsächlichen Aufrufen einer Onlinewerbung zu den gesamten Einblendungen der Anzeige. Das macht sie zu einer wichtigen Erfolgskennzahl im Onlinemarketing.

    Click-Through-Rate – mehr erfahren

    Die Berechnung der Click-Through-Rate erfolgt nach einer ganz einfachen Formel:

    Anzahl der Aufrufe einer Anzeige / Anzahl der Einblendungen oder Impressions *100 = Click-Through-Rate in %

    Die CTR setzt damit Klicks ins Verhältnis zu Sichtkontakten. Diese Information liefert Erfolgsraten in verschiedenen Bereichen des Onlinemarketings:

    • beim Suchmaschinenmarketing mit Displaybannern, Shopping-Ads oder Textanzeigen über Google AdWords
    • für die Bewertung der Wirkung von Bannerwerbung
    • bei der Suchmaschinenoptimierung, um die Effekte der kurzen Textausschnitte in den Sucherergebnissen (SERP-Snippets) bewerten zu können
    • oder auch beim Affiliate-Marketing, wo hohe Klickzahlen die Wahrscheinlichkeit eines Kaufs oder Umsatzes erhöhen

    Dabei fällt die CTR abhängig vom Medium oder der Art der Werbung sehr unterschiedlich aus. Auf den ersten Blick können die Werte oft enttäuschen, erscheinen sie doch sehr marginal. Ein Vergleich mit der durchschnittlichen Click-Through-Rate hilft bei der besseren Einordnung:

    • bei Google AdWords liegen die Durchschnitts-CTRs bei knapp zwei Prozent. Gute oder sehr gute Werte erreichen das Doppelte oder etwas mehr.
    • Facebook-Ads erreichten im Schnitt zuletzt eine CTR von etwas mehr als 1,5 Prozent und
    • bei allgemeiner Banner- oder Displaywerbung bewegt sich die durchschnittliche CTR sogar nur um die 0,5 Prozent

    Zudem gibt es deutliche Branchen- oder Themenunterschiede. B2B oder E-Commerce performt im Suchnetzwerk deutlich unterdurchschnittlich, aber normal bei der Displaywerbung. Partnersuche und Tourismus zeigen in beiden Bereichen dagegen deutlich überdurchschnittliche CPR-Werte.

    Nutzen und Wirkung der Click-Through-Rate

    Die Click-Through-Rate ist ein elementarer Baustein auf dem Weg zum Ziel der meisten Onlinemarketing-Aktivitäten: die Konversion, die Interessenten zu Kunden macht. Eine gute CTR hilft dabei, führt aber nicht automatisch zu mehr Konversionen. Überzeugt die Zielseite oder Landing Page hinter der Anzeige nicht genauso, bleiben Konversionen aus.

    Deswegen müssen neben der Click-Through-Rate auch Indikatoren wie die Absprungrate (Bounce Rate) oder die Verweildauer auf der Zielseite erfasst und mitbewertet werden, um den Erfolg der Werbeanzeigen mit ihren Konversionen umfassend zu beurteilen.

    Zuletzt stehen aber auch die Konversionen noch einmal im Kontext zum Marketingaufwand. Gute CTRs, die am Ende nur wenige Konversionen mit geringem Wert erreichen, schaffen keinen Return on Investment (ROI).

    Unter diesem und anderen Gesichtspunkten ergibt sich damit immer wieder Bedarf, die Click-Through-Rate zu optimieren:

    • gezieltere Keyword-Auswahl bei Google AdWords mit gleichzeitigem Blick auf die Kosteneffizienz
    • weitere Keyword-Optimierung in Anzeigen und auf den Webseiten
    • individuellere Anzeigen für einzelne Zielgruppen
    • zielgruppenorientierter Fokus ebenso bei den Anzeigenplätzen für die Displaywerbung statt einfachem Onlinemarketing auf allgemeinen Seiten
    • verschiedene Formate und Anzeigeninhalte ausprobieren und vergleichen
    • Retargeting oder Remarketing ergänzen, um Nutzern immer wieder für sie interessante Produkte zu zeigen und die Konversions-Wahrscheinlichkeit nachhaltig zu erhöhen

    Fazit: Mit einer guten Click-Through-Rate ist der erste Schritt zum Onlineerfolg gemacht, wenn das Angebot dahinter genauso optimiert wird wie die Werbung selbst. Dann folgen direkt Konversionen nach und außerdem profitiert die Webseite indirekt mit einem stärkeren Suchmaschinenranking, weil hohe CTRs den Traffic und damit die Relevanz der Webseite oder Landingpage erhöhen.

  • Kurz erklärt

    Content Marketing ist eine Marketingstrategie, die anstelle einfacher Werbebotschaften auf hochwertige, nützliche Inhalte (Content) baut. So will das Content Marketing eine ausgesuchte Zielgruppe von Marken, Produkten und anderen Angeboten überzeugen, sie binden und letztlich zu einer bestimmten Handlung – Konversion – bewegen.

    Content Marketing – mehr erfahren

    Die Entwicklung des Kaufverhaltens in vielen Bereichen hin zum Onlineshopping, die wachsende Bedeutung der Suchmaschinen im Informations- oder Konsumprozess und die Sozialen Netzwerke haben des Content Marketing in den letzten Jahren populär gemacht.

    Der Ansatz dieser Marketingstrategie ist jedoch viel älter. Eine Kundenzeitung des Landmaschinenherstellers John Deere markierte vor über 125 Jahren die Anfänge des Content Marketings. Sie enthielt keine Werbung, sondern informierte ihre Leser rund um die Landwirtschaft – natürlich mit dem Ziel, sie irgendwann als Kunden zu gewinnen oder wiederzusehen.

    Schon hier zeigte sich der strategische Charakter des Content Marketings mit

    • Zielen
    • Zielgruppe(n) und
    • Maßnahmen für die Erreichung.

    Diese Punkte bilden den Plan des Content Marketings ab: die individuelle Content-Marketing-Strategie. Ihre Umsetzung braucht Spezialisten wie Redakteure und Texter, SEO-Profis und Content Planer oder Strategen.

    Einige Ziele beziehungsweise die Zielerreichung können laufend mit Leistungsindikatoren (KPI) kontrolliert werden. Beispielsweise:

    • Konversionen und Upselling
    • Leadgenerierung
    • Besucherzahlen oder deren Steigerung (Traffic)

    Mit der Anwendung solcher Kontrollzahlen verschwimmen dann die Grenzen zwischen Content und Inbound-Marketing, das generell einen leistungsorientierten Ansatz verfolgt und konsequent mit KPI arbeitet.

    Nutzen und Wirkung des Content Marketings

    Content Marketing kann eine sehr hohe Wirkung und großen Nutzen erzielen. Dafür müssen mehrere Bedingungen erfüllt sein. Der eingesetzte Content muss

    • hochwertig,
    • maßgeschneidert und
    • an den richtigen Stellen platziert werden.

    Dann schafft Content Marketing etwas, wo konventionelle Werbung immer häufiger scheitert: Content Marketing erreicht alte und neue Kunden sowie interessante Zielgruppen noch und wirkt selbst in Zeiten zunehmender Werbemüdigkeit.

    Der Vorteil ist sogar noch größer: Content wird von Internetnutzern gezielt gesucht. Sie schauen vermehrt nach Antworten auf Fragen und generelle Informationen statt nach Produkten. Hier können sich die Unternehmen mit ihren Content Marketern einklinken und genau die typischerweise von der eigenen Zielgruppe gewünschten Informationen liefern. Das

    • steigert die Bekanntheit und Reichweite,
    • baut Bindung und Vertrauen auf,
    • schafft einen Expertenstatus,
    • wirkt langfristig und zeitlos,
    • geht auf Kunden- oder Nutzerbedürfnisse ein,
    • liefert den Erfolgsfaktor Mehrwert,
    • führt dabei zu Traffic wie Umsatz und
    • bleibt insgesamt sehr kosteneffizient.

    Fazit: Durch diese umfangreichen Wirkungen nimmt Content Marketing heute eine zentrale Position im Onlinemarketing-Mix ein. Es funktioniert für Endkunden genauso wie im B2B-Bereich. Dabei eignet es sich weniger für kurzfristige Aktionen, aber umso besser für langfristige Strategien und nachhaltige Erfolge. Der Entwurf solcher Strategien und die Bereitschaft, in hochwertigen Content entsprechend zu investieren, bilden dabei immer die wesentliche Voraussetzung für diese Erfolge.

  • Kurz erklärt

    Eine Conversion, zu deutsch Konversion oder Umwandlung beschreibt im Onlinemarketing den Vorgang, wenn die Empfänger einer Marketingbotschaft die dabei gewünschte Aktion ausführen und ihren Status somit umwandeln.

    Klassisches Beispiel: Der Werbebanner eines Onlineshops wird angeklickt, und die Besucher kaufen dort tatsächlich ein. Aus Internetnutzern werden Kunden.

    Conversion – mehr erfahren

    Genau genommen beinhaltet dieses Beispiel sogar gleich zwei Conversions. Denn schon sobald die Nutzer über ein Werbemittel wie dem Banner oder aus einem Newsletter heraus eine Webseite besuchen, findet eine Conversion statt. Noch wertvoller werden anschließend bewusstere und konkretere Handlungen und Conversion-Typen wie

    • das Ausfüllen eines Kontaktformulars,
    • die Anmeldung zu einem Newsletter,
    • ein Download oder
    • der Einkauf im Onlineshop.

    Hier erhalten Webseitenbetreiber wertvolle Kundendaten als Anknüpfpunkt für weiteres (gezielteres) Marketing oder können sogar durch einen Umsatz einen direkten monetären Erfolg ihres Marketings verzeichnen.

    Dabei kommt es immer wieder zur synonymen Verwendung der Begriffe Conversion und Lead. Letzterer beschreibt lediglich einen qualifizierten Kontakt, der Personendaten einbringt. Diese Leadgenerierung oder -gewinnung kann – besonders im Onlinebereich – Ziel einer Conversion sein oder Voraussetzung für weitere Conversions.

    Vom Seitenbesuch bis zum Onlineeinkauf sind alle Conversions messbar. In Relation zur Gesamtzahl der Besucher ergibt sich dann die Conversion Rate, eine wichtige Leistungskennzahl (oder Key Performance Indikator – KPI) für die Erfolgsmessung im Onlinemarketing:

    Anzahl der Aktionen / Anzahl der Gesamtbesucher * 100 = Conversion Rate in %

    Diese Zahl dient vielen Marketingagenturen oft als Grundlage für die Abrechnung ihrer Leistungen. Für sich genommen zeigt sie aber nur relative Erfolgsraten. Erst die Betrachtung im Kontext von Auftrag und Ertrag ergibt ein vollständiges Bild, welchen Mehrwert das Onlinemarketing tatsächlich erzielt hat.

    Tools wie Google Ads (früher Google Adwords) erlauben die genaue Messung vordefinierter Conversions auf einer Webseite. Andere können den Nutzerweg, die Customer Journey, auch plattform- und seitenübergreifend nachzeichnen. Dann entsteht ein komplettes Conversion Tracking mit allen Einzelschritten im Conversion Funnel beziehungsweise dem Conversion-Prozess oder auch ein Bild der Absprungraten – Bounce Rates. Hieraus ergeben sich schließlich wichtige Erkenntnisse für Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEA), um Conversions oder die Conversion Rate zu optimieren.

    Nutzen und Wirkung von Conversion und Conversion Rate

    Die Conversion Rate und die Conversion-Zahlen drücken unmittelbar Erfolg und Wirkung von Onlinemarketing oder einer Webseite aus. Das macht sie unverzichtbar für die Überprüfung und Optimierung der eigenen Onlinestrategie oder der Entwicklung neuer Strategien.

    Aus den Kennzahlen lassen sich unmittelbar weitere Erkenntnisse zur Qualität der Seite ableiten. Hohe Conversions entstehen nicht allein durch ein überzeugendes Angebot. Dieses Angebot ist dann auch schnell im Netz zu finden und problemlos erreichbar. Das setzt gute Suchmaschinenoptimierung oder eine einwandfreie technische Seitenoptimierung voraus und alles zusammen führt schließlich zu einem verbesserten Seitenranking in den Suchergebnissen. Andernfalls ergeben sich aus den Conversion-Zahlen direkte Optimierungshinweise.

    Fazit: Deswegen darf eine Aufzeichnung und Analyse der Conversions in keiner guten Onlinemarketing-Strategie fehlen. Für langfristigen Erfolge muss anschließend mit der Kundenbindung eine weitere Aufgabe im Onlinemarketing verfolgt werden.

  • Kurz erklärt

    Kosten pro Klick – Cost per Click (CPC) oder Pay per Click (PPC) – sind eine Abrechnungsmethode im Onlinemarketing. Dabei bezahlen Werbekunden einen fixen Preis für jeden Mausklick auf ein von ihnen gebuchtes Werbemittel wie Banner, Textlinks oder Videos.

    Cost per Click – mehr erfahren

    Klicks im Netz bilden eine klare, einfach messbare Größe zu Erfolg oder Reichweite eines Onlineinhalts wie Werbung. Zwar gibt es auch Klickbetrug und Manipulation, aber mittlerweile können Tools wie Google Analytics diesen zuverlässig identifizieren, filtern und bilanzieren anschließend in ihren Auswertungen nur echten organischen Traffic.

    Solche Filter sind für Werbekunden sehr wichtig. Die Klick-Zahlen geben ihnen einige wichtige Hinweise zur Wirkung ihres Onlinemarketings. Außerdem bestimmen die Zahlen wesentlich die Kosten der Werbung, weil sich die Bezahlung pro Klick schon früh als transparentes Abrechnungsmodell im Onlinemarketing etabliert hat.

    Die Cost per Click variieren dabei stark und reichen von wenigen Cent bis in den zweistelligen Euro-Bereich. Der jeweilige Betrag kommt durch verschiedene Faktoren zustande:

    • Je mehr Qualität oder Reichweite eine Webseite besitzt, desto höher fällt der CPC-Betrag aus.
    • Die Art der Werbung hat ebenso Einfluss: Große Werbebanner kosten mehr als einfache Textlinks.
    • Eine Platzierung auf den Startseiten wird teurer als Werbung auf Unterseiten.
    • Im Werbesystem Google Ads mit seinen Auktionen beeinflussen andere Werbekunden und deren Gebote für einen Werbeplatz zusätzlich die Cost per Click.
    • In einigen Branchen wie Finanzdienstleistungen oder Reisen sorgen ein starker Wettbewerb und massive Werbung grundsätzlich für höhere Kosten pro Klick.
    • Die Buchung von viel Werbung auf einer Seite oder in einem Netzwerk bringt andererseits meist Mengenrabatte auf die CPC ein.

    Diese Faktoren bestimmen nicht nur die Kosten von Onlinewerbung, sondern ergeben auf der anderen Seite genauso die Einnahmemöglichkeiten von Webseitenbetreibern und Publishern bei direkter Werbeschaltung oder der Zusammenarbeit mit Advertisern wie Google AdSense.

    Cost per Click besitzen dabei immer einen klaren Vorteil: Durch das aktive Handeln der Internetnutzer spiegeln sie die tatsächliche Wahrnehmung einer Onlineanzeige wider. Nur diese muss auch bezahlt werden. Das unterscheidet die CPC von anderen Abrechnungsmodellen wie den Cost per Mille (CPM). Dieser Preis bemisst sich an jeweils 1000 Impressionen, die aber nicht garantieren, dass eine Werbung auch bewusst wahrgenommen wurde.

    Andererseits wachsen die CPC ohne jeden Mehrwert, wenn Nutzer auf einer Seite oder in einem Netzwerk mehrmals die Anzeige anklicken. Hier zeigt die Abrechnungsmethode neben den Manipulationsmöglichkeiten einen weiteren Nachteil.

    Nutzen und Wirkung der Cost per Click

    CPC lassen sich leicht den Erträgen des Onlinemarketings gegenüberstellen, wenn die erreichten Conversions gemessen werden. Dabei machen die Cost per Click einen wesentlichen Teil der Kosten oder des Preises einer einzelnen Conversion aus. Hier muss im Rahmen einer Onlinemarketingstrategie ein einzelner Wert pro Conversion und damit ein Budget festgelegt werden. Außerdem ist eine laufende Kontrolle der Klickzahlen und CPC ratsam. So fallen Manipulationen und ganz natürliche, aber ungewöhnliche Entwicklungen schnell auf, bevor Budgets vorzeitig erschöpft sind oder Verluste drohen, weil keine entsprechenden Erträge folgen.

    Fazit: Cost per Click und CPC-Modelle sind ein Basic im Onlinemarketing. Seitenbetreiber können hier oft schon mit wenig Aufwand Klicks generieren und Besucher auf ihre Seite bringen. Mehr Traffic steigert die Relevanz und erhöht die Wahrscheinlichkeit von Conversions und Umsatz mit der Webseite.

D

  • Kurz erklärt

    Eine tiefe Verlinkung – ein Deep Link – verweist auf Unterseiten einer Webseite und nicht einfach auf deren Starseite. Damit führen Deep Links Internetnutzer ohne Umwege gezielt zu gesuchten Informationen und stärken zugleich die Relevanz der Unterseiten.

    Deep Links – mehr erfahren

    Deep Links erhöhen die Nutzerfreundlichkeit von Webseiten deutlich – besonders bei vielen Unterseiten oder umfangreichen Themen, die in viele kleinere Kapitel aufgeteilt sind. Als Suchmaschinen noch in ihren Kinderschuhen steckten, stellten Deep Links eine explizite Möglichkeit dar, um Nutzer einfach zu Produkten im Onlineshop oder bestimmten Themenaspekten einer Webseite zu lenken.

    Heute durchleuchten Suchmaschinen auch komplexe Webseiten bis in die weitesten Verzweigungen und liefern daraus automatisch zuverlässige Suchergebnisse bis ins Detail. Google stellt sie dann auch gleich in direkten Links (Sitelinks) oder sogenannten Rich Snippets als ausführliche Informationen dar, die einen schnellen Blick auf die Relevanz erlauben.

    Trotzdem sind Deep Links bei der Suchmaschinenoptimierung nicht aus der Mode gekommen. Ihren Vorteil der Nutzerfreundlichkeit besitzen sie nach wie vor. Heute werden sie aber tendenziell eher dazu genutzt, um Unterseiten gezielt Bedeutung mit LinkJuice oder PageRank von der Hauptseite zukommen zu lassen. Auch komplexe Keywords (Longtail Keywords) für Nischensuchen können über Unterseiten und passende Deep Links gut für die Suchmaschinen optimiert werden.

    Nutzen und Wirkung von Deep Links

    Google bewertet eine Webseite nicht als Ganzes, sondern jede Unterseite separat. Ein Deep Link führt Nutzer dann direkt zur Unterseite, erzeugt Relevanz für die speziellen Keywords der Unterseite und kreiert höhere Besucherzahlen und Traffic, der indirekt auch die Relevanz der Hauptseite erhöht.

    Wie in anderen Bereichen der Suchmaschinenoptimierung gilt es, das richtige Maß zu halten, das optimal die Bewertung fördert. Ein zu intensiver, regelmäßiger Einsatz von Deep Links erkennt ein Suchalgorithmus wie der von Google als Linkspam und Missbrauchsversuch. Entsprechend erhalten Seiten dafür eine Abwertung.

    Die gezielte Führung zu relevanten Unterseiten erhöht zugleich die Erfolgswahrscheinlichkeit einer Webseite oder eines Onlineshops und die Chancen auf Conversions. Denn wenn Nutzer zum gewünschten Suchergebnis umständlich manuell navigieren müssen, wächst das Risiko eines Absprungs und einer hohen Bounce Rate.

    Zuletzt: Insgesamt müssen Deep Links und Verlinkungen auf die Startseite (Surface Links) bei der Suchmaschinenoptimierung mit Backlinks ein harmonisches, starkes Linkprofil ergeben. In Einzelfällen – wegen besonderer Aktualität oder einem sehr wichtigen Inhalt auf einer Unterseite – kann dieses Prinzip durchbrochen werden. Der Google Suchalgorithmus erkennt solche Ausnahmen und bewertet sie nicht negativ.

  • Kurz erklärt
     
    Ein Dofollow gibt Webseitencrawlern oder Suchbots wie dem GoogleBot einen Hinweis, dass sie einem Link auf eine andere Webseite folgen und ihn auslesen sollen. Weil dabei bestimmte Bewertungsfaktoren der Ursprungsseite vererbt werden, interpretieren Bots dies als Vertrauenssignal. Derartiger Linkaufbau stärkt die Domainpopularität und ist ein wichtiger Teil der Suchmaschinenoptimierung.

    Dofollow – mehr erfahren

    Die Verknüpfung von Inhalten ist ein Grundprinzip des Internets. Diese Verknüpfungen oder Verweise entstehen durch Links oder Hyperlinks. Nutzer wie Suchbots bekommen dadurch die Möglichkeit, immer neue Inhalte und Webseiten zu entdecken. Dabei besaß oder besitzt jeder Link das Attribut Dofollow. Es muss im HTML-Code nicht extra angegeben werden.

    Google entschied sich früh, Verlinkungen als Vertrauenssignal zu bewerten. Diese Sichtweise trug wesentlich zum schnellen Erfolg der Suchmaschine bei, löste nach Bekanntwerden aber auch massenhaften Missbrauch aus. Durch unzählige Links in Blogs und Foren wurde oft durch Bots versucht, Webseiten populär und wichtig erscheinen zu lassen, um ihr Ranking in den Suchergebnissen zu beeinflussen.

    Mit verschiedenen Updates seines Algorithmus, neuen Filtern und anderen Maßnahmen hat Google diese Entwicklung bald wieder in den Griff bekommen und prüft heute Links oder Backlinks sehr intensiv. Eine Maßnahme dabei war die Einführung des Attributs rel=“nofollow“, dessen Setzen für einen Link verhindert, dass ein Suchbot die Verlinkung berücksichtigt. Es erfolgt dann keine Vertrauensweitergabe mehr.

    Durch die Einführung dieses Attributs hat sich überhaupt erst der Begriff Dofollow ausgeprägt, um Backlinks zu beschreiben. Weiterhin gilt: Es braucht keine explizite Kennzeichnung als Dofollow. Ohne nofollow-Zusatz werden alle Links als Dofollow behandelt.

    Nutzen und Wirkung von Dofollow

    Mit jedem Link, der nicht als nofollow ausgewiesen ist, gibt eine Webseite wichtige Kennzahlen zu ihrer Qualität an die Zielseite weiter. Dazu zählen LinkJuice und Pagerank. Diese bewerten Links innerhalb oder zwischen Webseiten und liefern über das Kriterium Verlinkungen eine Qualitätseinschätzung der Seiten.

    Deswegen sind Backlinks heute immer noch das Mittel der Wahl, um die Popularität einer Domain oder Seite zu stärken. Hier lässt sich eine hohe Themenrelevanz aufbauen, die wiederum positiv auf die Autorität der Seite – ihre Domain Authority – wirkt.
    Andererseits entsteht hier ein Risiko für eine Webseite, wenn im Rahmen der Suchmaschinenoptimierung die Kontrolle von Backlinks und ihrer Qualität vernachlässigt wird. Schlechte Links mindern die Bewertung der eigenen Webseite. Das lässt sich einfach vermeiden. Schon in der Google Search Console findet sich die Möglichkeit, unerwünschte Links mit der Disavow-Funktion zu kennzeichnen und abzulehnen.

    Fazit: Bei der Arbeit mit Backlinks geht Qualität immer vor Quantität. Zugleich kommt es auf einen möglichst organischen Linkaufbau an, damit das eigene Linkprofil natürlich erscheint und positive Bewertungen erhält. Mit diesem Linkaufbau können Nutzer und Suchmaschinen genauso durch die eigene Webseite mit ihren Unterseiten geführt werden und dabei profitiert gleichzeitig jede Unterseite vom Standing der Hauptseite. Hier gilt für die Verlinkungen genauso: Qualität und Relevanz vor Quantität.

  • Kurz erklärt

    In der Domain Authority oder Webseiten-Autorität drückt sich die Bedeutung und Wichtigkeit einer Seite für ihr Thema aus.

    Domain Authority – mehr erfahren

    Die Domain Authority kommt durch verschiedene Faktoren zustande. Wie bei den Rankingkriterien des Google Suchalgorithmus sind auch die Bewertungsfaktoren des Konzerns für die Domain Authority nicht vollständig bekannt.

    Diese Faktoren gelten aber allgemein als einflussreich auf die Webseiten-Autorität:

    • das Alter der Seite oder der Domain
    • Links von vertrauenswürdigen anderen Seiten auf die eigene Webseite
    • möglichst Links von verschiedenen, themenrelevanten Seiten, die sich über eine längere Zeit verteilen
    • die Sicherheit der Seite wie zum Beispiel eine HTTPS-Verschlüsselung

    Hier liegen möglicherweise weitere Kriterien:

    • neben Texten zusätzlicher nutzerfreundlicher Content wie Blogs, Infografiken oder Videos
    • Bewertungen und Empfehlungen auf Bewertungsseiten oder Shoppingportalen
    • Social Signals wie Likes, Kommentare oder Shares

    Eine Domain Authority wird damit zu einem Indikator oder einer Kennzahl für die Relevanz und Qualität einer Webseite. Da sie einige, nicht unmittelbar belegbare oder nachvollziehbare Faktoren berücksichtigt, zählt sie aber nicht zu den Erfolgskennzahlen oder Key Performance Indicators (KPI).

    Anders bei den Domain Authority-Werten der Webanalyse-Software MOZMetrics: Vom Entwickler MOZ kommen seit 2004 immer wieder transparente, zuverlässige Interpretationen der Suchmaschinenbewertungen von Google und Co. Für die Domain Authority gilt der MOZ-Wert mittlerweile sogar als Branchenstandard und kann als KPI genutzt werden.

    Unterschiede Domain Authority, Domain Trust und Linkpopularität

    Domain Authority und Trust unterscheiden sich durch einen anderen Bewertungsfokus. Der Wert des Domain Trusts beschreibt, wie vertrauenswürdig eine Webseite ist. Dabei finden teilweise ähnliche Faktoren Berücksichtigung wie bei der Domain Authority. Beim Domain Trust kommen aber noch weitere wie die Registrierungsinformationen der Seite hinzu. Ein hoher Domain Trust bildet eine Grundlage für eine ebenso hohe Domain Authority, die dann aber explizit noch die Relevanz bewertet.

    Viele auf eine Seite verweisende Links bescheinigen ihr eine hohe Linkpopularität. Das allein beeinflusst aber weder Domain Authority noch Trust. Beide bewerten zusätzlich die Qualität solcher Backlinks und stufen nur die Links von anderen relevanten, vertrauenswürdigen Seiten hoch ein. Andererseits schaden „schlechte“ Links der eigenen Bewertung.

    Nutzen und Wirkung der Domain Authority

    Für die Suchmaschinenoptimierung (SEO) ist eine gute Domain Authority unerlässlich. Sie hat direkten Einfluss auf eine vordere Platzierung in den Suchergebnissen. Unter den Kriterien von Relevanz, Mehrwert, Nutzerfreundlichkeit oder Sicherheit soll allen voran die Google Suchmaschine ihren Nutzern auf den ersten Blick nur die besten Seiten zeigen. Je häufiger eine Webseite dann aus ihrer guten Position in den Suchergebnissen heraus besucht wird, desto weiter wächst ihre Domain Authority.

    Gute On- und OffPage-Optimierung hilft schon vorher bei Auf- und Ausbau einer Domain Authority. Hier sollte das Augenmerk besonders einer durchgängigen Nutzung relevanter Keywords oder der Qualität der Backlinks gelten.

    Fazit: Die Domain Authority entscheidet mit über den Erfolg einer Webseite oder eines Onlinebusiness. Sie ist das Ergebnis einer kontinuierlichen Suchmaschinenoptimierung und zugleich eine grundlegende Voraussetzung, um überhaupt an optimaler Stelle in den Suchergebnissen zu erscheinen. An der Domain Authority führt damit kein Weg vorbei.

  • Kurz erklärt:

    Der Domain Trust drückt die Glaub- oder Vertrauenswürdigkeit einer Webseite aus. Als ein Bewertungskriterium der Suchmaschinen und allen voran Google hat er unmittelbaren Einfluss auf die Platzierung in den Suchergebnissen. Dabei fließen in den Domain Trust Kriterien wie hochwertige Inhalte, Linkqualität, die Einhaltung der Google Richtlinien oder Spam-Freiheit ein.

    Domain Trust – mehr erfahren

    Schon vor der Jahrtausendwende führte Google den PageRank zur Bewertung von Webseiten ein. Er berücksichtigte aber nur die Häufigkeit von Verlinkungen auf eine Webseite, ohne die Qualität der verlinkenden Webseiten einzubeziehen. Das führte bald zu einer Reihe von Manipulationen der Suchergebnisse. Erst mit dem 2004 eingeführten TrustRank fand auch die Qualität der Links Eingang in die Bewertung. Dieser neue Algorithmus war der erste große Schritt hin zu einer umfassenden Berücksichtigung des Vertrauens, das Internetnutzer einer Seite entgegenbringen können.

    Diese Bewertung findet heute mit der Ermittlung des Domain Trusts statt. Er berücksichtigt diese Faktoren:

    • aus- und eingehende Links
    • Content und weitere Onpage-Qualität
    • Registerinformationen oder
    • Social Signals

    Backlinks bilden dabei einen sehr wichtigen Punkt. Google führt einen redaktionell erstellten Katalog von weltweit 200 Webseiten oder etwas mehr. Diese gelten als maximal vertrauenswürdig. Mutmaßlich stehen große öffentliche Einrichtungen, führende Universitäten oder Unternehmen auf dieser Liste. Ein Link von diesen Seiten vererbt entsprechend hohe Linkqualität und Vertrauen. Je weiter die Verlinkungen sich dann Seite für Seite von diesen Trusted Websites entfernen, umso mehr nimmt die Güte der Backlinks ab – bis sie irgendwann sogar negativ wird, wenn im Verlauf der Link-Ketten wenig vertrauenswürdige Seiten auftauchen.

    Für einen hohen Domain Trust – aber auch für andere maßgebliche Bewertungskriterien – müssen SEO-Optimierer und Webseitenbetreiber deswegen immer auf die Qualität der Verlinkungen auf ihre Seite achten – und sie gegebenenfalls mit dem Google Disavow-Tool markieren und aus der Bewertung nehmen. Genauso sollten eigene Links auf wenig vertrauenswürdige Domains und Seiten unter Spam-Verdacht vermieden werden

    Nutzen und Wirkung des Domain Trust

    Der Domain Trust besitzt neben seiner hohen Bedeutung für die Platzierung in den Suchergebnissen einen großen Nachteil.

    Google lässt keinen Einblick auf den Domain Trust zu. Verschiedene Anbieter im SEO-Bereich versuchen jedoch mit eigenen Algorithmen und Daten, die Vertrauenswürdigkeit zu berechnen und damit eine Annäherung zu liefern.

    Auch damit ist die SEO-Optimierung aber immer gezwungen, kontinuierlich an allen On- und Offpage-Faktoren zu arbeiten, die den Domain Trust beeinflussen. Starke Backlinks, ein ebenso guter Content und zunehmend mehr Social Signals sollten dabei im Mittelpunkt der Optimierung stehen.

    Fast automatisch stärken sich dadurch auch andere für die Bewertung einer Webseite wichtige Faktoren wie die Domain Authority, die die Relevanz zu bestimmten Themen widerspiegelt.

    Zuletzt hängt der Erfolg einer ganzen Webseite von hohem Domain Trust und starker Domain Authority ab. Als Qualitätsmerkmale für Internetseiten wirken sie unmittelbar auf das Ranking in den Suchergebnissen und bringen darüber Traffic oder Seitenbesucher sowie mehr Conversions und Umsatz.

  • Kurz erklärt

    Doppelter Inhalt oder Duplicate Content beschreibt im Kontext der Suchmaschinenoptimierung identische oder zumindest sehr ähnliche Inhalte, die unter zwei oder mehr unterschiedlichen Adressen im Netz zu finden sind. Sobald diese Doppelung Suchmaschinen bei der Indexierung auffällt, erhalten die Seiten häufig eine negative Bewertung – mit Folgen für das Ranking in den Suchergebnissen.

    Duplicate Content – mehr erfahren

    Hier werden zwei Arten oder Ausprägungen unterschieden:

    • hundertprozentig identische Inhalte sowie
    • Near Duplicate Content mit sehr ähnlichem Inhalt – zum Beispiel einzelne Textbausteine

    Beides gilt für Suchalgorithmen als Spam und widerspricht dem Grundsatz jeder Suchmaschine, Nutzern vorrangig nur solche Seiten mit hochwertigem Content und Mehrwert als Ergebnis zu einer Suchanfrage anzubieten. Die Zuverlässigkeit der Duplicate-Content-Erkennung ist sehr hoch und deswegen hat die absichtliche oder unabsichtliche Nutzung schnell Konsequenzen für den PageRank der Seite.

    Google betont zwar, nur missbräuchliche Verwendungen von doppelten Inhalten ahnden zu wollen, die Nutzer täuschen oder das Seitenranking manipulieren sollen. Aber praktisch gibt es für Seitenbesitzer oder Suchmaschinenoptimierer hier keinen näheren Einblick bei der Einstufung. Wer eine Seite optimal gestalten will, überlässt die Interpretation von Content besser nicht Google oder anderen, sondern vermeidet konsequent Duplicate Content.

    Doppelte Inhalte entstehen meist durch Unachtsamkeit – besonders im technischen Bereich. Hier ein Überblick zu den gängigsten Entstehungsmöglichkeiten:

    • Illegale Kopien kommen bei seriösen Webseiten praktisch nicht vor. Allerdings kann es auch hier passieren, dass Inhalte gutgläubig erworben werden, die zuvor schon an andere verkauft wurden.
    • Eigene Inhalte können von anderen illegal kopiert werden.
    • Content wird in verschiedenen Kategorien einer Seite mehrfach genutzt oder auch auf verschiedenen eigenen Webseiten.
    • Ein gleicher Inhalt erscheint in derselben Sprache in den unterschiedlichen Versionen einer Seite für verschiedene Länder.
    • Eine Seite oder Domain antwortet beim Aufruf aller Subdomains oder Unterseiten immer mit den gleichen Inhalten – ein typischer OnPage-Fehler.
    • Durch fehlende Trailing Slashes – die /-Striche am Ende einer URL – werden die Dateien hinter der URL ebenso oft als Duplicate Content identifiziert.

    Duplicate Content vermeiden oder dagegen vorgehen

    Einzigartigkeit ist eines der obersten Gebote für die Erstellung des eigenen Contents. Beispielsweise in einem Onlineshop kann ansonsten schon die unveränderte Übernahme der Produktbeschreibung der Hersteller doppelten Inhalt entstehen lassen. Ein wichtiges Werkzeug zur Identifizierung von Dubletten bietet ein Duplicate Content Checker. Gegebenenfalls müssen Suchmaschinen zu einzelnen Unterseiten mit einem noindex,follow-Tag angewiesen werden, diese nicht zu indexieren.

    Bei gestohlenem Content empfiehlt sich zuerst ein Kontakt mit dem Webmaster der betreffenden Seite. Er erhält eine Aufforderung zur Löschung oder Kennzeichnung mit der Originalquelle. Kommt keine Reaktion, kann der Missbrauch Google gemeldet werden oder es folgen zusätzliche Schritte wie eine Abmahnung.

    Auf mehreren eigenen Seiten erforderliche Inhalte erhalten Canonicals Tags. Sie zeigen Suchalgorithmen die Originalseite sowie alle damit verbundenen Kopien und weisen Suchmaschinen an, die Duplikate nicht zu indexieren. Auch ein sogenannter noindex-Tag nimmt Seiten aus der Indexierung. Ein hreflang-Tag sorgt für die saubere Zuordnung von Inhalten auf der Originalseite und übersetzten Versionen.

    Diese und einige andere Maßnahmen und Nacharbeiten bedeuten regelmäßig einen höheren Aufwand.

    Deswegen gilt immer: Schon bei Seitenaufbau und -planung sorgfältig arbeiten und alle technischen Quellen von doppelten Inhalten ausschließen. Später sind einfache Implementierungsmöglichkeiten von Canonical Tags hilfreich und generell braucht es einen permanenten Fokus auf einzigartigen beziehungsweise Unique Content. Zusätzlich helfen regelmäßige Kontrollen mit Tools für einen Duplicate Content Check. Hier liegt ein wichtiger Teil der Arbeit bei der Seiten- oder Suchmaschinenoptimierung.

E

  • Kurz erklärt

    Die Registrierung einer Domain muss regelmäßig nach einem Jahr erneuert werden. Bleibt eine Verlängerung der Registrierung aus, wird die Domain nach einer Übergangszeit von einigen Wochen ansonsten zur Expired Domain. Dann kann sie meist nicht mehr im Browser aufgerufen werden, verschwindet aber trotzdem nicht auf den Servern des Domainanbieters – genauso wenig ihre mitunter wertvollen Merkmale wie Domain Authority, PageRank oder Backlinks. Das macht eine neue Anmietung der Domain für die Suchmaschinenoptimierung interessant

    Expired Domain – mehr erfahren

    Für Expired Domains existiert ein schwunghafter Onlinehandel. Sie sind unter SEO-Gesichtspunkten sehr gefragt, weil sie oft eine längere Historie mitbringen. Die Wiederaufnahme dieser Historie besitzt ein besseres Potenzial, schnell gute Suchmaschinenbewertungen zu erhalten als der Aufbau einer neuen Domain.

    Je höher die Werte einer Expired Domain bei Authority, PageRank, Traffic, Trust ausfallen, umso mehr wachsen Nachfrage und Preis. Für eine mittlere Domain Authority und insbesondere für eine gute Backlink-Struktur mit themenrelevanten Backlinks werden deutlich höhere Preise fällig als bei Seiten ohne Backlinks. Der Aufbau solcher Strukturen braucht ansonsten meist viel Zeit und so rechnet es sich unter Umständen schnell, stattdessen in Expired Domains mit vorhandenen Backlinks zu investieren. Diese Domains bringen vielfach eine organisch gewachsene Backlink-Struktur mit, die von Google traditionell sehr gut bewertet wird.

    Zu den meisten Themen finden sich schnell relevante alte Domains. Allein bei den .com-Domains warten täglich oft über drei Millionen Angebote und mehrere Hunderttausend davon besitzen bereits Backlinks.

    Nutzen und Wirkung von Expired Domains

    SEO Tools und Software können die Qualitäten einer alten Domain noch sehr genau analysieren und helfen somit, ihren Wert individuell einzuordnen. Außerdem muss die Seite zu den eigenen Nutzungswünschen passen. Eine englische Seite lässt sich, sofern nicht richtig angewendet, kaum sinnvoll für den deutschsprachigen Suchraum neu beleben.

    Um das Potenzial einer Backlink-Struktur nutzbar zu machen, kann die Seite sogar wie früher wiederaufgebaut werden. Speziell die Inhalte mit vielen eingehenden Links dürfen dabei nicht fehlen, oder man baut intelligente Weiterleitungen ein. Aber Achtung: Expired Domains stehen nicht selten im Zusammenhang mit Markenrechten. Hier sind dann immer deren Gültigkeit oder Schutz, Nutzungsmöglichkeiten und Kosten abzuklären und abzuwägen.

    Und zuletzt: Die Entwicklung des Marktes für Expired Domains ist Google, aber auch anderen Suchmaschinen natürlich nicht entgangen. Was anschließend mit alten Domains passiert, ist aber nicht im Sinne der Suchmaschinenbetreiber, weil hier mit dem Griff in die sprichwörtliche Mottenkiste des Internets aktuelle Relevanz erzeugt werden soll.

    Mittlerweile sind die Suchalgorithmen zunehmend besser in der Lage, diese Versuche zuverlässig zu erkennen. Dann können bei falschem Gebrauch schlechtere Bewertungen und Rankings folgen. Die Nutzung von Expired Domains für die Suchmaschinenoptimierung funktionierte lange gut und außerhalb der USA tut sie das noch immer. Inzwischen verliert sie in den USA immer mehr an Bedeutung genau wie eine Expired Domain selbst, wenn sie länger genutzt wird.

F

  • Kurz erklärt

    Facebook Marketing beschreibt die Teildisziplin des Onlinemarketings, die sich speziell mit Werbung, Kundenbindung oder -gewinnung in dem Sozialen Netzwerk beschäftigt. Facebook bietet dafür nicht nur sehr viele Nutzer unter einem Dach, sondern zugleich auch eine Reihe von einfachen, aber sehr präzisen Marketinginstrumenten.

    Facebook Marketing – mehr erfahren

    Das Marketing bei Facebook zählt im Onlinemarketing zur größeren Kategorie des Social Media Marketings. Werbung wird dabei den Besonderheiten der jeweiligen Plattform und deren Nutzern angepasst. Das Facebook Marketing kommt hier der typischen Onlinewerbung am nächsten und kann ein großes Publikum erreichen.

    In Deutschland nutzten Ende 2018 rund 30 Millionen Menschen das Netzwerk und zwei Drittel davon sogar täglich. Die Interessen, Lebensumstände oder zahlreiche Details zur Internetnutzung sind dem Facebook-Konzern durch eine detaillierte Datenerhebung bestens bekannt. Auf diesen Datenschatz erhalten Werbetreibende indirekt umfangreichen Zugriff, wenn sie sich für Facebook Marketing und speziell den hauseigenen Service Facebook Ads entscheiden. Er erlaubt einen exakten Zuschnitt des Marketings für praktisch jede Zielgruppe.

    Zum Facebook Marketing zählt genauso die Facebook-Unternehmensseite. Sie bildet das Pendant zur klassischen Homepage, geht aber noch weiter, da hier eine direkte Interaktion mit alten und neuen Kunden stattfinden kann und sogar Möglichkeiten für schnellen Kundenservice bestehen. Facebook Marketing

    • kann die Präsenz im Sozialen Netzwerk stärken,
    • direkten Kontakt zu Internetnutzern oder Kunden herstellen,
    • Nutzer auf Webseiten führen, damit deren Traffic und Relevanz erhöhen und letztlich angepeilte Conversions realisieren oder
    • neben überregionaler Werbung vor allem modernes, gezieltes lokales Marketing ermöglichen.

    Nutzen und Wirkung von Facebook Marketing

    Ein großer Vorteil des Facebook Marketings liegt in den kostengünstigen Einstiegsmöglichkeiten. Eine Unternehmensseite erfordert nur den Aufwand für regelmäßige Betreuung oder Content-Erstellung und ist ansonsten kostenlos. Der Einstieg in Facebook Ads oder Werbeanzeigen gelingt schon mit weniger als 100 Euro, wenn ein lokales Marketing genügt.

    Größere Kampagnen benötigen hier aber ebenso höhere Budgets wie im gewöhnlichen Onlinemarketing. Zudem bestimmen sich die Werbepreise genau wie bei Google Ads nach Zielgruppen, Anzeigenart oder -häufigkeit.

    Beide Werbeplattformen wissen sehr viel über ihre Nutzer und erlauben dadurch eine präzise Abstimmung der Werbung auf die Zielgruppen. Während Google dann eine überwiegend gut sichtbare personalisierte Werbung ausspielen kann, drohen Anzeigen in der Benutzeransicht – der Timeline – eher unterzugehen und lassen sich zudem leichter durch einfaches Weiterscrollen ignorieren.

    Facebook Marketing braucht daher oft andere Ansätze und Stilmittel als beispielsweise Bannerwerbung, weil es extrem kurze Aufmerksamkeitsspannen nutzen muss, um die Aufmerksamkeit zu gewinnen.

    Erst dann erreichen Facebook Ads mit den gewünschten Conversions einen monetären Rückfluss und können einen Kosten-Nutzen-Effekt ergeben.

    Aber: Der Einstieg in das Facebook Marketing ist jederzeit auch ohne bezahlte Werbung möglich. Mit etwas Fingerspitzengefühl für das Medium und seine Nutzer sowie geringem zeitlichem Aufwand lassen sich durch die Facebook-Präsenz allein schon Bekanntheit, Profil und Reichweite steigern.

H

  • Hidden Content, ins Deutsche übersetzt „versteckter Inhalt“, bezeichnet alle nicht direkt für den Besucher einer Webseite erkennbaren Textinhalte. Der versteckte Content ist im Quellcode der Seite zu finden, jedoch nicht für eine lesbare Darstellung auf der Internetseite selbst gedacht. Die Einbindung von Hidden Content gehörte in den Anfängen der Suchmaschinenoptimierung (SEO) zu den häufigsten Manipulationsmethoden von Rankings bei Google und weiteren Suchmaschinen. Um Abstrafungen zu vermeiden, sind heute nur noch wenige Formen von Hidden Content zulässig.

    Die Historie von Hidden Content

    Die Nutzung versteckter Inhalte geht auf die Anfänge der SEO zurück. Webseitenentwickler machten es sich zunutze, dass Suchmaschinen auch versteckte Inhalte beim Crawlen einer Webseite erfasste und in die Bewertung der Relevanz einer Webseite einfließen ließ. Dies ermöglichte es beispielsweise, relevante Keywords in größerer Menge in versteckten Text einzubinden, ohne dass dies den Lesefluss des menschlichen Besuchers einer Webseite störte.

    Ähnlich wie das Keyword-Stuffing wirkte sich die Nutzung von Hidden Content nur kurzzeitig positiv auf die SERPs von Google & Co. aus. Mittlerweile können Bots versteckte Inhalte in Quelltexten von Webseiten sehr gut erkennen. Alle weltweit renommierten Suchmaschinen wie Google, Yahoo oder Bing führen sogar explizite Richtlinien für Webmaster, die eine systematische Nutzung von Hidden Content ausschließen.

    Folgen der Einbindung von Hidden Content

    Versuchen Webmaster in der heutigen Zeit, das Ranking einer Webseite durch Einbindung von Hidden Content zu beeinflussen, findet eine Abstrafung statt. Suchmaschinen wie Google werten die Nutzung versteckter Inhalte als bewusste Täuschungsmaßnahme, um das Ranking einer Webseite ohne tatsächliche Relevanz zu beeinflussen.

    In welchem Umfang die Abstrafung stattfindet, hängt vom Einzelfall und der Art der Einbindung versteckter Inhalte ab. Sofern das Prinzip für einzelne Unterseiten angewendet wurde, kann es zu einem Penalty für explizit diese Seiten kommen. Im Extremfall streichen Google und andere Suchmaschinen die gesamte Webpräsenz aus ihrem Such-Index.

    Hidden Content und Suchmaschinenoptimierung

    Die Einbindung versteckter Inhalte auf einer Webseite führt nicht automatisch zu einer Abstrafung durch Google. Es gibt zulässige Möglichkeiten, nicht für den Nutzer direkt erkennbare Inhalte auf einer Webseite einzubinden und einer Abstrafung durch die weltweit wichtigsten Suchmaschinen zu entgehen. Hierbei sollten zwei Grundsätze erfüllt sein:

    1. Der verwendete Hidden Content bietet dem menschlichen Webseitenbesucher einen Mehrwert.
    2. Die Einbindung von Hidden Content zielt nicht alleine auf die Verbesserung des Google-Rankings ab. (Wobei dies eine Folge sein kann.)

    Ein typischer Fall von erlaubtem Hidden Content ist das Setzen von ALT-Attributen oder Title-Tags bei auf Webseiten eingebundenen Bildern. Auch die Einbindung von Mouseover-Texten für eine bessere Seitenübersicht basiert auf dem Verstecken von Textinhalten. Hier ist jedoch sichergestellt, dass die Inhalte für den menschlichen Nutzer gedacht sind und dieser die versteckten Inhalte aktiv aufrufen kann.

    Eine letzte Variante von zulässigem Hidden Content ist durch die mobile Optimierung von Webseiten entstanden. Bei Displays kleiner Endnutzergeräte kann das gezielte Ausblenden von Textblöcken die Nutzerfreundlichkeit der Webseite erhöhen. Da auch hier keine Manipulation des Suchmaschinenrankings, sondern ein Nutzen für den Besucher im Vordergrund steht, findet keine Abstrafung statt.

I

  • Der Begriff Indexierung bezeichnet die Erfassung einer Webseite mit sämtlichen Inhalten durch eine Suchmaschine wie Google oder Bing. Durch den Prozess wird die Webseite zum Such-Index der Suchmaschine hinzugefügt. Kommt es hiernach zu Suchanfragen seitens des Anwenders und weist die Webseite eine ausreichende Relevanz auf, wird das Webangebot in den Suchergebnissen gelistet. Ohne die vorherige Indexierung sind ins Netz gestellte Inhalte nicht bei Google und anderen Suchmaschinen zu finden.

    Indexierung durch Suchmaschinen

    Die Indexierung ist ein essenzieller Schritt für jeden Betreiber einer Webseite, um die Sichtbarkeit seines Webangebots im Internet zu steigern. Aktiv muss sich der Seitenbetreiber jedoch nicht um ein Hinzufügen zum Such-Index von Google und anderen Suchmaschinen kümmern. Diese führen regelmäßig eine Überprüfung von Webinhalten mittels sogenannter Crawler durch, die IP-Adressen systematisch abarbeiten und so neue Webseiten und -inhalte ausfindig machen.

    Eine erfolgreiche Indexierung führt die Webseite mitsamt ihrer Inhalte einer Liste der jeweiligen Suchmaschine vor. Kommt es zu passenden Suchanfragen, können die entsprechenden Inhalte auf den Ergebnisseiten (SERPs) der Suchmaschinen angezeigt werden. Durch das erneute Crawlen in regelmäßigen Abständen fließen auch Änderungen auf Webseiten sowie neue Seiteninhalte in die Liste von Google, Bing und anderer Suchmaschinen ein.

    Besonderheiten der mobilen Indexierung

    Im Verlauf der letzten Jahre hat sich die Indexierung von Webseiten verändert, um auf die Anforderungen mobiler Nutzer einzugehen. Um einen Mehrwert gelisteter Suchergebnisse und eine Eignung für Smartphones und Tablets zu gewährleisten, führte Google zwischenzeitlich einen separaten Such-Index für mobile Webseiten. Ab März 2021 wird der klassische Such-Index zugunsten der mobilen Optimierung von Webseiten aufgegeben.

    Internetpräsenzen, die ab diesem Zeitpunkt nicht über eine mobile Version verfügen, werden somit aus dem Such-Index von Google herausgenommen. Betreiber älterer Webseiten, die nicht über eine mobile Version ihres Webangebots verfügen, verlieren so bereits erreichte Rankings. Durch dieses Vorgehen stellt Google eine Bereinigung seines Such-Index sicher, um zahllose veraltete Webangebote ohne Mehrwert für mobile Nutzer aus der bisherigen Indexierung herauszunehmen.

    Indexierung als SEO-Maßnahme

    Da die Indexierung von Webseiten durch den Crawler von Suchmaschinen automatisch erfolgt, lässt sich diese nicht direkt durch SEO- oder SEA-Maßnahmen beeinflussen. Die Indexierung als solche ist essenziell, um durch Suchmaschinen wie Google erfasst zu werden und überhaupt in den Ergebnisseiten bei relevanten Suchanfragen zu erscheinen. Die Indexierung ist somit als absolute Erfolgsgrundlage für ein Marketing im Internet zu verstehen.

    Das Einstellen von Meta-Tags und hochwertiger Inhalt leistet einen wesentlichen Beitrag für die qualitätsbewusste Indexierung. So sollen Webseiten nicht bloß in SERPs gelistet werden, sondern sich durch informative und auffällige Inhalte von der digitalen Konkurrenz abgrenzen. Hierbei fallen dem Meta-Title und der Meta-Description eine wesentliche Bedeutung zu, die bei mobilen Suchanfragen als einzige Informationen in den SERPs angezeigt werden.

    Eine Indexierung ersetzt weitere SEO-Maßnahmen online und offline nicht. Damit diese ihre Wirkung entfalten und für mehr Traffic auf der eigenen Webseite sorgen, sollte die Indexierung sichergestellt sein. Dies gilt speziell für neue Webangebote, die noch nicht von Google & Co. gecrawlt worden. In diesem Fall kann es lohnen, durch eine aktive Eintragung bei Google oder erste Kampagnen über Google Ads die Sichtbarkeit der Webseite aktiv zu steigern.

  • Als interne Verlinkung einer Webseite wird jeder gesetzliche Link bezeichnet, bei dem sich die Zielseite innerhalb derselben Domain wie die verlinkende Seite befindet. Der Aufbau einer internen Link-Struktur ermöglicht es Betreibern von Webseiten, Inhalte des eigenen Angebots systematisch und logisch miteinander zu verknüpfen. Die wichtigsten Beispiele einer internen Verlinkung ist der Verweis einer Hauptseite der Domain auf seine Unterseiten oder zwischen Unterseiten der gleichen Webpräsenz.

    Welche Zwecke erfüllen interne Verlinkungen?

    Die interne Verlinkung ermöglicht es dem Webseitenbetreiber, die Gesamtheit seiner Inhalte und Informationen nicht in einer einzigen Webseite darstellen zu müssen. Die Unterteilung eines Webangebots in mehrere Unterseiten und ihre Verknüpfung durch interne Verlinkungen reicht dabei bis in die Anfänge der Webprogrammierung zurück.

    Neben der höheren Nutzerfreundlichkeit der Webseite für den menschlichen Betrachter empfiehlt sich das systematische Setzen interner Links für die Indexierung durch Suchmaschinen. Der Crawler der Suchmaschinen erfasst die gesamte Struktur innerhalb der Webseite und erkennt bei gut gesetzten Links einen zusätzlichen Mehrwert für den Nutzer.

    Für größtmöglichen Nutzen im Sinne der Suchmaschinenoptimierung sollten die URLs der gewählten Unterseiten relevante Keywords in ihren Titeln tragen. Gleiches gilt für den Linktext der internen Verlinkungen, um Nutzern einen logischen Zusammenhang zu verdeutlichen. Hiermit wird das Setzen interner Links zu einer essenziellen Maßnahme der Onpage-Suchmaschinenoptimierung.

    Probleme mit internen Links vermeiden

    Alle internen Verlinkungen sollten regelmäßig überprüft werden, um Probleme bei der Seitendarstellung und Abwertungen durch Suchmaschinen zu vermeiden. So können Unterseiten aus dem Webangebot entfernt worden sein, während interne Links weiterhin auf diese Seiten verweisen. Bei Anklicken des Links wird der Nutzer auf eine fehlende Seite weitergeleitet, was die Nutzerfreundlichkeit erheblich einschränkt.

    Im Sinne der Suchmaschinenoptimierung kann es schwierig werden, ähnliche Ankertexte zu verwenden, die auf unterschiedliche Unterseiten verlinken. Eine kluge Link-Architektur sollte sich auch in den gewählten Ankertexten widerspiegeln, die den natürlichen Lesefluss des menschlichen Betrachters nicht stören sollten.

    Interne Verlinkung und SEO

    Das Setzen interner Links zu verschiedenen Unterseiten wirkt sich als SEO-Maßnahme primär für die verlinkten Unterseiten aus. Der Webseitenbetreiber hat durch häufige Verlinkungen der gleichen Unterseite mit ansprechenden Ankertexten die Möglichkeit, sein Ranking bei Google oder Bing zu beeinflussen und einzelne Seiten stärker zu bewerben.

    Ansonsten wird eine Seite vom menschlichen Betrachter und von Suchmaschinen ausschließlich gefunden, wenn wenigstens eine interne Verlinkung auf sie verweist. Ohne eine solche Verlinkung, beispielsweise aus der Menüführung der Webseite heraus, würde niemand die Unterseite mit ihren Inhalten finden.

    Im Gegenzug kann verhindert werden, dass häufige interne Verlinkungen zu einem besseren Ranking bei Google und anderen Suchmaschinen führen. Befehle wie nofollow oder noindex in den Meta-Angaben teilen den Crawlern der Suchmaschinen mit, dass kein Eintrag im Index gewünscht ist. Sinnvoll ist dies speziell für kleinere Unterseiten, die SEO-technisch weniger Relevanz aufweisen als die Haupt- und Menüseiten einer Webseite.

K

  • Als Keywords werden im Online-Marketing Schlüsselbegriffe bezeichnet, die der Optimierung einer Webseite hinsichtlich ihrer Positionen bei Suchmaschinen dienen. Die gewählten Keywords sollten einen direkten Bezug zur eigenen Webseite und den angebotenen Produkten und Services haben. Ziel ist, relevante Keywords in einer angemessenen Häufigkeit in die Texte einer Webseite einzubinden, um Google eine möglichst hohe Relevanz bei Suchanfragen mit Eingabe der entsprechenden Schlüsselbegriffe aufzuzeigen.

    Keywords und Suchmaschinenoptimierung

    Keywords gelten seit den Anfängen von Suchmaschinen wie Google und Maßnahmen zur Suchmaschinenoptimierung als eine der wichtigsten Maßnahmen, um das Ranking bei Suchanfragen zu beeinflussen. In den Anfängen der Suchmaschinen sorgte eine möglichst häufige Nennung der Keywords bereits für bessere Rankings. Diese Art des sogenannten Keyword-Stuffings wird heute von Google, Bing oder Yahoo erkannt und abgestraft – für sichtbaren Text genauso wie für Hidden Content.

    Grundsätzlich bleiben Keywords das wichtigste Hilfsmittel, um Google Mehrwert und Relevanz der textlichen Inhalte einer Webseite zu verdeutlichen. Die Keywords fungieren als direktes Bindeglied zwischen dem eigenen Webangebot und den Suchanfragen von Nutzern. Hierbei kommt es weniger auf einzelne, zentrale Begriffe an, vielmehr entscheidet das Zusammenspiel diverser Keywords. Gerade im kommerziellen Bereich herrscht eine große Konkurrenz um die Top-Rankings bei Google & Co., so dass eine stetige Anpassung der Keyword-Strategie sinnvoll ist.

    Varianten von Keywords

    Grundlegend ist zwischen Shorttail- und Longtail-Keywords. Als Shorttail werden ein oder zwei Wörter bezeichnet, die vielfach und mit relevanter Bedeutung in den Texten der Webseite zu finden sind. Longtail-Keywords beschreiben längere Phrasen aus mehreren Wörtern, die auf spezifischere Suchanfragen abgestimmt sind. Longtail-Keywords werden vom Google-Nutzer seltener als Shorttail-Keywords eingegeben. Kommt es jedoch zu ihrer Eingabe, hebt sich die eigene Webseite in den SERPs von Konkurrenten ab, die lediglich auf relevante Shorttail-Keywords vertraut haben.

    Auch inhaltlich ist zwischen vielen Varianten von Keywords zu unterscheiden. Klassische Shorttail-Keywords sind beispielsweise Marken- oder Produktnamen, die als Brand Keywords beschrieben werden. Commercial Keywords und Informational Keywords zielen stärker auf längere Suchphrasen mit dem Wunsch einer konkreten Antwort ab, die die eigene Webseite bieten sollte. Webseitenbetreiber sollten durch eine Analyse herausfinden, welche Keywords zu einem Besuch der eigenen Webseite geführt haben, um hierauf die weitere Keyword-Strategie aufzubauen.

    Recherche von Keywords

    Gerade bei neuen Webprojekten fällt die Auswahl relevanter Keywords schwer. Für die Keywordrecherche empfiehlt sich der Einsatz digitaler Tools, die beispielsweise zu relevanten Shorttail-Keywords sinnvolle Longtail-Phrasen liefern. Zu den bekanntesten Tools dieser Art gehören der Keyword Planner von Google, Google Suggest als integrierter Teil der Google-Suche sowie Semager oder Soovle.

    Die Recherche der Keywords liefert eine verlässliche Grundlage, welche Begriffe bei Suchanfragen relevant sind und in die Texte der Webseite einzubinden sind. Um ein sinnvolles Zusammenspiel verschiedener Keywords auf Webseiten der direkten Konkurrenz zu verstehen, empfiehlt sich die ergänzende Durchführung einer WDF*IDF-Analyse.

    Neben Keywords als Teil der Suchmaschinenoptimierung spielen die relevanten Suchbegriffe auch in der SEA und dem Einsatz von Google Ads eine Rolle. Hier lässt sich im Bidding-Prozess durch die Preise im Cost per Click erkennen, welche Short- und Longtail-Keywords besonders gefragt sind und mit welchen eher Nischen bei Suchanfragen belegt werden.

  • Keyword Kannibalismus beschreibt das Problem von Webseitenbetreibern, eine Vielzahl von Unterseiten ihrer Webpräsenz auf ein einzelnes Keyword hin optimieren zu lassen. Da dies Suchmaschinen wie Google keine eindeutige Zuordnung zwischen URLs und dem Keyword ermöglicht, droht der Verlust guter Rankings bei Suchanfragen zu diesem Keyword. Neben dem Keyword-Stuffing stellt Keyword Kannibalismus das zweite Problem dar, durch zu häufige Verwendung eines bestimmten Keywords Positionen bei Google & Co. zu verlieren.

    Keyword Kannibalismus im Detail

    Die Verwendung von Texten mit Keywords gehört zu den wichtigsten und etabliertesten Methoden der Suchmaschinenoptimierung (SEO). Bei der Indexierung von Webseiten mit sämtlichen Unterseiten verknüpfen Google, Yahoo oder Bing jede einzelne URL mit einem bestimmten Keyword. Kommt es zu Suchanfragen des Nutzers über die Suchmaschine, wird die Unterseite mit der höchsten Relevanz bezüglich des eingegebenen Keywords angezeigt.

    Sofern der Webseitenbetreiber eine Vielzahl von Unterseiten auf das gleiche Keyword hin optimiert hat, entsteht bei der Indexierung ein Problem. Die eindeutige Zuordnung von Keyword und URL seitens der Suchmaschine ist nicht mehr möglich. Wird das Keyword bei Suchanfragen eingegeben, können deshalb unterschiedliche Unterseiten als bestes Suchergebnis angezeigt werden. Diese Schwankungen sorgen dafür, dass die Webseite insgesamt ein schlechteres Ranking als bei einer einzelnen, optimierten Seite erhält.

    Der Zusammenhang mit Keyword-Stuffing

    Keyword Kannibalismus ist mit Keyword-Stuffing nicht identisch, jedoch ein verwandtes Phänomen. Beim Keyword-Stuffing wird ein Keyword überproportional häufig auf einer Unterseite verwendet. Die Bots von Google und anderen Suchmaschinen erkennen dies und sorgen für eine Abstrafung der Seite, sofern nicht ein eindeutiger Mehrwert durch die häufige Keyword-Nennung erkennbar ist.

    Beim Keyword Kannibalismus kann jede einzelne Unterseite eine moderate Anzahl des fraglichen Keywords aufweisen. In der Gesamtheit aller Seiten kommt das Keyword jedoch zu häufig vor oder wurde auf verschiedenen Unterseiten als führendes Keyword für die Suchmaschinenoptimierung verwendet. Google & Co. können nicht mehr erkennen, bei welcher Unterseite genau die Relevanz des Keywords liegt, was das Ranking beeinflusst. Dieser Umstand verleiht dem Keyword Kannibalismus den Beinamen Relevanz-Problem.

    Lösungsansätze gegen Keyword Kannibalismus

    Im ersten Schritt gilt es für Webseitenbetreiber festzustellen, ob Keyword Kannibalismus auf der eigenen Seite vorliegt. Hierfür können SEO-Tools genutzt werden, mit denen sich die Relevanz einzelner Unterseiten analysieren lässt. Hierneben gibt es Paradebeispiele, bei denen ohne konkrete Prüfung von einem Relevanz-Problem ausgegangen werden kann. Dies gilt speziell für Online-Shops, bei denen für eine Vielzahl von Produkten die gleiche Beschreibung verwendet wurde.

    Der wichtigste Lösungsansatz zur Vermeidung von Keyword Kannibalismus in Online-Shops ist die Einführung von Oberkategorien, die alle bislang gleich beschriebenen Produkte umfasst. Mit einem einzigartigen Text versehen, werden Suchmaschinen wie Google zukünftig eher auf diese Oberseite verweisen. Zusätzliche SEO-Maßnahmen für die entsprechende Seite sind hierbei essenziell.

    Für sonstige Webseiten kann die Einbindung unterschiedlicher interner und externer Links zur Lösung des Relevanz-Problems beitragen. Diese Links sollten nicht alleine aus Prinzip gesetzt werden, sondern dem menschlichen Betrachter einen Mehrwert bieten. Falls die Verlinkungen thematisch nicht passen sollten, droht ansonsten eine Abwertung des Webseite beim Suchmaschinenranking aus anderen Gründen.

  • Als Keyword Density, auf Deutsch Keyword-Dichte, wird der prozentuale Anteil eines Keywords in einem Textdokument bezeichnet. Der Begriff bezieht sich hauptsächlich auf Texte einzelner Webseiten und stellt die Häufigkeit eines bestimmten Keywords zur Gesamtzahl an Wörtern in Relation. Keywords können hierbei ein oder mehrere Wörter umfassen, so dass für die Keyword-Dichte im Regelfall ein Termin anstelle eines einzelnen Wortes betrachtet wird. Liegt beispielsweise für einen bestimmten Term als Short- oder Longtailkeyword eine Dichte von 2,0 % vor, kommt der Term durchschnittlich zweimal pro 100 Wörter im Text vor.

    Keyword Density und SEO

    Die Keyword-Dichte ist seit den Anfängen der Suchmaschinenoptimierung (SEO) ein bekanntes Kriterium, dessen Relevanz sich über die Jahre verändert hat. In den Anfängen von Google & Co. war die Keyword Density ein wesentliches Kriterium, um gute Rankings bezüglich der verwendeten Keywords zu erreichen. Dies führte zum Keyword-Stuffing, also einer übermäßig häufigen Verwendung des Keywords ohne Mehrwert, nur um Top-Positionen bei Suchanfragen mit diesem Keyword zu erreichen.

    Das Keyword-Stuffing wird heute von allen großen Suchmaschinen wie Google, Bing oder Yahoo abgestraft. Die Suchmaschinen sehen keinen Mehrwert in der übermäßig häufigen Nennung bestimmter Keywords und vermuten, dass die hohe Dichte alleine zur Beeinflussung der Suchergebnisse eingebunden wurden. Bei Google angemeldete Webmaster erhalten eine gesonderte Information über die Google Search Console, wenn es zur Herabstufung einer Seite aufgrund einer zu hohen Keyword Density gekommen ist.

    Bestimmung der optimalen Keyword Density

    Für Betreiber von Webseiten ist die Bestimmung der optimalen Keyword Density eine Herausforderung. Werden relevante Suchbegriffe zu selten in Texten eingebunden, können direkte Konkurrenten bessere Rankings bei häufiger Verwendung der Keywords erreichen. Bei einer zu häufigen Verwendung droht hingegen die Abstrafung durch Google & Co.

    Pauschal gibt es keinen Richtwert, was eine zu hohe Keyword Density darstellt. Branchenweit wird eine Dichte von 5,0 bis 8,0 % als Risikobereich für eine drohende Abwertung angesehen. Google und andere Suchmaschinen betrachten dabei die Dichte verwendeter Keywords nicht von weiteren SEO-Faktoren. So kann eine häufige Nennung begründet sein, sofern dies mit einem adäquaten Mehrwert für den menschlichen Nutzer einhergeht. Es entscheidet somit immer der Einzelfall.

    Anpassung der Keyword-Dichte

    Über die Jahre hinweg hat die Keyword-Dichte als SEO-Kriterium an Bedeutung verloren. Trotzdem gilt es im Sinne der Suchmaschinenoptimierung weiterhin, gute Texte mit einer angemessenen Einbindung relevanter Keywords ins Netz zu stellen. Hierbei kann es passieren, dass eine zu hohe Keyword-Dichte unfreiwillig herbeigeführt wird.

    Betroffene Webseitenbetreiber sollten Ihre Texte mit SEO-Tools analysieren, um eine zu hohe oder zu niedrige Dichte aller relevanten Keywords zu ermitteln. Im Falle einer zu häufigen Nennung bestimmter Keywords sind Umschreibungen oder Synonyme eine sinnvolle Alternative, um die Keyword Density zu senken. Hierbei sollten nie weitere Qualitätsfaktoren für eine zeitgemäße SEO wie die mobile Optimierung der Webseite oder die Einbindung von Medienelementen wie Bildern und Videos außer Acht gelassen werden.

  • Als Keywordanalyse wird ein Prozess verstanden, mit dem Betreiber von Webseiten eine Verbesserung ihres Rankings bei Google und weiteren Suchmaschinen anstreben. Ziel der Analyse ist, relevante Keywords für den Content der Webseite zu gewinnen, beispielsweise um durch hochwertige Texte mit den entsprechenden Keywords Google vom Mehrwert der eigenen Seite zu überzeugen. Die Keywordanalyse stellt eine fundamentale Maßnahme der Suchmaschinenoptimierung (SEO) dar und fördert bei einer klugen und strategischen Durchführung das Ranking bei Suchanfragen erheblich.

    Wie erfolgt die Keywordanalyse?

    Grundidee hinter der Keywordanalyse ist die Ermittlung relevanter Keywords, die zur eigenen Branche und den Suchanfragen potenzieller Interessenten und Kunden passen. Im Rahmen einer Keywordrecherche ermittelt den Betreiber der Webseite, welche Keywords überhaupt eine Relevanz aufweisen und wie hoch ihr Suchvolumen ist.

    Da ein Keyword nicht alleine aus einem Wort bestehen muss, nimmt die Ermittlung sinnvoller Phrasen oder Fragestellungen bei der Keywordrecherche eine wichtige Rolle ein. Zu jedem ermittelten, sinnvollen Keyword sollte das Suchvolumen als Teil der Analyse ermittelt werden. Hiermit ist bei allen großen Suchmaschinen wie Google, Bing oder Yahoo gemeint, wie häufig das entsprechende Keyword innerhalb eines Monats als Suchbegriff eingegeben wurde.

    Basierend auf recherchierten, wichtigen Keywords und ihrem jeweiligen Suchvolumen lässt sich eine Content-Strategie entwickeln, um bei ein oder mehreren der wichtigsten Keywords besser auf den Suchergebnisseiten (SERPs) von Google & Co. zu ranken. In diesen Schritt spielen die Maßnahmen der direkten Konkurrenz ein, die vielfach eine eigene Keywordanalyse mit der gleichen Zielsetzung durchführt.

    Ergänzende Faktoren der Keywordanalyse

    Über intelligente SEO-Tools lassen sich neben der Art der Keywords und ihrem Suchvolumen weitere Kerndaten ermitteln. Einer der wichtigsten Aspekte ist die Keyword Difficulty, mit der sich die Bemühungen der Konkurrenz zahlenmäßig erfassen lässt. Durch diesen Analysefaktor ist erkennbar, wie viele weitere Webseitenbetreiber Ihre Seite auf das gleiche Keyword hin optimieren möchten. Dies kann zur Content-Strategie führen, sich auf Nischen-Begriffe zu spezialisieren, die ein höheres Suchvolumen mit einer niedrigen Keyword Difficulty kombinieren.

    Ebenfalls lohnt eine Analyse, wie häufig die Einblendung der eigenen Webseite in den SERPs von Google oder Bing tatsächlich zum Aufruf der Webseite geführt haben. Durch Features wie die Google Answer Box müssen Nutzer der Suchmaschine eine Webseite nicht mehr explizit aufrufen, um relevante Inhalte kompakt zusammengefasst durchzulesen. Als Teil der SEO-Strategie lohnt es, sich auf Keywords zu konzentrieren, die tatsächlich zu Klicks und somit dem Besuch der eigenen Webseite beitragen.

    Tools für Keywordanalyse und SEO

    Als grundlegendes Hilfsmittel für die Keywordanalyse dient der Google Keyword Planer. Dieser liefert alle grundlegenden Informationen inklusive des Suchvolumens und der Schwierigkeit, mit einem bestimmten Keyword gut zu ranken. Online-Plattformen wie Sistrix oder Mangools stellen umfassende Tools zur Keywordrecherche und -analyse zur Verfügung, die teilweise nur kommerziell nutzbar sind.

    Über sämtliche Tools lassen sich Tabellen mit allen relevanten Kennzahlen rundum analysierte Keywords mit ihren verwandten Begriffen und Fragestellungen erstellen. Für eine kluge SEO-Strategie sollte auf Keywords fokussiert werden, die häufig gesucht werden und dennoch eine niedrige Keyword Difficulty aufweisen.

    Die Keywordanalyse bildet somit eine absolute Grundlage für die inhaltliche Gestaltung von Webseiten zur Suchmaschinenoptimierung. Trotzdem sollte bei der Generierung von Content nicht alleine auf die Einbindung der Keywords geachtet werden. Hochwertiger Content mit Mehrwert sorgt für Klicks und eine Kunden-Conversion, selbst wenn keine Keywordanalyse bis ins Detail durchgeführt wurde. Hier heißt es als Webseitenbetreiber, einen eigenen Stil bei der Seitengestaltung zu finden und weitere relevante SEO-Faktoren einfließen zu lassen.

L

  • Der Begriff Lead bezeichnet im Online-Marketing den qualifizierten Datensatz eines Interessenten, der potenziell zum Kunden des eigenen Unternehmens wird. Wesentliches Merkmal des Leads ist die freiwillige Bereitstellung des Datensatzes seitens des Interessenten. Das Unternehmen erhält hierdurch die Möglichkeit, ein gezielteres Marketing zu betreiben und hat die Sicherheit, auf ein grundlegendes Interesse beim Lead zu stoßen.

    Welche Elemente gehören zu einem Lead-Datensatz?

    Grundsätzlich ist jede freiwillig bereitgestellte Information eines qualifizierten Interessenten für einen Lead-Datensatz wichtig. Zu den grundlegenden und wichtigsten Elementen gehören:

    • Name und Anschrift des Interessenten
    • E-Mail-Adresse des Interessenten
    • Telefonnummer des Interessenten
    • weiterführende, persönliche Informationen

    Für Unternehmen sind speziell qualifizierte Kontaktdaten eines Lead-Datensatzes interessant, genauso wie der Name eines direkten Ansprechpartners oder Entscheiders. Mit diesen Informationen ist eine unmittelbare Kontaktaufnahme mit der richtigen Person möglich, die durch Bereitstellung des Datensatzes grundsätzlich Interesse an Produkten oder einer Zusammenarbeit signalisiert hat.

    Leadgenerierung als Ziel des Online-Marketings

    Die Gewinnung neuer, qualifizierter Datensätze gehört zu den wichtigsten Aufgaben des modernen Marketings und wird als Leadgenerierung bezeichnet. Firmen stehen diverse Möglichkeiten offen, an Leads zu gelangen und so einen direkten Kontakt zu qualifizierten Interessenten aufzunehmen. Zu den wichtigsten Methoden der Leadgenerierung gehören:

    1. Direkte Leadgenerierung: In dieser Situation hat der Interessent seine Daten direkt hinterlassen und in eine Kontaktaufnahme eingewilligt. Ein typisches Beispiel ist die Eintragung der Kontaktdaten bei der Abonnierung eines Newsletters auf der firmeneigenen Webseite.
    2. Dialog- und Permission-Marketing: Hier geht der Vertrieb des eigenen Unternehmens aktiv auf die Suche nach Leads. Der Prozess ist mit der klassischen Akquisition von Neukunden vergleichbar, wobei zunächst die Gewinnung eines qualifizierten Datensatzes anstelle eines direkten Verkaufsabschlusses im Vordergrund steht.
    3. Kommerzieller Erwerb: Bei Interesse an einer Vielzahl von Lead-Datensätzen ist ein Kauf seitens des Unternehmens möglich. Verschiedene Dienstleister haben sich auf die Gewinnung qualifizierter Firmendaten spezialisiert und bieten diese zum Kauf nach den Vorgaben des anfragenden Unternehmens an.

    Bei sämtlichen Formen der Leadgenerierung sind die Unterschiede zwischen B2B- und B2C-Kundengewinnung zu beachten. Während die Kontaktaufnahme im B2B-Bereich nur wenigen Einschränkungen unterliegt, muss im Endkundengeschäft ein explizites Einverständnis für die Kontaktaufnahme zu Zwecken von Werbung und Marketing vorliegen.

    Leads und Kundengewinnung

    Auch wenn Leads ein essenzielles Werkzeug im Online-Marketing darstellen, ist ein gewonnener Datensatz nicht mit einer Kunden-Conversion gleichzusetzen. Jedes Unternehmen sollte Leads als Grundlage verstehen, um mit potenziell interessierten Kunden in Kontakt zu treten. Im Rahmen einer Kontaktaufnahme kann sich herausstellen, dass Produkte oder Dienstleistungen doch nicht zum Profil des Leads passen.

    Die Nutzung von Leads ist somit kein Selbstläufer im Marketing, sondern stellt den ersten Schritt eines erfolgreichen Marketing-Konzepts dar. Dies zeigt sich speziell für die erste Kontaktaufnahme über die im Lead zu findenden Daten. Hier ist eine individuelle Vorbereitung des Vertriebs auf die Wünsche und Bedürfnisse des jeweiligen Kunden ratsam.

  • Als Link Juice oder Google Juice wird die Verknüpfungsstärke bezeichnet, die sich durch Linkverteilung auf einer Webseite ergibt. Die Bezeichnung ist als abstrakter Oberbegriff zu verstehen, in den verschiedene Faktoren rund um die gesetzten Verlinkungen einfließen. Ziel des Webseitenbetreibers ist, einen wirkungsvollen Link Juice umzusetzen, speziell um diverse Unterseiten der eigenen Webpräsenz bei Google und anderen Suchmaschinen besser zu ranken.

    Was spielt in den Link Juice ein?

    Grundsätzlich fasst die Bezeichnung Link Juice die Anzahl und Verteilung aller gesetzten Backlinks innerhalb einer Webseite zusammen. Um eine hohe Verknüpfungsstärke zwischen den verlinkten Unterseiten der Webseite zu erzeugen, fällt einer Reihe von Bewertungsfaktoren eine Relevanz zu. Zu den wichtigsten Faktoren dieser Art zählen:

    • Anzahl der eingehenden Links
    • Qualität der eingehenden Links
    • Verteilung der Links über die Webseite hinweg
    • der jeweilige Pagerank

    In der modernen SEO wird der Pagerank oft fälschlicherweise mit dem Link Juice gleichgesetzt. Dieser drückt die Stärke eines gesetzten Links und seine Wirkung auf die zugehörigen Unterseiten der Webseite aus. Der Wert ist als Rankingfaktor konkret messbar und deshalb für Online-Marketer einfacher zu handhaben. Der Link Juice geht hierüber hinaus und ist mehr als Konzept zu verstehen, das nicht alleine über konkrete Zahlen und Prozentwerte ermittelt werden kann.

    Steuerung und Beeinflussung des Link Juice

    Für Betreiber von Webseiten ist eine kontrollierte Beeinflussung des Link Juice für ein bestmögliches Google-Ranking wichtig. Dies gilt speziell für kleinere Webseiten, die nur über eine überschaubare Anzahl von Unterseiten verfügen. Hier liegt es im natürlichen Interesse des Seitenbetreibers, einen höheren Link Juice für Produkt- und Angebotsseiten zu erzeugen, während Seiten mit Datenschutzhinweisen oder dem Impressum keinen Link Juice abbekommen sollten.

    Im Rahmen der OnPage-Gestaltung von Webseiten kann jeder Betreiber durch das Setzen interner Verlinkungen aktiv Einfluss auf den Link Juice nehmen. Relevante Unterseiten sollten häufiger und mit hoher Themenrelevanz verlinkt werden. Dies bildet nicht nur die Grundlage für ein besseres Google-Ranking, vielmehr entspricht es den Erwartungen des menschlichen Nutzers und fördert die Usability der Webseite.

    Link Juice als Teil der Suchmaschinenoptimierung

    Als abstraktes Konzept ist Link Juice nicht unmittelbar auf die Suchmaschinenoptimierung (SEO) anzuwenden. Trotzdem beinhaltet das Konzept einige grundlegende Richtlinien, die sich bei der Entwicklung einer SEO-Strategie berücksichtigen lassen. So sollte bei extern auf die Webseite verweisenden Links auf einen Link Juice zu relevanten und sinnvollen Unterseiten geachtet werden.

    Innerhalb einer Webseite ist eine gleichmäßige Verteilung der Links auf allen Unterseiten anzuraten. Hinzu kommt eine sinnvolle Wahl der Ankertexte, die relevante und zu den Nutzererwartungen passende Keywords beinhalten sollten. Beispielsweise sollte innerhalb der Struktur einer Webseite eine Unterseite über interne Verlinkungen immer mittels des gleichen Keywords verlinkt werden.

  • Unter dem Begriff Linkbuilding werden alle Maßnahmen zusammengefasst, die der strategischen Beschaffung von Verlinkungen der eigenen Webseite dienen. Im Unterschied zu internen Verlinkungen, deren Art und Häufigkeit der Seitenbetreiber selbst bestimmt, bezieht sich Linkbuilding primär auf die Verlinkung durch externe Webseiten. In der Suchmaschinenoptimierung (SEO) gilt der Aufbau einer solchen Backlinking-Struktur als eine der wichtigsten Maßnahmen der Offpage-Suchmaschinenoptimierung überhaupt.

    Wie funktioniert Linkbuilding?

    Seit den Anfängen der SEO liegt dem Linkbuilding ein einfacher Gedanke zugrunde. Eine Webseite besitzt eine höhere Relevanz, sofern andere Webseiten verstärkt auf ihre Inhalte verweisen. Für Google, Bing und andere Suchmaschinen ist deshalb die Anzahl von externen Backlinks auf ein bestimmtes Webangebot ein wichtiger Indikator, um einer Webseite eine höhere Relevanz zuzuteilen.

    Betreiber von Webseiten können dies nutzen, indem aktiv nach Linkpartnern gesucht wird. Diese verweisen im Rahmen Ihres Webangebots auf die eigene Webseite und erzeugen einen Backlink, der dem besseren Suchmaschinen-Ranking dienen soll. Über die Jahre sind die Anforderungen an Backlinks stetig anspruchsvoller geworden, so dass ein extensiver Linktausch mit beliebigen anderen Webseiten nicht mehr funktionieren. Die Richtlinien großer Suchmaschinen wie Google strafen ein solches Verhalten sogar explizit ab.

    Linkbuilding und SEO

    Trotz der strengeren Richtlinien für den Einsatz von Backlinks gehört das Linkbuilding bis heute zu den wichtigsten SEO-Maßnahmen. Um externe Links als positiven Rankingfaktor zu nutzen, zählt mehr denn je Qualität statt Quantität. So sollten sich Betreiber von Webseiten bei Interesse am Aufbau einer Backlinking-Struktur mit dem Angebot der externen Seiten vertraut machen. Die entsprechenden Seiten sollten selbst über hohe Relevanz im Sinne von Suchmaschinen verfügen und durch qualitativ hochwertige Inhalte überzeugen.

    Auch die thematische Relevanz hat über die letzten Jahre für Google, Bing und Yahoo an Bedeutung gewonnen. So teilen die Suchmaschinen dem externen Link eine höhere Relevanz zu, wenn das Webangebot eine inhaltliche Ähnlichkeit mit der verlinkten Webseite aufweist. Hierneben gelten alle bekannten SEO-Richtlinien wie bei der internen Verlinkung, beispielsweise die kluge Wahl eines Ankertextes, der ein sinnvolles Keyword beinhaltet.

    Strategien im Linkbuilding

    Für Betreiber von Webseiten bieten sich verschiedene Strategien, um Linkbuilding zu betreiben. Zu den wichtigsten Ansätzen zählen:

    1. Passives Linkbuilding

    Diese Methode entspricht dem eigentlichen Vorsatz von Google, nicht künstlich in das Linkbuilding externer Webseiten einzugreifen. Der Seitenbetreiber vernachlässigt die Suche nach externen Linkpartnern und vertraut darauf, dass seine qualitativ hochwertigen Inhalte automatisch von anderen Seitenbetreibern verlinkt werden.

    2. Linktausch

    Bei dieser Strategie profitieren zwei Seitenbetreiber voneinander, indem Sie auf das jeweils andere Angebot verlinken. Diese Form des Linkbuildings widerspricht nicht den Richtlinien von Google und darf somit strategisch genutzt werden. Um die Methode nützlich im Sinne der SEO einzusetzen, sollte jedoch eine thematische Relevanz zwischen beiden Webseiten bestehen und eine kluge Wahl von Linkziel und Ankertext vorgenommen werden.

    3. Blog-Kommentare, Verzeichnisse & Co.

    Das Internet bietet Webseitenbetreibern vielfältige Möglichkeiten, selbst Eintragungen auf externen Webseiten vorzunehmen. Die Auswahl reicht von Web-Verzeichnissen über die Verlinkung des eigenen Webangebots in den Kommentaren fremder Blogs bis zu Social-Media. Gerade bei Blogs und Verzeichnissen legt Google sehr strenge Richtlinien an, so dass ein Linkbuilding dieser Art zu vernachlässigen ist. Das themenrelevante und sinnvolle Setzen von Links in sozialen Netzwerken ist hingegen wesentlicher Bestandteil des Socia-Media-Marketings geworden.

M

  • Definition

    Der Begriff “Meta Description” kommt aus dem Englischen und lässt sich mit “Meta Beschreibung” übersetzen. Es handelt sich hierbei um einen HTML-Tag im Quellcode einer Webseite, der eine Kurzbeschreibung des Inhalts einer Startseite und der einzelnen Unterseiten enthält. Eine solche Kurzbeschreibung kann die Form einer Zusammenfassung, Fragestellung oder Handlungsaufforderung annehmen und zielt darauf ab, die Durchklickrate zu erhöhen.

    An dieser Stelle gilt es anzumerken, dass eine Meta Description für die Nutzer/-innen auf einer Webseite nicht direkt sichtbar ist. Technisch betrachtet wird sie von Crawlern der Suchmaschinen wie Google, Bing und Co. gelesen und indexiert. Folglich wird eine Meta Description in den Suchergebnissen unterhalb von Seitentitel und Internetadresse angezeigt. Sie lässt sich als eine Art Werbung für eine Webseite verstehen, die sich an potenzielle Webseitenbesucher/-innen richtet.

    Meta Description als SEO-Faktor

    Google, die größte Suchmaschine der Welt, hat im Jahr 2009 entschieden, dass eine Meta Description keinen Einfluss mehr auf die Position einer Webseite in den Suchergebnislisten haben wird. Der Grund dafür ist, dass eine Meta Description oft für den maßlosen Gebrauch von Keywords auf einer Webseite (engl. Keyword Stuffing) diente. Heute stellt sie offiziell keinen SEO-Faktor dar, was nicht bedeutet, dass sie als SEO-Maßnahme vernachlässigt oder gänzlich aufgegeben werden sollte.

    Eine Meta Description birgt folgende Vorteile: Sie verbessert die organische Durchklickrate in den Suchergebnissen, sofern sie auf die Nutzer/-innen ansprechend wirkt und die thematische Relevanz aufweist. Eine hohe Durchklickrate und eine lange Verweildauer auf einer Webseite beeinflussen die positive Bewertung einer Webseite durch Google. Daraus lässt sich schlussfolgern, dass eine Meta Description einen indirekten Faktor für eine erfolgreiche Suchmaschinenoptimierung darstellt.

    Wichtige Aspekte auf einen Blick

    Optimale Länge: Eine Meta Description ist eine prägnante Beschreibung des Seiteninhalts, die 160 Zeichen nicht überschreiten sollte, um eine hohe Wirksamkeit zu erzielen. Besteht eine Meta Description aus mehr als 160 Zeichen, wird sie am Ende durch drei Punkte (…) abgeschnitten. Dies kann die Verständlichkeit der zu vermittelnden Botschaft negativ beeinflussen.

    Einsatz von Keywords: Es empfiehlt sich, die für eine Startseite oder Unterseite bedeutenden Keywords in einer Meta Description unterzubringen. Zugleich dürfen die thematische Relevanz und Leserfreundlichkeit nicht fehlen. Enthält eine Meta Description zu viele Keywords, die wahllos und ohne inhaltlichen Zusammenhang benutzt werden, kommt es zum oben erwähnten “Keyword Stuffing”.

    Gebrauch von Sonderzeichen: Es ist möglich, Sonderzeichen wie beispielsweise Herzen und Haken in eine Meta Description mit Hilfe von HTML-Codes zu integrieren. Der Idee dahinter ist, eine Meta Description lebendiger erscheinen zu lassen und eine verstärkte Aufmerksamkeit der Nutzer/-innen zu gewinnen. Die übermäßige Verwendung von Sonderzeichen kann allerdings einen unseriösen Eindruck vermitteln.

    Art des Endgeräts: Eine wachsende Anzahl von Nutzer/-innen verwendet Mobilgeräte wie Smartphones und Tablets für die Internetsuche. Dies bedeutet, dass es eine Meta Description an die aktuellen Bedürfnisse der mobilen Nutzer/-innen anzupassen gilt. Dabei haben die Gebrauchstauglichkeit (engl. Usability) und ein positives Benutzererlebnis (engl. User Experience) oberste Priorität.

    Erfolgsmethode

    Es gibt kein fertiges Erfolgsrezept für eine Meta Description, deren Inhalt von mehreren Faktoren abhängt. Die Zielgruppe und Ziel-Keywords sind nur zwei davon. Dennoch lässt sich feststellen, dass eine effektive Meta Description den Nutzer/-innen einen Mehrwert bietet und deren sich laufend verändernden Erwartungen an das Internet nachkommen kann.

N

  • Definition

    Negative SEO umfasst die Summe aller Maßnahmen, die zum Ziel haben, eine Webseite durch Suchmaschinen wie Google, Bing und Co. abzuwerten. In der Regel richtet sich Negative SEO gegen eine Konkurrenzwebseite mit der Absicht, deren Rankings in den Suchmaschinen zu sabotieren. Gleichzeitig ist anzumerken, dass Negative SEO nicht immer beabsichtigt ist. Dies ist besonders dann der Fall, wenn eine Webseite durch Linkfarmen oder private Blog-Netzwerke nicht willentlich schlechte Links generiert und einer Webseite schadet.

    Negative SEO Taktiken

    Negative SEO bedient sich verschiedener Taktiken, die zu einer Abstrafung durch Google und im schlimmsten Fall zum Ausschluss aus dem Google-Index führen können. Dazu gehören vor allem Spamming aus Linkfarmen und Verzeichnissen, Hotlinking und Hacking. Gleichzeitig fallen Verlinkungen aus Presseportalen mit DoFollow und spammy Branchen in die Kategorie Negative SEO. Darüber hinaus sind der Inhaltsdiebstahl und eine beabsichtigte Rufschädigung durch das Google Bombing oder gefakte Pressemitteilungen eine häufige Taktik.

    Gute Gegenmaßnahmen

    Negative SEO Attacken finden in den unterschiedlichsten Branchen statt. Sowohl Webseiten von lokalen Kleinunternehmen als auch von weltweit tätigen Großunternehmen können davon betroffen sein. In der Praxis zeigt sich allerdings, dass vor allem neuere Webseiten, die über Trust-Signale nicht verfügen, Negative SEO Attacken zum Opfer fallen. Ein starkes und sauberes Linkprofil ist eine Voraussetzung für ein gutes Google Ranking. Zusätzlich empfiehlt es sich, die folgenden präventiven Maßnahmen gegen Negative SEO zu ergreifen:

    • Link Monitoring: Es ermöglicht, die eingehenden Backlinks kontinuierlich zu überwachen. Diesem Zweck dienen verschiedene SEO-Tools, darunter Ahrefs, Majestic SEO und Monitor Backlinks. Ein wesentlicher Vorteil von Link Monitoring besteht darin, dass es klassische Spam-Link-Angriffe schnell erkennen lässt, wodurch die Webmaster der betroffenen Webseiten frühzeitig reagieren können.
    • Google Disavow: Das Google Disavow Tool ist in der Search Console integriert und erlaubt den Webseitenbetreibern, schädliche sowie unnatürlich eingehende Links für ungültig zu erklären. Unmittelbar nach der gelungenen Entwertung schlechter Links und der Einreichung einer Text-Datei mit der Liste aller behobenen Probleme an Google erfolgt ein Antrag auf die erneute Überprüfung der betroffenen Webseite.
    • Trust-Signale: Sie dienen dazu, das Vertrauen der Nutzer/-innen gegenüber einer besuchten Webseite langfristig aufzubauen. Trust-Signale umfassen Güte- und Qualitätssiegel, Kundenmeinungen und Testberichte, verschiedene Bezahlvarianten sowie Verschlüsselung und Datensicherheit. Des Weiteren sind ein hochwertiger Linkaufbau und eine gesunde Linkstruktur als wichtiges Trust-Signal angesehen.
    • Aufforderung: Gelingt es den betroffenen Betreibern, herauszufinden, wer schädliche oder toxische Spam-Backlinks auf deren Webseiten verteilt, empfiehlt sich eine unverzügliche Kontaktaufnahme. Jene Personen und Unternehmen, die Negative SEO Taktiken zum Zweck der eigenen oder beauftragten Suchmaschinenoptimierung einsetzen, können zur Entfernung schlechter Links direkt aufgefordert werden.
      Schlusswort

    Es gilt zu betonen, dass Negative SEO als Beispiel für unethische Praktiken im Bereich der Suchmaschinenoptimierung dient. Sowohl Webmaster als auch Werbeagenturen, die solche Praktiken für ihre Kunden betreiben, machen sich strafbar, wenn eine schädliche Absicht bewiesen werden kann. Allerdings erweist es sich als schwierig, die für Negative SEO verantwortlichen Personen oder Unternehmen zu identifizieren. Aus diesem Grund bleibt Negative SEO eine häufige Praktik, die sich mit geringen Kosten und nur wenig Know-how realisieren lässt.

  • NoFollow ist ein Linkattribut, das von Google im Jahr 2005 eingeführt wurde. Sein primäres Ziel besteht darin, den Google Crawler anzuweisen, bestimmte Links nicht zur Berechnung der Linkpopularität heranzuziehen. Auf diese Weise soll gewährleistet werden, dass nur die für eine Webseite hochwertigen und relevanten Links das Google Ranking positiv beeinflussen. Google spricht in diesem Zusammenhang von Links, die einen redaktionellen Charakter haben und den Nutzer/-innen einen realen Mehrwert bieten.

    Daraus lässt sich schließen, dass das nofollow-Attribut auf solche Links angewandt wird, die werblicher Natur sind oder aus fremden Quellen stammen. Bezahlte Links und Spam-Kommentare, die Links zu fremden und oft thematisch irrelevanten Webseiten enthalten, können als Beispiele dienen. Gleichzeitig ist NoFollow ein wichtiger Sicherheitsaspekt: Es signalisiert dem Google Crawler, dass eine Webseite für fremde Links, die eventuell schädlich oder toxisch sein könnten, keinerlei Verantwortung übernimmt.

    Funktionsweise von NoFollow

    Der nofollow-Tag stellt sicher, dass die Suchroboter einem mit diesem Attribut versehenen Link nicht folgen. Dies soll es ermöglichen, dass seine Anzeigeposition auf den Suchergebnisseiten (SERPs) in keiner Weise beeinflusst wird. Dabei gibt es verschiedene Methoden, das nofollow-Attribut (rel=”nofollow”) zu Links hinzufügen. Je nach Anwendungszweck können die Webmaster einen linkspezifischen, seitenspezifischen oder automatisierten nofollow-Tag einsetzen. Es folgt ein kurzer Überblick über diese drei Varianten:

    Linkspezifischer nofollow-Tag: Er kommt dann zum Einsatz, wenn die Webmaster nur einen bestimmten Link auf einer Webseite mit dem nofollow-Attribut ausstatten wollen. Dies ist die einfachste Variante, einen individuell selektierten – in der Regel externen – Content auf der eigenen Webseite aus der Einstufung bzw. Bewertung durch den Google Crawler ausschließen.
    Seitenspezifischer nofollow-Tag: Diese Variante eignet sich am besten dann, wenn die Webmaster alle Links, die sich auf einer bestimmten Seite befinden, auf NoFollow setzen wollen. Stattdessen können die Webmaster auch im Meta-Tag des Bereichs definieren, dass alle Links innerhalb einer Seite mit dem nofollow-Attribut versehen sind. Das Yoast SEO Plug-in kann dabei hilfreich sein.
    Automatisierte Kennzeichnung: Diese dritte Variante empfiehlt sich vor allem in der Situation, wenn die Webmaster für Links aus bestimmten Bereichen einer Webseite automatisiert den nofollow-Status vergeben wollen. Dies macht großen Sinn, um beispielsweise alle externen Kommentare zusammen mit den beigefügten Links auf einem Blog oder Forum auf NoFollow zu setzen.

    Wichtige Vor- und Nachteile

    Ein wesentlicher Vorteil von dem nofollow-Attribut liegt darin, dass es die Autorität der eigenen Webseite erhöhen lässt. Zudem kann es als effektives Instrument zur Spam-Bekämpfung benutzt werden. Die Ausschließung fremder Links auf der eigenen Webseite aus der Berechnung der Linkpopularität erlaubt es gleichzeitig, Negative SEO Attacken vorzubeugen. Dies bedeutet wiederum weniger Abstrafung durch Google, die im schlimmsten Fall zum Ausschluss einer Webseite aus dem Google-Index führen kann.

    Neben vielen Vorteilen, die sich aus dem Einsatz von nofollow-Attribut ergeben, gibt es gewisse Nachteile, die man nicht außer Acht lassen darf. Jene Webmaster, die beschließen, Kommentare auf NoFollow zu setzen, riskieren, dass einem Blog oder Forum weniger Aufmerksamkeit geschenkt wird. Außerdem besteht die Gefahr, dass sich die Nutzer/-innen weniger dazu motiviert fühlen, Beiträge zu teilen. Ferner kann sich die übermäßige Verwendung von NoFollow auf das Google Ranking einer Webseite negativ auswirken.

O

  • Definition und Hauptziele der Offpage Optimierung

    Die OffPage Optimierung ist ein Teil der Suchmaschinenoptimierung (kurz: SEO). Sie setzt sich aus einer Reihe von SEO-Maßnahmen zusammen, die darauf ausgerichtet sind, das Ranking einer Webseite dauerhaft zu verbessern. Dabei geben die meisten Webseitenbetreiber der Positionierung in den Google-Suchergebnissen höchste Priorität. Die OffPage Optimierung bildet das Gegenstück zur OnPage Optimierung, indem sie abseits der eigenen Webseite durchgeführt wird. Aus diesem Grund ist sie auch weit mehr von externen Faktoren abhängig als die OnPage Optimierung.

    Das primäre Ziel der OffPage Optimierung besteht darin, die Relevanz der eigenen Webseite in den Augen von Suchmaschinen und Nutzer/-innen zu erhöhen. Es geht ebenfalls darum, das nötige Vertrauen und die Glaubwürdigkeit einer Webseite zu schaffen. Dies überträgt sich auf die Bekanntheit und Beliebtheit einer Webseite im Internet, was sich wiederum in einer hohen Durchklickrate widerspiegelt. Aus Sicht der OffPage Optimierung sind nicht nur hohe Besucherzahlen, sondern auch Verweise auf die eigene Webseite und positive Empfehlungen von großer Bedeutung.

    Entscheidende Maßnahmen

    • Linkaufbau (auch Linkbuilding genannt): Diese Maßnahme hat zum Ziel, externe Verlinkungen (sog. “Backlinks”) für die eigene Website zu gewinnen. An dieser Stelle gilt es zu betonen, dass Backlinks einen wichtigen Ranking-Faktor darstellen, indem sie von Google und Co. als Empfehlung interpretiert werden. Sie erhöhen die Relevanz einer Webseite in einem Themengebiet und erlauben den Unternehmen, die Marktposition im digitalen Raum auszubauen. Die Suchmaschinen mögen organische und nachhaltige Backlinks. Der Linktausch und -kauf sind als Methode des Linkaufbaus verpönt.
    • Soziale Signale (engl. Social Signals): Diese Maßnahme besteht darin, direkt oder indirekt wertvolle Informationen über Interaktionen in den sozialen Netzwerken und Blogs zu liefern. Soziale Signale dienen als sozialer Beweis (engl. Social Proof) für die Suchmaschinen und helfen dabei, das Verhalten potenzieller Kunden/-innen zu erkunden. Sie können Likes, Shares und Kommentare sein. Auch wenn die direkte Rolle sozialer Signale als Ranking-Faktor unter den SEO-Expert/-innen umstritten ist, empfiehlt es sich, diese zum Aufbau und Pflege des Nutzerengagements bewusst einzusetzen.

    PR und Brand Management

    Die Reputation des Unternehmens hat einen enormen Einfluss auf die Art und Weise, wie die Nutzer/-innen es im Netz wahrnehmen. Jene Unternehmen, die einen guten Ruf genießen und über eine hohe Markenbekanntheit verfügen, erhalten viele organische Backlinks und positive Nutzersignale. Die Suchmaschinen interpretieren diese als Beweis für eine starke Autorität des Unternehmens und belohnen es mit hohen Positionen auf Suchergebnisseiten (SERPs). Daraus lässt sich schließen, dass die PR und das Brand Management eine indirekte Rolle bei der OffPage Optimierung spielen.

    Analysetools und -lösungen

    Ähnlich wie bei der OnPage Optimierung können sich die Webmaster auch bei der OffPage Optimierung verschiedener SEO-Tools bedienen. Diese ermöglichen es ihnen, den aktuellen Status einer Webseite zu analysieren und – falls notwendig – entsprechende Verbesserungen vorzunehmen. Im OffPage-Bereich empfiehlt es sich, die Anzahl und Qualität von Backlinks sowie die Form und Verteilung sozialer Signale zu messen. Der Ahrefs Site Explorer, Backlinks Analytics von SEMrush, Google Search Console und Majestic SEO, um nur einige Beispiele zu nennen, sind eine Unterstützung.

  • Definition und Aspekte der OnPage Optimierung

    Die OnPage Optimierung ist ein Teil der Suchmaschinenoptimierung (kurz: SEO). Sie umfasst ein breit gefächertes Bündel an SEO-Maßnahmen, die zum Ziel haben, das Ranking einer Webseite in den Suchmaschinen zu verbessern. Dabei legen die Webseitenbetreiber einen besonderen Fokus auf eine gute Position in den Suchergebnissen von Google, der größten Suchmaschine der Welt. Wie der englische Begriff “OnPage” schon verrät, erfolgt die OnPage Optimierung direkt auf einer Webseite, indem sie sich auf alle internen Aspekte bezieht. Dazu gehören:

    • Struktur: Eine gut suchmaschinenoptimierte Webseite verfügt über eine klare Struktur. Diese lässt sich mit Hilfe der Siloing-Technik erreichen. Die Idee dahinter ist, eine Webseite so aufzubauen, dass die Nutzer/-innen sich schnell zurechtfinden und mit möglichst wenig Klicks zu den gesuchten Informationen gelangen. Die Klick- und Verzeichnistiefe ist in diesem Zusammenhang genauso wichtig wie eine kurze URL und die Position des Keywords. Des Weiteren gilt es mittels der robots.txt-Datei und Sitemap.xml das Crawling und Indexing einer Webseite zu verbessern.
    • Technik: Die technischen Aspekte der OnPage Optimierung sorgen für ein positives Benutzererlebnis (engl. User Experience). Hier angesprochen sind vor allem die Ladegeschwindigkeit, Servererreichbarkeit und die SSL-Verschlüsselung. Ein wachsender Trend, die Internetsuche über Mobilgeräte wie Smartphones zu tätigen, hat dazu beigetragen, dass Mobile Friendliness als weiterer SEO-Faktor eine hohe Relevanz hat. An dieser Stelle ist anzumerken, dass Google ab März 2021 Webinhalte ausschließlich nach deren Optimierung für Mobilgeräte indexiert und rankt.
    • Content: Hochqualitative und für die eigene Zielgruppe relevante Inhalte sind eine Voraussetzung, um sich von den Mitbewerbern in den Suchmaschinen abzuheben. Dabei kommt der Textlänge und -struktur sowie Vollständigkeit und Lesbarkeit eine wichtige Bedeutung zu. Je nach Branche und strategischen Zielen setzen die Webseitenbetreiber unterschiedliche Content-Arten ein. Einzigartige Texte, Infografiken, Bilder, Videos, Rankings und Listen ziehen eine unaufhörliche Aufmerksamkeit der Nutzer/-innen auf sich. Interaktive Inhalte steigern die Reichweite und fördern die Verweildauer.

    Vorteile der OnPage Optimierung auf einen Blick

    • Gutes Ranking bei Google: Die korrekt durchgeführte OnPage Optimierung kann die Position einer Webseite in den Suchergebnislisten verbessern und die Unternehmenssichtbarkeit im Internet erhöhen.
    • Organische Durchklickrate: Eine hohe Sichtbarkeit in den Suchergebnislisten wirkt sich positiv auf die organische Durchklickrate aus, die folglich mehr Traffic für eine Webseite generiert und die Verweildauer fördert.
    • Starker Bekanntheitsgrad: Eine erfolgreiche OnPage Optimierung überträgt sich auf ein positives Erscheinungsbild des Unternehmens im Internet. Dies unterstützt das Unternehmen dabei, seine Bekanntheit zu steigern.
    • Erhöhte Konversionsrate: All die genannten Vorteile der OnPage Optimierung begünstigen die Steigerung der Konversionsrate, was sich wiederum in einem höheren digitalen Umsatz widerspiegelt.

    Kontinuierliche Arbeit

    Die OnPage Optimierung ist kein einmaliges Projekt, sondern ein andauernder Prozess. Aus diesem Grund ist es wichtig, die eigene Webseite kontinuierlich zu analysieren und gegebenenfalls entsprechende Verbesserungen im Hinblick auf die OnPage Optimierung vorzunehmen. Google stellt eine Reihe von Tools für die Analyse von Webseiten bereit, darunter die Google Search Console mit Core Web Vitals, die ab Mai 2021 den Google-Ranking-Faktor darstellen. Zudem verbessert es ständig seine Algorithmen, die es bei der OnPage Optimierung zu berücksichtigen gilt.

  • Definition

    Organischer Traffic (engl. Organic Traffic) bezeichnet jeden Aufruf einer Webseite durch menschliche Nutzer/-innen, der über Suchmaschinen oder Backlinks erfolgt. Er ist zu unterscheiden von Paid Traffic, der jeden Webseitenaufruf über Werbeanzeigen oder Advertorials definiert. Daraus lässt sich schließen, dass organischer Traffic im Unterschied zum Paid Traffic keine Werbungskosten generiert. Vielmehr weist er auf ein natürlich wachsendes Interesse der Nutzer/-innen an einer Webseite hin, das auf eine erfolgreiche OnPage und OffPage Optimierung zurückzuführen ist.

    Organischer Traffic kann auf verschiedenen Wegen erfolgen: Wie bereits erwähnt, können die Nutzer/-innen eine Webseite über die Suchmaschinen wie Google, Bing und Co. erreichen. Rufen sie eine Webseite über Backlinks auf, ist die Rede von Referral Traffic. Wenn die Nutzer/-innen nach Informationen auf einer bestimmten Webseite suchen, dann können sie deren URL direkt eingeben. In diesem Fall spricht man von Direct Traffic. Darüber hinaus gelangen die Nutzer/-innen zu einer Webseite über soziale Netzwerke. Dabei handelt es sich um Social Traffic.

    Organischer Traffic als Ranking-Faktor
    Organischer Traffic zeigt auf, wie beliebt und relevant eine Webseite für die Nutzer/-innen ist. Hier gilt die folgende Regel: Je mehr organische Aufrufe eine Webseite über Suchmaschinen und Backlinks aufweist, desto höher ist deren Autorität auf einem bestimmten Themengebiet. Dies überträgt sich auf die Bewertung einer Webseite durch Google, Bing und Co. Der Webcrawler erkennt, dass eine Webseite über eine stabil wachsende Anzahl von organischen Aufrufen verfügt und belohnt diese mit einer entsprechend guten Position auf Suchergebnisseiten (SERPs).

    Wichtige Maßnahmen auf einen Blick

    Organischer Traffic bedarf einer ausgewogenen Balance zwischen der OnPage und OffPage Optimierung. Während die OnPage Optimierung innerhalb einer Webseite erfolgt, bezieht sich die OffPage Optimierung auf Maßnahmen, die außerhalb einer Webseite ergriffen werden. Dabei sind die folgenden Aspekte zu berücksichtigen:

    • Zielgruppe: Organischer Traffic lässt sich effektiver erreichen, wenn eine Webseite auf die Bedürfnisse und Erwartungen der eigenen Zielgruppe abgestimmt ist. Die Webinhalte sollten nicht nur themenrelevant sein, sondern auch optisch ansprechend wirken. Auch den richtig eingesetzten Keywords kommt eine wichtige Bedeutung zu.
    • Unique Content: Organischer Traffic wird durch einzigartige Webinhalte begünstigt, indem sie zugleich Voraussetzung für eine gute Suchmaschinenplatzierung darstellen. Der Grad an Einzigartigkeit von eigenen Webinhalten lässt sich mit Hilfe von WDF*IDF Formel ermitteln. Des Weiteren liefert die semantische Analyse wertvolle Anhaltspunkte.
    • Organische Backlinks: Sie sind ein Beweis dafür, dass eine Webseite zielgruppenrelevante und einzigartige Inhalte bereitstellt. Organische Backlinks gehen mit organischem Traffic Hand in Hand. Sie begünstigen natürlich eingehende Aufrufe einer Webseite durch Erwähnungen und Empfehlungen sowie bieten den Nutzer/-innen einen Mehrwert.
    • Usability und User Experience: Organischer Traffic hängt mit der Benutzerfreundlichkeit und einem positiven Benutzererlebnis eng zusammen. Aus diesem Grund ist es wichtig, eine Webseite so aufzubauen, dass sich die Nutzer/-innen leicht zurechtfinden und alle Inhalte ohne technische Störungen oder Verzögerungen aufrufen können.

    Schlusswort

    Organischer Traffic erfordert eine strategisch geplante und langfristig angelegte OnPage und OffPage Optimierung, die auf Nutzerbedürfnisse und Suchalgorithmen abgestimmt ist. Aus SEO-Sicht stellt organischer Traffic eine wichtige Leistungskennzahl (engl. Key Performance Indicator) dar, die den Gesamterfolg einer Webseite schnell erfassen lässt.

P

  • Definition und Hauptaufgabe

    Der Begriff “Page Authority” kommt aus dem Englischen und lässt sich mit “Seitenautorität” übersetzen. Es handelt sich hierbei um eine Kennzahl aus dem Fachbereich Suchmaschinenoptimierung (kurz: SEO). Die Page Authority wurde vom US-amerikanischen SEO-Unternehmen Moz entwickelt und ähnelt vom Konzept her Domain Rating von Ahrefs sowie PageRank von Google. Sie ist von der Kennzahl Domain Authority zu unterscheiden, weil sie sich nicht auf die ganze Domain, sondern auf die einzelnen Unterseiten bezieht.

    Die Aufgabe von Page Authority ist es, das Ranking der einzelnen Unterseiten in den Suchmaschinen wie Google, Bing und Co. abzuschätzen. Dabei bedient sie sich einer numerischen Skala von 1 bis 100. Hier gilt die folgende Regel: Je höher der Scorewert, desto höher ist auch die Chance, oben auf den Suchergebnisseiten (SERPs) platziert zu werden. An dieser Stelle ist anzumerken, dass die Page Authority einen relativen Wert anzeigt, den es mit mehreren Unterseiten zu vergleichen gilt, um so Rückschlüsse ziehen zu können.

    Bedeutende Einflussfaktoren

    Nach Angaben von Moz werden mehr als vierzig Faktoren bei der Berechnung des Scorewertes berücksichtigt. Dabei bleiben sie nicht konstant, sondern unterliegen einer ständigen Aktualisierung. Der Aktualisierungsprozess wird durch die Künstliche Intelligenz (KI) unterstützt. Die Idee dahinter ist, die Platzierung in den Suchmaschinen möglichst exakt vorherzusagen und auf mögliche Schwankungen im Zeitverlauf aufmerksam zu machen. Eine hohe Page Authority bedarf einer guten Suchmaschinenoptimierung. Diese umfasst:

    • OnPage Optimierung: Die Suchmaschinen errechnen die Page Authority anhand unterschiedlicher Leistungskennzahlen (engl. Key Performance Indicators). Dazu zählen unter anderem KeywordsALT-Tags, Seitenaufrufe, Verweildauer sowie Absprungrate. Sind die einzelnen Unterseiten auf struktureller, technischer und inhaltlicher Ebene gut optimiert, steigt die Chance, von Webcrawlern positiv bewertet zu werden. Eine hohe Page Authority deutet an, dass die Unterseiten bei Suchmaschinen und Nutzer/-innen ein großes Vertrauen genießen.
    • OffPage Optimierung: Die Suchmaschinen berücksichtigen die eingehenden Links (sog. Backlinks) bei der Bewertung der einzelnen Unterseiten. Dabei steht nicht die Anzahl von Backlinks, sondern deren Qualität im Vordergrund. Anders gesagt, eine hohe Page Authority setzt hochqualitative Backlinks voraus. Diese sollten zum einen eine hohe Themenrelevanz aufweisen, zum anderen von Seiten stammen, die über einen hohen PageRank verfügen. Backlinks aus einer schlechten Nachbarschaft (engl. Bad Neighbourhood) bringen mehr Schaden als Nutzen.

    Zwei Nutzungsmöglichkeiten

    Die Kennzahl Page Authority von Moz lässt sich auf zwei verschiedene Weisen verwenden: Einerseits erlaubt sie den Webmastern, auf laufender Basis zu überprüfen, ob Suchmaschinen und Nutzer/-innen die einzelnen Unterseiten als vertrauenswürdig und themenrelevant einstufen. Andererseits dient die Page Authority als wertvolles Hilfsmittel zur kontinuierlichen Bewertung von Backlinks. Erweisen sich bestimmte Links als schädlich für die einzelnen Unterseiten, empfiehlt es sich, diese rechtzeitig für ungültig zu erklären.

  • Definition

    Der Begriff “Page Speed” kommt aus dem Englischen und lässt sich mit “Geschwindigkeit einer Webseite” übersetzen. Genauer gesagt handelt es sich dabei um die Ladezeit einer Webseite. Diese definiert sich als Zeitraum zwischen dem Absenden einer Anfrage und dem Erhalt der angefragten Webinhalte. Hier gilt der Grundsatz: Je schneller eine Webseite lädt, desto höher ist die Konversionsrate.

    Diesbezüglich stellt sich die Frage, wann eine Webseite langsam oder schnell ist: Die Google Search Console nimmt an, dass eine Webseite, die länger als 3 Sekunden lädt, für die Nutzer/-innen als langsam gilt. Eine durchschnittliche Ladezeit beträgt zwischen 1,5 und 3 Sekunden. Daraus lässt sich schließen, dass eine schnelle Webseite weniger als 1,5 Sekunden benötigt, um die angefragten Inhalte anzuzeigen.

    Hauptgründe für langsamen Page Speed

    Die Gründe für eine langsame Ladezeit können unterschiedlich sein: Große Bilder, träge Datenbanken, lange Serverantwortzeiten, fragmentiertes JavaScript, überflüssiger Quellcode und zu viele CSS-Dateien haben einen negativen Einfluss auf Page Speed. Daraus folgt, dass die Ladezeit einerseits an der Programmierung einer Webseite und andererseits am Server (besonders am Shared Hosting) liegen kann.

    An dieser Stelle ist zu erwähnen, dass jede Webseite anders ist, selbst wenn sie auf der gleichen CMS-Version basiert. Der Grund dafür ist, dass jede Webseite unterschiedliche Arten von Inhalten verwendet, die einen Einfluss auf die Ladezeit haben. So können neben großen Bildern auch intern gehostete Videos zur Verlangsamung einer Webseite führen. Des Weiteren beeinflussen Plugins und Themes die Geschwindigkeit.

    Page Speed als wichtiger Ranking-Faktor

    Seit 2010 stellt Page Speed für Google einen bedeutenden Ranking-Faktor dar. Die größte Suchmaschine der Welt begründet diese Entscheidung auf folgende Weise: Die Ladezeit einer Webseite wirkt sich auf die Benutzerfreundlichkeit (engl. Usability) und ein gesamtes Nutzererlebnis (engl. User Experience) aus. Dabei gilt: Je schneller eine Webseite ist, desto zufriedener sind auch die Nutzer/-innen.

    In diesem Zusammenhang ist es wichtig zu betonen, dass sich eine hohe Usabillity und User Experience auf die Konversionrate überträgt. Diese ist für eine E-Commerce Webseite von entscheidender Bedeutung. Lädt ein Onlineshop zu langsam, besteht die Gefahr, dass potenzielle Kunden/-innen den Kaufprozess abbrechen und zur Konkurrenz wechseln. Im Fall von Mobile Shopping sind die Absprungraten besonders hoch.

    Mögliche Handlungsfelder auf einen Blick

    Um die Ladezeit an verschiedenen Stellen einer Webseite zu optimieren, empfehlen sich unter anderem die folgenden Maßnahmen:

    • Optimierung von Bildern und intern gehosteten Videos
    • Optimierung von Programmcode beispielsweise mit dem Plugin Autoptimize
    • Verwendung von gZip zur Komprimierung einer Webseite
    • Verwendung von asynchronem JavaScript
    • Verwendung von Content Delivery Networks
    • Reduzierung von Serverantwortzeiten
    • Entfernung überflüssiger Social Plugins
    • Nutzung von Lazy Load
    • Nutzung von Caching und Verkürzung der Ladezeit mit dem Zwischenspeicher
    • Deinstallation nicht benötigter Plugins und Themes

    Analysetools

    Google stellt ein eigenes Tool zur Analyse und Optimierung der Ladezeit einer URL bereit. Hier ist die Rede von Google PageSpeed Insights. Dieses Tool untersucht den Aufbau von HTML-, CSS- und JavaScript-Dateien. Darüber hinaus analysiert Google PageSpeed Insights die Caching-Vorgaben des Webservers sowie die Integration von Bildern ohne Interlacing. Nach der Analyse weist das Tool auf Verbesserungspotenziale hin.

R

  • Definition

    Der Begriff “Redirect” kommt aus dem Englischen und lässt sich mit “Umleitung” übersetzen. Es handelt sich hier um die Funktion eines Servers oder Clients, die Besucher/-innen einer Webseite automatisch auf eine andere URL umzuleiten. Ein Redirect dient verschiedenen Zielen: Zum einen kann die Umleitung mit dem Umzug einer Webseite auf eine neue Domäne zusammenhängen. Zum anderen findet sie im Rahmen von Serverwartungen praktische Verwendung. Weil ein Redirect automatisch erfolgt, wird er von den Nutzer/-innen kaum wahrgenommen.

    Ein Redirect erlaubt es, tote Links und damit einhergehend den 404-Fehler zu vermeiden. Zudem verhindert dieses Verfahren die Entstehung von Duplicate Content. Dies hat zum Vorteil, dass einerseits das Ranking einer Webseite in den Suchmaschinen wegen Duplicate Content nicht benachteiligt wird und andererseits die Benutzerfreundlichkeit (engl. Usability) erhalten bleibt. Die Nutzer/-innen einer Webseite fühlen sich nicht verwirrt und können ohne störende Unterbrechung die angefragten Webinhalte gemäß ihrer Erwartungen konsumieren.

    Wichtige Redirect-Techniken

    • Serverseitige Redirects: Diese Formen der Umleitung bestehen darin, dass auf dem Server ein Umleitungsbefehl in der Datei htaccess hinterlegt wird. Nachdem die Nutzer/-innen eine Webseite aufrufen, leitet der Server sie sofort zu einer neuen Ziel-URL weiter. Dabei bietet der 301-Redirect eine dauerhafte Umleitung. Der 302-Redirect diente in der http Version 1.0 dazu, eine Webseite temporär umzuleiten. Der 307-Redirect eignet sich vor allem für kurzfristige Umleitungen im Rahmen von Serverwartungen.
    • Clientseitige Redirects: Diese Formen der Umleitung erfordern keine Änderung am Server, denn die Umleitung wird direkt im Quellcode einer Webseite hinterlegt. Aus SEO-Sicht sind sie nicht empfehlenswert. Hier bieten sich vor allem Meta-Refresh und JavaScript an. Bei der ersten Technik wird der Browser von den Nutzer/-innen aufgefordert, nach dem Aufruf einer Webseite direkt eine neue Ziel-URL aufzurufen. Die zweite Technik ist problematisch, weil die Suchmaschinen diese als Cloaking interpretieren.

    Vorteile von Redirect auf SEO

    Ein Redirect hat einen positiven Einfluss auf die Suchmaschinenoptimierung (kurz: SEO). Sein großer Vorteil liegt vor allem darin, dass er den PageRank nicht benachteiligt. Außerdem schafft die Umleitung einer Webseite die Möglichkeit dazu, sowohl tote Links als auch Duplicate Content mit einer sinnvollen 301-Umleitung vorzubeugen. Ein Redirect wirkt sich ebenfalls positiv auf die Benutzerfreundlichkeit und ein gesamtes Benutzererlebnis aus, was sich wiederum auf die Positionierung einer Webseite in den Suchmaschinen wie Google und Co. überträgt.

    Um langfristige Vorteile von Redirect zu genießen, müssen die Webmaster mögliche Stolperfallen frühzeitig erkennen und beseitigen. Die Verwendung von überflüssigen Weiterleitungen kann eine Gefahrenquelle sein, weil sie die Leistung einer Webseite beeinträchtigt. Des Weiteren ist es wichtig, Weiterleitungsketten, die durch eine Kombination mehrerer Redirects entstehen, zu vermeiden. Gleichzeitig gilt es zu beachten, dass Google ab einer gewissen Menge Redirects nicht mehr folgen kann. Dies resultiert darin, dass der Crawler einen Fehler erhält.
  • Definition

    Rich Snippets sind eine erweiterte Form von Snippets, die neben Titel, Beschreibung und URL zusätzliche Informationen anzeigen. Dies können beispielsweise Abbildungen, Bewertungssterne, Preisangaben und Verlinkungen sein. Aus technischer Sicht betrachtet, stammen diese zusätzlichen Informationen von strukturierten Daten auf einer Webseite. Sie lassen sich mit Hilfe einer bestimmten Formatierung im Quellcode markieren und auf Suchergebnisseiten (SERPs) besonders hervorheben.

    Dies ist auch der Grund, weshalb Rich Snippets auf die Nutzer/-innen der Suchmaschinen wie Google und Co. visuell ansprechend wirken. Eine weitere wichtige Aufgabe von Rich Snippets ist es, den Nutzer/-innen einen Vorschau auf das Suchergebnis zu bieten. So können potenzielle Besucher/-innen einer Webseite schnell herausfinden, ob das Suchergebnis eine thematische Relevanz aufweist und einen Mehrwert liefert. Folglich können Rich Snippets die Durchklickrate erhöhen.

    Vorgehensweise in zwei Schritten

    Es bedarf zweier Schritte, um Rich Snippets in den Suchergebnissen richtig darzustellen. Erstens müssen Informationen, die zusätzlich in den Suchmaschinen angezeigt werden, im Quellcode einer Webseite vorhanden sein. Zweitens müssen zusätzliche Informationen entsprechend markiert werden. Beides geschieht in folgender Weise:

    • Festlegung von Auszeichnungssprache: Dafür bieten sich drei Möglichkeiten an: Mikroformate, Mikrodaten und RDFa. Alle drei werden von Google akzeptiert. Hier ist es wichtig anzumerken, dass die Implementierung von Rich Snippets im Quellcode einer Webseite HTML-Kenntnisse erfordert.
    • Auszeichnung von Informationen: Google unterstützt verschiedene Arten von zusätzlichen Informationen, die in Form von Rich Snippets eingeblendet werden können. Diese umfassen neben oben erwähnten speziellen Elementen auch Veranstaltungen, Produkte, Rezepte, Musik, Videos etc.

    Rich Snippets als Ranking-Faktor

    Rich Snippets wirken sich auf die Sichtbarkeit von Suchergebnissen positiv aus. Sie wecken bei den Nutzer/-innen großes Interesse, indem sie gleichzeitig dazu animieren, ein bestimmtes Suchergebnis anzuklicken. Die Durchklickrate (engl. Click Through Rate) fließt für die Bewertung einer Webseite und deren Platzierung in den Suchmaschinen mit ein. Daraus lässt sich schlussfolgern, dass Rich Snippets eine wesentliche Bedeutung für die Suchmaschinenoptimierung (kurz: SEO) haben und zum Google-Ranking beitragen.

    Rich Snippets versus Rich Results

    Diese zwei Begriffe werden häufig verwechselt und können für die Verwirrung sorgen. Allerdings gibt es einen wichtigen Unterschied zwischen Rich Snippets und Rich Results. Wie bereits angedeutet, lassen sich Rich Snippets als zusätzliche Informationen definieren, die klassische Snippets ergänzen und Suchergebnisse visuell hervorheben. Demgegenüber sind Rich Results als Oberbegriff für Rich Snippets anzusehen, weil sie jede Art von erweiterten Informationen umfassen. Beide setzen die relevanten strukturierten Daten voraus.
  • Mit der robots.txt steuern Webseitenbetreiber das Verhalten der Suchmaschinen-Bots auf ihren Seiten. Die Textdatei ist eine Art Handlungsanweisung für die Crawler von Google, Bing & Co. und beeinflusst, welche Teile der Webseite von ihnen indexiert werden.

    Funktionsweise der robots.txt

    Die robots.txt ist die erste Anlaufstelle für die Crawler der Suchmaschinen. Sind sie auf einer Webseite angekommen, durchsuchen sie diese nach der Datei und lesen ihren Inhalt aus. Um gefunden zu werden, muss sie im Stammverzeichnis der Webseite hinterlegt sein. Sie kann Anweisungen zum Ausschluss bestimmter Teile – wie beispielsweise dem Admin-Bereich in WordPress – der Webseite enthalten. Ob sich der Bot bei seinen Aktivitäten an die Befehle hält, ist ihm überlassen. Die Crawler von Google und Bing halten sich jedoch an die Hinweise in der robots.txt.

    Vorteile der robots.txt

    Die Teile der Webseite, die durch die Anweisungen der robots.txt vom Zugriff der Crawler ausgeschlossen sind, erscheinen nicht im Index der jeweiligen Suchmaschine. Mit einer sorgfältigen Gestaltung der Datei steuert der Webseitenbetreiber die Bots der Suchmaschinen gezielt über seine Seite. Er kann ihre Aufmerksamkeit auf relevante Inhalte lenken und einzelne Dokumente in einem Verzeichnis sowie gesamte Verzeichnisse „verstecken“. Betreiber umfangreicher Internetseiten – wie große Online-Shops – nutzen diese Vorgehensweise hauptsächlich, um Duplicate Content zu verbergen.

    Herausforderungen der robots.txt

    Die Erstellung der Datei erfordert keine tiefen IT-Kenntnisse. Sie kann unkompliziert im Texteditor erfolgen. Dennoch kann eine fehlerhafte Formulierung zum Ausschluss der gesamten Webseite aus dem Index der Suchmaschinen führen. In diesem Fall wird sie nicht in den Suchergebnissen angezeigt. Zudem unterliegt die Wirksamkeit der robots.txt Grenzen: obwohl sich Google, Bing und Yahoo an die Anweisungen halten, ist dies nicht bei jedem Bot der Fall. Darüber hinaus kann eine durch die Datei ausgeschlossene Seite die Aufmerksamkeit der Suchmaschinen dennoch auf sich ziehen und eine Indexierung erhalten. Dies ist zum Beispiel der Fall, wenn mehrere Backlinks auf sie verweisen.

    Bearbeitung der robots.txt

    In WordPress helfen spezielle Plug-ins bei der Erstellung und Gestaltung der Datei. Alternativ kann dies über den Server der Domain erfolgen. Hierfür ist ein FTP-Client – wie FileZilla – erforderlich. Vor der Bearbeitung der Datei ist ein Back-up der Seite von Vorteil, um bei Fehlern unkompliziert zur ursprünglichen Version zurückwechseln zu können. Die Google Search Console enthält eine Anleitung zur Erstellung der Datei für den Google-Bot. Sie ermöglicht auch die Überprüfung der Funktionsweise der robots.txt in Echtzeit.

    Bedeutung der robots.txt für die Suchmaschinenoptimierung

    Für die SEO spielt die robots.txt eine tragende Rolle. Sie kann das Verhalten der Suchmaschinen-Bots – und somit die Indexierung – steuern. Dies erlaubt Webseitenbetreibern die Hervorhebung relevanter Teile ihrer Webseite bei gleichzeitigem Ausschluss von sensiblen und irrelevanten Inhalten. Eine falsche Gestaltung der Datei hingegen kann die Indexierung der gesamten Webseite verhindern und zum Ausschluss aus den Suchergebnissen führen. Die Reihenfolge auf der Suchergebnisseite beeinflusst die robots.txt jedoch nicht. Webseitenbetreiber müssen auf die übrigen Disziplinen der SEO – wie Content Marketing und Targeting – zurückgreifen, um eine vordere Platzierung zu erzielen.

S

  • Die semantische Analyse stammt aus der Sprachwissenschaft. Sie untersucht den Bedeutungszusammenhang eines Wortes. Suchmaschinen verwenden die Methoden der semantischen Analyse, um den Nutzern passende Suchergebnisse anzuzeigen. Für Webseitenbetreiber spielt sie daher im Rahmen der Suchmaschinenoptimierung eine wichtige Rolle.

    Die semantische Analyse der Suchmaschinen

    Google hat den Anspruch, seinen Nutzern personalisierte Suchergebnisse zu liefern. Um das zu erreichen, muss der Algorithmus die Intention des Suchenden erkennen und die Inhalte von Webseiten richtig analysieren. Auf diese Weise führt die Suchmaschine den Fragenden (den Nutzer) und den Informationslieferant (den Webseitenbetreiber) zusammen.

    An beiden Enden nutzt das automatisierte System der Suchmaschinen die semantische Analyse. Heutzutage gleicht der Algorithmus den Suchbegriff nicht nur mit den Keywords auf einer Webseite ab. Vielmehr interpretiert er die Suchanfrage. Dies ist vor allem bei gleichen Worten mit unterschiedlicher Bedeutung – sogenannten Homonymen – und bei unspezifischen Anfragen von Bedeutung, um passende Ergebnisse anzeigen zu können.

    Semantische Analyse der Suchanfrage

    Um die Suchintention richtig interpretieren zu können, greift Google auf das Webprotokoll des Nutzers zurück. Zudem fließen vergangene Klicks in der Suchmaschine in die semantische Analyse ein.

    Ein Beispiel: Eine Person gibt auf Google den Begriff „Gesichtsmaske“ ein. Hierbei handelt es sich um ein Homonym, dass sich auf eine Mund-und-Nasen-Bedeckung oder eine kosmetische Pflegemaske beziehen kann.

    Hat die Person zuvor beispielsweise nach Informationen zur Pandemie gegoogelt, ordnet die Suchmaschine die Suche nach dem Wort „Gesichtsmaske“ diesem Themengebiet zu. Folglich zeigt sie Mund-und-Nasen-Bedeckungen in den Suchergebnissen an. Bestanden die früheren Anfragen des Nutzers hingegen vermehrt aus Begriffen wie „Make-up“ und „Schönheitspflege“, nimmt Google dies als Basis für die Ergebnisse.

    Semantische Analyse der Webseite

    Die Intention des Nutzers ist nur ein Teil der semantischen Analyse durch Google. Am anderen Ende wendet die Suchmaschine dieselbe Methode zur Auswertung des Inhalts von Webseiten an. Der Algorithmus wertet den tieferen Sinn des Contents aus, um die Relevanz für die Suchanfrage einzuschätzen. Decken sich die semantischen Begriffe der Webseite mit denen der Suchanfrage, erscheint die Seite auf den vorderen Plätzen der Suchergebnisseite.

    Semantische Analyse und SEO

    Webseitenbetreiber setzen auf Suchmaschinenoptimierung (SEO), um eine gute Platzierung in den Suchmaschinen zu erzielen. Der Algorithmus von Google & Co. nutzt unter anderem die Auswertung des Bedeutungszusammenhangs für die Einteilung des Rankings. Aus diesem Grund entwickelte sich die semantische Analyse zum wichtigen Teilgebiet der SEO.

    Eine Keywordanalyse durchzuführen und die eigene Seite mit erfolgversprechenden Schlüsselwörtern zu überladen, reicht für eine gute Platzierung nicht mehr aus. Den Keywords muss durch themenverwandte Begriffe eine tiefere Bedeutung zugeteilt werden. Diese müssen gleichmäßig auf der Seite verteilt sein und sich auch in den Metadaten sowie den Namen der Bilddateien wiederfinden.

    Ist das Keyword beispielsweise „Proteinpulver“ wären „Sport“, „Fitness“, „Muskelaufbau“, „Lifestyle“ oder „Ernährung“ semantische Begriffe. Diese sogenannte Begriffswolke macht dem Algorithmus der Suchmaschinen deutlich, um was es auf der Webseite im Detail geht.

    Anwendung der semantischen Analyse

    Für die Optimierung des Inhalts steht Webseitenbetreibern die WDF*IDF-Formel (Within Document Frequency & Inverse Document Frequency) zur Verfügung. Sie untersucht den Textinhalt gut rankender Seiten zu einem bestimmten Keyword auf häufig vorkommende Begriffe. Die Ergebnisse dienen als Basis für die Anpassung des Contents auf der eigenen Webseite.

    Dieses Vorgehen lohnt sich nicht nur in puncto SEO. Die semantische Analyse erleichtert auch die Themenfindung für Blog-Beiträge und dient als Inspirationsquelle für die Suche nach passenden Kooperationspartnern.

  • Bei SERP handelt es sich um die Abkürzung des Begriffs Search Engine Result Page. Er bezieht sich auf die Ergebnisseite, die dem Nutzer nach Eingabe eines Suchbegriffs auf Google & Co. angezeigt wird. Für Webseitenbetreiber ist es von großer Bedeutung, einen vorderen Platz auf der SERP zu erzielen.

    Geschichte der SERP

    Die Suchergebnisse waren zu Beginn der 2000er wenig spezifisch. Nach Eingabe eines Suchbegriffs erhielten damals alle Nutzer dieselben Ergebnisse – die Verwendung derselben Länderversion vorausgesetzt. Seit dieser Zeit hat sich vor allem bei Google viel verändert.

    Ausschlaggebend für die Festlegung der Reihenfolge auf der SERP ist der automatisierte Algorithmus der Suchmaschinen. Er bewertet den Inhalt von Webseiten und entscheidet, ob dieser im Rahmen der Suchanfrage relevant ist. Um die Qualität der Ergebnisse für die Nutzer zu verbessern, hat Google seinen internen Algorithmus kontinuierlich angepasst. Mittlerweile fließen mehr als 100 Faktoren in die Positionierung auf der SERP ein.

    Funktionsweise der SERP

    Das eingegebene Wort beziehungsweise die Wortkombination dient als Ausgangspunkt für die Algorithmen der Suchmaschinen. Sie durchsuchen Millionen von Internetseiten nach Schlüsselwörtern, die zur Suchanfrage passen. Anschließend präsentieren sie die Ergebnisse in einer bestimmten Reihenfolge.

    Für die Positionierung – das sogenannte Ranking – greift der Algorithmus auf mehrere Bewertungskriterien zurück. Seit dem Panda-Update im Jahr 2011 spielt der inhaltliche, technische und strukturelle Aufbau einer Internetseite eine große Rolle für das Ranking. Seiten mit einzigartigen und qualitativ hochwertigen Inhalten, kurzen Ladezeiten sowie einer bestimmten Keyword-Dichte werden bevorzugt behandelt. Sie belegen die vorderen Plätze auf der SERP.

    Neben diesen Aspekten wirken sich das Vorhandensein einer SSL-Verschlüsselung zur sicheren Datenübertragung, eine geringe Absprungrate sowie eine große Anzahl an authentischen Backlinks positiv auf die Platzierung aus. Über die genaue Gewichtung der einzelnen Faktoren schweigen die Suchmaschinen.

    Aufbau der SERP

    In der Regel besteht die erste Seite der SERP aus zehn Suchergebnissen. Jedes Ergebnis wird mit einer Überschrift, einem Link und einer kurzen Inhaltsvorschau (Snippet) präsentiert. Google experimentiert regelmäßig mit dem visuellen Aufbau der SERP und seinem internen Algorithmus, sodass sich die Reihenfolge der angezeigten Suchergebnisse stetig ändert.

    Unter den Suchmaschinen versteht sich vor allem Google als Dienstleister, der den Nutzen für die Besucher in den Mittelpunkt stellt. Je nach Suchbegriff erscheint auf der ersten Seite eine Auswahl regionaler Anbieter, ein Karussell aus mehreren YouTube-Videos oder ein sogenannter Knowledge-Graph. Letzterer fasst wichtige Daten zum Thema am rechten Bildschirmrand zusammen und erscheint häufig bei der Suche nach einer berühmten Person oder einem geschichtlichen Ereignis.

    Bedeutung der SERP

    Laut Untersuchungen entfallen rund 90 % aller Klicks auf die erste Seite der SERP. Um hohe Besucherzahlen zu generieren ist es daher wichtig, in den Top 10 der Suchergebnisse zu landen. In diesem Rahmen hat sich das Teilgebiet der Suchmaschinenoptimierung als eigenständige Disziplin des Online-Marketings entwickelt. Sie optimiert die inhaltlichen und technischen Komponenten der Webseite, um vom Algorithmus als hochwertig eingestuft und bevorzugt angezeigt zu werden.

    Einflussfaktoren für die SERP

    Die ersten drei Plätze in den Suchergebnissen sind bezahlten Werbeanzeigen vorbehalten. Somit kann – trotz erstklassiger SEO – aus dem ersten Platz der vierte werden. Bei der lokalen Suche kann die Anzeige regionaler Anbieter die eigene Position zusätzlich nach hinten verschieben. Ob eine bezahlte Werbeanzeige erfolgversprechender ist als gezielte SEO, muss im Einzelfall analysiert werden. Hierfür stehen spezielle Tools zur Verfügung.

     
  • Social-Media-Marketing ist ein Teilgebiet des Online-Marketings. Es beschreibt das Marketing über die sozialen Medien wie Facebook, Instagram und Twitter. Das Social-Media-Marketing spielt für Unternehmen in puncto Reichweite, Kundenbindung und Suchmaschinenoptimierung eine Rolle.

    Die Entwicklung des Social-Media-Marketings

    Die sozialen Netzwerke starteten als virtuelle Plattformen, auf denen sich Privatpersonen untereinander austauschten. In den Folgejahren verzeichneten sie einen rasanten Anstieg der Nutzerzahlen. Schnell erkannten Experten die Relevanz von Facebook, Twitter & Co. für die Marketingstrategien von Unternehmen. Sie boten Anbietern jeder Größer und Branche leichten Zugang zu ihrer jeweiligen Zielgruppe. Dies begründete den Beginn des Social-Media-Marketings, das heutzutage ein fester Bestandteil der digitalen Marketingstrategie von Unternehmen ist.

    Ziele des Social-Media-Marketings

    Das Social-Media-Marketing soll zunächst die Reichweite des Unternehmens erhöhen und neue Kundengruppen erreichen. Im Idealfall mündet dies in der Gewinnung von Interessenten (Leadgenerierung), die zu zahlenden Kunden umgewandelt werden. Nicht zuletzt sind die sozialen Netzwerke eine wichtige Wissensquelle und helfen den Anbietern, die Wünsche, Bedürfnisse und Ansprüche ihrer Zielgruppe besser zu verstehen.

    Die Präsenz auf Facebook, Twitter oder Instagram dient Unternehmen auch als Mittel zur Kundenbindung. Sie erlaubt den interaktiven Austausch mit den Kunden. Diese können Fragen stellen und erhalten – im besten Fall binnen Minuten – eine individuelle Antwort. Sie fühlen sich wertgeschätzt und bedanken sich mit Loyalität und Vertrauen.

    Strategien des Social-Media-Marketings

    Die Wahl des Netzwerks sollte sich an der von der Zielgruppe bevorzugten Plattform orientieren. Anbieter mit einer jungen Zielgruppe kommen an Tik Tok und Snapchat nicht vorbei, während ältere Kunden sich vorzugsweise auf Facebook tummeln. Eine allgemeine Erfolgsstrategie für das Social-Media-Marketing gibt es somit nicht. Sie hängt maßgeblich von der Zielgruppe, der Branche sowie den Zielen des Unternehmens ab und muss im Einzelfall festgelegt werden.

    Formen des Social-Media-Marketings

    Die folgenden drei Formen haben sich in den vergangenen Jahren entwickelt:

    Bezahlte Werbeanzeigen

    Optisch ähneln sie nutzergenerierten Inhalten und werden von der Zielgruppe daher nicht als invasive Werbung empfunden. Die Abrechnung erfolgt auf Facebook, Instagram & Co. nicht pro Klick, sondern per Festpreis.

    Influencer-Marketing

    Hierbei greifen Unternehmen auf Nutzer mit einer hohen Anzahl an Abonnenten als Werbefiguren zurück, um ihre Reichweite zu erhöhen. Dieser Ansatz hat in den vergangenen Jahren an Bedeutung zugenommen.

    Eigene Inhalte

    Diese Form des Social-Media-Marketing rückt selbst erstellten Content in den Vordergrund. Ansprechende, relevante und/oder humorvolle Inhalte können zu Viral-Marketing führen, bei dem Nutzer die Beiträge eines Unternehmens aufgrund ihrer Nützlichkeit eigenständig weiterverbreiten. Ein wichtiger Punkt für organisches Wachstum in den sozialen Netzwerken.

    Die drei Formen des Social-Media-Marketings werden in der Regel miteinander kombiniert. Der Bereich unterliegt einer stetigen Weiterentwicklung, sodass diese Art des Marketings Unternehmen viel Flexibilität und Spontaneität abverlangt.

    Social-Media-Marketing und SEO

    Das Social-Media-Marketing hat eine große Bedeutung für die Suchmaschinenoptimierung. Richtig eingesetzt führt es zu einer höheren Klickrate und einer höheren Verweildauer auf der Webseite des Anbieters. Diese zwei Indikatoren bewertet der Algorithmus der Suchmaschinen als positiv. Die Webseite wird als nützlich eingestuft und folglich auf den vorderen Plätzen der Suchergebnisseite angezeigt.

    Des Weiteren greifen Google & Co. auf sogenannte Social Signals zurück. Weisen die Social-Media-Accounts eines Anbieters eine hohe Interaktionsrate – das bedeutet viele Kommentare und Likes – auf, ist auch dies für den Algorithmus ein Anzeichen für qualitativ hochwertige Inhalte. Das Social-Media-Marketing ist somit ein elementarer Bestandteil einer erfolgreichen Suchmaschinenoptimierung.

  • Der Begriff „sprechende URL“ beschreibt eine URL, die keine kryptischen Zeichen enthält. Stattdessen besteht die Adresse der Webseite aus relevanten Keywords, die einen Hinweis auf den Seiteninhalt geben. Eine sprechende URL ist für die Nutzerfreundlichkeit und für das Ranking in den Suchmaschinen von Bedeutung.

    Beispiel einer sprechenden URL

    Beim Anlegen einer Seite erhält diese eine Bezeichnung, die ihren Inhalt präzisiert. Diese genauere Bezeichnung ist für den Browser leicht lesbar und führt den Besucher auf den entsprechenden Inhalt. Für menschliche Nutzer ist sie hingegen nicht zu entziffern. Ein Beispiel für eine herkömmliche URL ist:

    www.tierfutter.de/pg12456%20/78

    Der Nutzer kann anhand der Bestandteile nicht abschätzen, welcher Inhalt ihn beim Anklicken des Links erwartet. Anders ist es bei einer sprechenden URL, die folgendermaßen aussehen könnte:

    www.tierfutter.de/zubehör/hundehalsband

    Bei dieser Variante ist auf einen Blick erkennbar, auf welchen Teil der Webseite die Verlinkung verweist. Die URL „spricht“ somit zum Nutzer.

    Vorteile einer sprechenden URL

    Vertrauen aufbauen

    Bei einer sprechenden URL erkennt der Nutzer sofort, um was es auf der jeweiligen Seite geht. Angelehnt an das obige Beispiel ist sofort ersichtlich, dass ein Anklicken des Links zu einer Auswahl an Hundehalsbändern führt. Dies ist nicht nur optisch schöner, sondern baut auch Vertrauen auf. Menschen klicken nicht gerne auf Links zu Webseiten, deren Inhalt sie vorab nicht einschätzen können.

    Backlink mit Keyword

    Verlinkt eine Person die Webseite, enthält der Name des Links relevante Keywords. Dies animiert die Betrachter – beispielsweise die Mitglieder eines Forums oder die Leser eines Blog-Beitrags – zum Anklicken der Verlinkung. Dank der sprechenden URL können sie ohne Recherche einschätzen, ob es sich um einen nützlichen Link oder um Spam handelt.

    Anzeige im Snippet

    Auf der Suchergebnisseite zeigen Google & Co. eine kurze Inhaltsvorschau – ein sogenanntes Snippet – an. Taucht der Suchbegriff des Nutzers im Namen der URL auf, wird dieser von den Suchmaschinen optisch hervorgehoben. Dies kann sich positiv auf die Klickrate auswirken.

    Algorithmus der Suchmaschinen

    Eine sprechende URL ist nicht nur in puncto Nutzerfreundlichkeit von Relevanz. Sie hilft den automatisierten Systemen der Suchmaschinen bei der Einordnung des Inhalts einer Seite. Dies wirkt sich – zusammen mit den Methoden der Suchmaschinenoptimierung – positiv auf das Ranking in den Suchergebnissen aus.

    Konfiguration einer sprechenden URL

    Eine sprechende URL wird durch den Entwickler beziehungsweise über das Content-Management-System erstellt. In WordPress erleichtern spezielle Plug-ins die Konfiguration.

    Bei der Zusammenstellung sollte – in Anbetracht der Lesbarkeit und der Vorgehensweise der Suchmaschinen – auf eine lange Wortkombination sowie eine Überladung mit Schlüsselwörtern (Keyword-Spamming) verzichtet werden. Dies bezieht den Domainnamen mit ein. Ein entsprechendes Negativbeispiel wäre „www.tierfutter.de/tierfutter-futter-fuer-tiere-im-tierfutter-shop“.

    Umlaute sollten vermieden beziehungsweise mit der alternativen Schreibweise verwendet werden. Für die Trennung der einzelnen Wörter bietet sich der Bindestrich an. Um die Lesbarkeit sicherzustellen, sollte auf Sonder- und Leerzeichen verzichtet werden. Letztere werden vom Browser oft als kryptisches Zeichen „%20“ dargestellt, was das eigentliche Ziel der sprechenden URL untergräbt.

  • Der Begriff Suchmaschinenoptimierung stammt aus dem Online-Marketing. In Anlehnung an die englische Bezeichnung Search Engine Optimization wird die Abkürzung SEO synonym verwendet. Die Disziplin beschreibt die inhaltliche und technische Optimierung einer Webseite in Hinblick auf den Algorithmus der Suchmaschinen. Ziel ist es, die Seite auf den vorderen Plätzen der Suchergebnisse zu platzieren.

    Entwicklung der Suchmaschinenoptimierung

    Der Algorithmus der Suchmaschinen wurde im Jahr 1998 von Larry Page und Sergei Brin für Google entwickelt. Schnell witterten Webseitenbetreiber ihre Chance und versuchten, den Algorithmus zu manipulieren. Durch die übermäßige Platzierung von Schlüsselwörtern und das Setzen von Spam-Links auf anderen Webseiten erhofften sie sich eine vordere Platzierung in den Suchergebnissen auf Google, Yahoo und Bing.

    Dem Algorithmus mangelte es damals noch an Feinjustierung, sodass diese Methoden durchaus erfolgreich waren. In diesen Zeiten folgten die Suchmaschinen einem simplen System zur Bewertung von Internetseiten: verweisen viele Backlinks auf eine Webseite und enthält diese eine hohe Anzahl bestimmter Schlüsselwörter, muss dies ein Zeugnis für hochwertige Inhalte sein. Eine trügerische Annahme, die die Qualität der Suchergebnisse massiv in Mitleidenschaft zog.

    Im Zuge der Anti-Spam-Maßnahmen führte Google in den Jahren 2011 und 2012 zwei große Updates durch. Das Panda-Update verschärfte die Ansprüche an den Inhalt einer Webseite, während das Pinguin-Update dem Link-Spamming ein Ende setzte. Dies führte zur Entwicklung der modernen SEO, die auf eine Manipulation der Suchmaschinen verzichtet.

    Herausforderungen der modernen Suchmaschinenoptimierung

    Die Updates zwangen die Webseitenbetreiber, den Mehrwert für die Besucher in den Vordergrund zu stellen. In diesem Zuge gewannen einzigartige Texte als inhaltliche Komponente an Bedeutung. Die Herausforderung der modernen SEO ist es, relevante Keywords in ausreichender Menge zu platzieren, ohne die Leserlichkeit des Textes in Mitleidenschaft zu ziehen. Hinzu kommt die organische Generierung von Backlinks durch qualitativ hochwertige Inhalte.

    Die moderne SEO versucht, die Balance zwischen suchmaschinenoptimierten und benutzerfreundlichen Inhalten zu finden. Durch diese Vorgehensweise soll der Algorithmus der Suchmaschinen zufriedengestellt und eine hohe Qualitätseinstufung (PageRank) erreicht werden.

    Teilgebiete der SEO

    Die Disziplin der Suchmaschinenoptimierung unterteilt sich in zwei Kategorien:

    OnPage-SEO

    Technischer Aspekt

    Dies umfasst die Optimierung der Seitenladegeschwindigkeit, die Wahl eines leistungsstarken Servers sowie die Sicherstellung einer internen Infrastruktur, die der Algorithmus leicht nachvollziehen kann. Diese Faktoren sind unerlässlich, um eine positive Bewertung zu erhalten.

    Inhaltlicher Aspekt

    Dieser Punkt bezieht sich auf die Erstellung von Unique Content und die Implementierung einer sinnvollen HTML-Struktur. In diesem Rahmen spielt auch die Sicherstellung einer intuitiven Navigation auf der Webseite eine wichtige Rolle.

    OffPage-SEO

    Linkmarketing

    Bei diesem Aspekt steht die Generierung von Backlinks im Vordergrund. Sie sind für den Algorithmus nach wie vor ein Indikator für die Qualität eines Inhalts, wobei er seit dem Update authentische Links von gekauften unterscheiden kann. Heutzutage liegt der Fokus daher auf der Bereitstellung nützlicher Inhalte, die von Privatpersonen und/oder thematisch verwandten Online-Magazinen sowie Blogs allein aufgrund ihres Mehrwerts verlinkt werden.

    Ziel der Suchmaschinenoptimierung

    Die vordere Platzierung in den Suchergebnissen soll zu einer steigenden Besucheranzahl auf der Webseite führen und die Verweildauer erhöhen. Das Endziel der Suchmaschinenoptimierung hängt von der Art der Internetseite ab. Online-Shops versprechen sich höhere Absatzzahlen, während Blogs auf die Entstehung einer aktiven Community hoffen.

  • Das Suchvolumen (GMS – Global Monthly Searches) ist ein Wert, mit der die Anzahl der Suchanfragen zu einem bestimmten Wort beziehungsweise einer Wortkombination in einem bestimmten Zeitraum wiedergegeben wird. Sie kann mithilfe von Tools ausgewertet werden und spielt für Webseitenbetreiber im Rahmen der Suchmaschinenoptimierung eine große Rolle.

    Aussagekraft des Suchvolumens

    Die Auswertung des Suchvolumens gibt Hinweise auf die bevorzugten Themenbereiche und Interessenfelder der Nutzer. Ein hohes Suchvolumen deutet auf eine starke Nachfrage hin, während ein niedriger Wert für eine geringe Anzahl an Suchanfragen steht.

    Beim Suchvolumen handelt es sich nicht um eine genaue Zahl, sondern um einen Schätz- beziehungsweise einen Prognosewert. Mehrere Auswertungen desselben Keywords zu verschiedenen Zeitpunkten können unterschiedliche Werte aufweisen. Dies liegt an den Schwankungen, denen die Suchanfragen unterliegen. Sie können saisonal, regional oder temporär bedingt sein. Das Suchvolumen für das Keyword „Weihnachtsgeschenkideen“ ist im Sommer geringer als im Herbst und Winter.

    Auswertung des Suchvolumens

    Für die Auswertung des Suchvolumens stehen Webseitenbetreibern spezielle Tools – wie der Keyword Planner von Google – zur Verfügung. Er ist ohne Registrierung nutzbar und zeigt die Höhe des Suchvolumens im zeitlichen Verlauf an. Zudem erlaubt er das Filtern der Ergebnisse nach dem Zeitraum und der Region der Nutzer. Neben dem überprüften Schlüsselwort zeigt der Google Ads Keyword Planner eine Auswahl an ähnlichen Begriffen an. Dies erlaubt den Einblick in die Interessen der Zielgruppe und kann als Inspirationsquelle für die Optimierung der Inhalte dienen.

    Suchvolumen und Keywords

    Keywords mit einem hohen Suchvolumen weisen eine hohe Nachfrage durch die Nutzer auf. Dies geht mit einem hohen Zulauf (Traffic) zu den Webseiten einher, die diese Schlüsselwörter enthalten. Gleichzeitig sind diese Begriffe hart umkämpft. Mit diesen sogenannten Money- beziehungsweise Brand-Keywords von der Zielgruppe wahrgenommen zu werden, ist schwer.

    Schlüsselwörter mit einem niedrigen Suchvolumen zeichnen sich durch wenig Konkurrenz aus, werden von den Nutzern der Suchmaschinen allerdings seltener gesucht. Dies wirkt sich in der Regel negativ auf den Traffic aus.

    Bedeutung des Suchvolumens für die SEO

    Das Suchvolumen ist ein wichtiger Schätzwert für die Suchmaschinenoptimierung. Er erlaubt die Anpassung der Inhalte an das Suchverhalten der Zielgruppe. Stark umkämpfte Keywords unterliegen einer hohen Nachfrage und versprechen einen hohen Zulauf zur Webseite. Schwache Keywords generieren weniger Traffic. Dennoch ermöglichen sie eine Präzisierung der Inhalte, die für Google & Co. im Rahmen der semantischen Analyse interessant ist.

    In der Praxis hat sich die Kombination aus starken und schwachen Keywords als zielführend erwiesen. Diese Methode kann – in Zusammenarbeit mit den übrigen Disziplinen der SEO – zu einer vorderen Platzierung auf den Ergebnisseiten der Suchmaschinen führen. Das Suchvolumen unterliegt regelmäßigen Schwankungen und bedarf einer fortlaufenden Überwachung, um die Inhalte gegebenenfalls optimieren zu können.

T

  • Targeting (vom englischen „target“; deutsch: Ziel) ist ein Begriff aus dem Online-Marketing. Frei übersetzt bedeutet er soviel wie „Zielgruppenansprache“. Ziel des Targeting ist es, die Werbung exakt auf die Bedürfnisse der Zielgruppe auszurichten. Dies spielt für die Gestaltung bezahlter Anzeigen sowie für die Suchmaschinenoptimierung eine wichtige Rolle.

    Notwendige Daten für das Targeting

    Am Anfang des Targeting steht eine umfangreiche Zielgruppenanalyse. Der Webseitenbetreiber muss die Wünsche, Nöte und Bedürfnisse seiner Zielgruppe kennen, um seine Werbung entsprechend ausrichten zu können. Je besser der Anbieter die Empfänger seiner Werbebotschaft kennt, desto erfolgversprechender ist das Targeting.

    Ein wichtiges Element der Zielgruppenansprache im Internet sind Cookies. Sie werten das Verhalten der Nutzer aus und zeigen ihnen passende Werbeanzeigen an. Eine Vorgehensweise, die durch das überarbeitete Datenschutzgesetz zunehmend erschwert wird und die Entwicklung anderer Methoden vorantreibt.

    Formen des Targeting

    In den vergangenen Jahren haben sich zahlreiche Methoden der Zielgruppenansprache entwickelt:

    Content-Targeting

    Bei dieser Form erfolgt die Einblendung der Werbeanzeigen in Anlehnung an das Thema der Seite. Ein Beispiel ist eine Anzeige für Proteinpulver in einem Blog-Beitrag über die zehn besten Proteinpulver.

    Semantisches Targeting

    Hier orientiert sich die Platzierung der Werbeanzeige an themenverwandten Begriffen. Angelehnt an das vorherige Beispiel würde die Anzeige mit dem Proteinpulver in einem Artikel über Fitness auftauchen.

    Keyword-Targeting

    Dies ist die klassische Variante, bei der vorab definierte Schlüsselwörter zur Einblendung der Werbung führen.

    Behavioral-Targeting

    Diese Form der Zielgruppenansprache basiert auf einer Vielzahl von Daten, die über den Nutzer gesammelt werden. Das verwendete Betriebssystem und der Aufenthaltsort der Person (beziehungsweise der IP-Adresse) fließen in die Analyse ein. Anhand dieser Daten erstellen computergestützte Systeme ein Nutzerprofil, dem gezielte Werbeanzeigen präsentiert werden.

    Social-Media-Targeting

    Dies umfasst Werbeanzeigen auf Facebook und Instagram. Die Daten für die Zielgruppenansprache erhält der Webseitenbetreiber durch die Profile der Nutzer oder von den sozialen Netzwerken.

    Targeting und PPC

    Für das Pay-per-Click-Advertisement (PPC) spielt die gezielte Zielgruppenansprache eine große Rolle. Bezahlte Werbeanzeigen sind ein großer Kostenfaktor. Sie rentieren sich nur, wenn der Streuverlust minimal ist. Statt undefinierten Nutzergruppen wahllos Anzeigen zu präsentieren, ist eine Anpassung an die individuellen Bedürfnisse der Zielgruppe wichtig. Das Targeting erfüllt diesen Anspruch und bringt das Kosten-Nutzen-Verhältnis der PPC-Kampagne ins Gleichgewicht.

    Targeting und SEO

    Im Rahmen der Suchmaschinenoptimierung spielt das Targeting für die Platzierung in den Suchergebnissen auf Google & Co. eine Rolle. Eine passgenaue Zielgruppenansprache mündet in einer höheren Click-Through-Rate (CTR) sowie einer geringeren Absprungrate. Diese zwei Indikatoren bewertet der automatisierte Algorithmus der Suchmaschinen als positiv. Ein essenzieller Faktor, um eine vordere Platzierung auf der Suchergebnisseite zu erzielen. Das Targeting ist daher eine elementare Disziplin der Suchmaschinenoptimierung.

    Gefahren des Targeting

    Die Methode des Keyword-Targeting kann zu unangebrachten Werbeanzeigen führen. Es orientiert sich ausschließlich an bestimmten Schlüsselwörtern und lässt den Kontext, in dem diese im Text vorkommen, außer Acht. Dies führt nicht selten zu einer misslungenen Zielgruppenansprache. Ein Beispiel ist die Einblendung einer Werbeanzeige für Busreisen in einem Artikel über ein tödliches Busunglück auf Basis des Keywords „Busfahrt“.

    Darüber hinaus birgt übermäßiges Targeting die Gefahr, von den Nutzern als invasiv und störend empfunden zu werden. Dies ist vor allem beim Behavioral-Targeting zu beobachten. Um die Grenzen der Zielgruppenansprache nicht zu überschreiten, orientieren sich viele Webseitenbetreiber an dem Motto „Qualität statt Quantität“.

U

  • Unter Unique Content (deutsch: einzigartiger Inhalt) werden Texte verstanden, die sich durch die Werte Individualität, Qualität und Einzigartigkeit charakterisieren. Webseitenbetreiber benötigen Unique Content für ihre Internetseite, um von Google & Co. als hochwertig eingestuft zu werden. Dies ist ausschlaggebend für eine vordere Platzierung in den Suchergebnissen.

    Relevanz von Unique Content

    Suchmaschinen wie Google, Bing und Yahoo greifen auf einen internen Algorithmus zurück, um Internetseiten hinsichtlich ihrer Qualität zu bewerten. Diese automatisierten Systeme überprüfen den Aufbau, den Inhalt und die Struktur der Seite. Die Ergebnisse der einzelnen Auswertungen fließen zusammen und ergeben ein Gesamtergebnis, das sich unmittelbar auf die Positionierung der Internetseite in den Suchmaschinen auswirkt.

    Zu Beginn der 2000er versuchten Webseitenbetreiber, den Algorithmus der Suchmaschinen zu manipulieren. Die Überladung der Seite mit Schlüsselwörtern (Keyword-Spamming) sowie das Verschleiern der eigentlichen Inhalte (Cloaking) zählten zu den gängigen Methoden, um die Sichtbarkeit der Seite künstlich zu erhöhen. Durch diese Vorgehensweise entstanden suchmaschinenfreundliche Seiten, die für menschliche Besucher kaum lesbar waren.

    Um diese Entwicklung zu stoppen, führte Google im Jahr 2011 das Panda-Update durch. Es veränderte das Vorgehen des Algorithmus und erweiterte die Liste der Kriterien, die in die Bewertung einfließen. Ziel des Updates war es, die Qualität der Suchergebnisse für die Nutzer zu verbessern.

    Panda-Update und Unique Content

    Das umfangreiche Update des Google-Algorithmus verschärfte die Ansprüche an den Inhalt von Webseiten und erhöhte die Relevanz von Unique Content maßgeblich. Fortan stand der Nutzen für den Besucher im Vordergrund.

    Seit dem Update gelten folgende inhaltliche Merkmale als minderwertig:

    • Plagiate (Duplicate Content)
    • Keyword-Spamming
    • Unverhältnismäßig hoher Anteil an externen Links
    • Hoher Anteil an Werbeanzeigen
    • Cloaking
    • Schwacher Inhalt (beispielsweise hohe Dichte an Füllwörtern)

    Internetseiten, die eines oder mehrere dieser Merkmale aufweisen, teilt der Algorithmus eine niedrige Qualitätsstufe zu. Die Platzierung in den Suchergebnissen leidet und die Sichtbarkeit der Webseite verschlechtert sich.

    Das Problem von Duplicate Content ist nicht nur der fehlende Informationswert für den Besucher. Plagiate stellen oft eine Verletzung des Urheberrechts dar und werden von den Suchmaschinen daher als grober Verstoß gegen die Richtlinien angesehen. Dies mündet in einem Ausschluss der gesamten Webseite vom Index.

    Charakteristika von Unique Content

    Unique Content stellt einen Mehrwert für den Leser dar. Er beantwortet Fragen, stillt ein Bedürfnis und/oder informiert den Besucher. Darüber hinaus zeichnet er sich durch eine gute Lesbarkeit sowie eine klare Struktur aus, die durch die Nutzung stilistischer Mittel – wie Auflistungen und kurze Absätze – sichergestellt wird. Die Einzigartigkeit des Textes kann durch das Einfügen passender Bilder oder Grafiken sowie durch audiovisuelle Elemente unterstrichen werden.

    Diese Charakteristika animieren den Besucher, auf der Webseite zu verweilen. Eine geringe Absprungrate ist essenziell für die erfolgreiche Umwandlung von Interessenten in profitable Kunden. Des Weiteren sind einzigartige Inhalte eine Grundvoraussetzung für wiederkehrende Besucher. Ein wichtiger Punkt für den Aufbau einer aktiven Community auf der eigenen Webseite.

    Erstellung von Unique Content

    Für die Erstellung einzigartiger Texte kann der Webseitenbetreiber selbst aktiv werden oder die Dienstleistungen spezieller Online-Marketing-Agenturen in Anspruch nehmen. Letzteres garantiert eine hohe Qualität und einen individuellen Charakter des Textes. Agenturen verfügen über professionelle Autoren, die Füllwörter vermeiden und eine einwandfreie Rechtschreibung und Grammatik beherrschen.

    Der Anteil an Unique Content kann mithilfe von Software und kostenlosen Online-Tools überprüft werden. Sie gleichen den Inhalt mit den Einträgen auf vorhandenen Webseiten ab und drücken die Einzigartigkeit des Textes in Form einer Prozentzahl aus.

  • Der Begriff User Experience (deutsch: Nutzererlebnis) beschreibt, wie ein Nutzer mit einem Produkt oder einer Dienstleistung interagiert und was er dabei empfindet. Sie wird mit UX abgekürzt. Im Online-Marketing bezieht sie sich auf die Erfahrung, die der Nutzer beim Besuch der Webseite macht. Wird dies speziell auf mobile Endgeräte bezogen, ist von Mobile UX die Rede.

    Bestandteile der User Experience

    Die UX setzt sich aus drei Hauptbestandteilen zusammen, die es aufeinander abzustimmen gilt:

    Ästhetik

    Sie bezieht sich auf die Optik der Webseite. Kernelemente sind hierbei eine klare visuelle Struktur des Inhalts, eine harmonische Farbgebung sowie ein ansprechendes Layout.

    Zugänglichkeit

    Hierfür spielt der technische Aspekt eine Rolle. Eine Webseite mit einer guten UX weist kurze Ladezeiten auf und verfügt über einen leistungsstarken Server. Ein zunehmender Teil der Nutzer verwendet mobile Endgeräte – wie Smartphones und Tablets – für die Internetsuche, sodass eine einwandfreie Funktionalität auf allen Geräten wichtig ist.

    Nützlichkeit

    Die sogenannte Usability beschreibt den Nutzen für den Besucher. Um eine gute User Experience zu gewährleisten, sollte die Webseite über qualitativ hochwertigen Content verfügen und eine leichte Navigation ermöglichen.

    Auswertung der User Experience

    Die UX hängt von der Erwartungshaltung des Nutzers ab. Erfüllt die Webseite diese Erwartungen, fällt die User Experience positiv aus. Ist dies nicht der Fall, bewerten die Besucher sie als negativ. Nicht alle Faktoren der UX sind objektiv beurteilbar. Die Bewertung der optischen Komponente unterliegt subjektiven Empfindungen und schwankt von Nutzer zu Nutzer. Sie zählt somit zu den weichen Faktoren.

    Zu den harten Faktoren zählen die Aspekte, die objektiv messbar sind. Dies umfasst die Ladezeit der Webseite und die flexible Anpassung des Layouts an das verwendete Endgerät (Responsive Design). Für die Messung dieser zwei Bestandteile stehen spezielle Tools zur Verfügung.

    Für Webseitenbetreiber gibt es zwei Möglichkeiten, die UX ihrer Seite einzuschätzen. Als Quelle dienen die Personen, die die Webseite erreichen soll. In diesem Zuge werden Befragungen durchgeführt, in denen sich die Nutzer zu ihren Erfahrungen im Umgang mit der Internetseite äußern. Alternativ gibt es spezielle Vorrichtungen zur Auswertung der Augenbewegungen von Probanden. Dieses sogenannte Eye-Tracking gibt Aufschluss über die Bestandteile der Seite, auf die die Nutzer am stärksten reagieren.

    Relevanz der User Experience

    In Bezug auf das Ranking einer Seite in den Suchergebnissen spielt die UX zumindest indirekt eine Rolle. Ein unmittelbarer Zusammenhang zwischen einer guten User Experience und einer vorderen Platzierung auf Google & Co. konnte bisher nicht nachgewiesen werden. Dies liegt an den vielen subjektiven Aspekten, die der Algorithmus der Suchmaschinen nur schwer auswerten kann.

    Eine intuitiv bedienbare Webseite mit einem ansprechenden und flexiblen Design animiert die Besucher zum Bleiben. Die Absprungrate sinkt, während die Verweildauer und die Anzahl der wiederkehrenden Nutzer steigt. Diese zwei Punkte spielen für den Algorithmus der Suchmaschinen durchaus eine Rolle in puncto Qualitätseinstufung. Die Sicherstellung einer guten UX ist daher fester Bestandteil einer professionellen Suchmaschinenoptimierung.

©2021 SalesFunnel Digital | Impressum | Datenschutzerklärung

*Unser Versprechen: Die Vision von SalesFunnel Digital besteht darin, unseren Kunden praktisches Online-Marketing-Wissen zu vermitteln, mit dem Kunden automatisiert über das Internet gewonnen werden können. Wir verpflichten uns im Rahmen des Informationsvertrages dazu, Dir ausschließlich qualitativ hochwertige Informationen zum Thema Online-Marketing zu liefern. Sofern Du in unserem Newsletter angemeldet bist, erhältst Du von Zeit zu Zeit von uns auch andere interessante Informationen, darunter zu Angeboten (Produkten, Workshops & Events), die im Zusammenhang mit dem über den Download geäußerten Interesse. Alle kostenlosen Informationen können jederzeit über einen Link in der Email oder über eine kurze Nachricht abbestellt werden.

 

Haftungsausschluss

Diese Website ist kein Teil der Facebook-Website oder Facebook, Inc. Darüber hinaus wird diese Website von Facebook in keiner Weise unterstützt. Facebook ist eine Marke von Facebook, Inc.

 

Genannte Umsatzzahlen sind unsere persönlichen Verkaufszahlen und die einiger Kunden. Bitte verstehe, dass unsere Ergebnisse nicht typisch sind, wir unterstellen nicht, dass du sie duplizierst (oder irgendetwas in der Tat tust). Wir haben den Vorteil, Online Marketing und Direkt Vertrieb seit über 10 Jahren zu praktizieren und haben dadurch einen sehr großen Erfahrungsschatz und eine große Anhängerschaft, die uns unterstützt. Die durchschnittliche Person, die eine Online Unternehmung beginnt, erhält wenig bis keine Ergebnisse. Wir verwenden diese Referenzen nur zu Beispielzwecken. Deine Ergebnisse variieren und hängen von vielen Faktoren ab ... einschließlich, aber nicht beschränkt auf deinen Hintergrund, deine Erfahrung und deine Arbeitsmoral. Alle Geschäfte beinhalten Risiken sowie massive und konsequente Anstrengungen und Maßnahmen.