Mit dem linkbasierten Suchalgorithmus scheint Google ein Eigentor geschossen zu haben.
Zum Zeitpunkt seiner Entwicklung war er noch so effektiv, dass er Google ganz nach oben beförderte und daraus die Nummer 1 unter den Suchmaschinen weltweit machte.
Kaum ein anderes Unternehmen nimmt so einen großen Marktanteil in seiner Branche ein wie Google.
Der Grundsatz war einfach: Webseiten werden auf andere Seiten verlinken, wenn die Betreiber davon ausgehen, dass diese gut sind. Jeder Link wurde damit zur Stimme oder zum “Like” für die betreffende Webseite. Und je mehr Votes eine Seite bekam, desto beliebter musste sie auch sein und desto besser war damit ihr Rank in den Ergebnissen.

Die Sache hatte allerdings einen großen Haken.
Je näher an den ersten Platz die Webseite gerät, desto mehr Nutzer werden auf sie aufmerksam. Und je mehr Nutzer auf sie aufmerksam werden, desto wahrscheinlicher wird es, dass sie sie verlinken.
Das bedeutet, dass eine etablierte Webseite einen Vorteil gegenüber neu entstandenen Seiten bekommt, die noch keine Links haben. Deswegen erreichen sie auch keine hohen Plätze in den Ergebnissen der Suchmaschine.
Google hat bereits daran gearbeitet und gibt den neueren Webseiten temporär einen höheren Platz in den Ergebnissen, damit sie bekannt werden können. Webmaster sind aber ebenfalls schlauer geworden, und es war offensichtlich, dass sie Links brauchten, um noch weiter aufzusteigen. Damit wurde die SEO-Branche geboren und Googles Algorithmus wurde auf einmal ineffektiv. Das lag daran, dass Zehntausende Webmaster nun jede Webseite mit jedem Keyword fördern konnten, indem sie sie einfach nur verlinkten. Die natürliche Auslese, die Google angestrebt hatte, funktionierte nicht mehr.
Einige Jahre später wünschte Google sich bereits, Webseiten nach der Qualität bewerten zu können und dabei die Relevanz der Inhalte als Maßstab zu nutzen (alles dreht sich im Kreis!).

Damit wurde Panda geboren, womit wir auf dem aktuellen Stand wären.
In den letzten 12 Monaten konnten wir beobachten, wie Google reihenweise Veränderungen unternommen hat, um Webseiten nun anders zu bewerten.
Panda bewertet den Inhalt und dessen Qualität, diese muss hochwertig sein.
Die Panda-Updates erfolgen nach wie vor regelmäßig und haben dafür gesorgt, dass bereits viele Seiten dramatisch an Vorsprung in den Ergebnissen verloren haben. Die meisten Leser werden bereits von Panda gehört haben, doch es lohnt sich trotzdem, weiter ins Detail zu gehen und zu erläutern, wie sich dieses System auf die Webseite auswirken kann.
Panda ist vielleicht keine topaktuelle Meldung mehr. Trotzdem sollte man als Betreiber wissen, welche Veränderungen sich dadurch ergeben.
Beispielsweise hat im März ein weiters Panda-Update stattgefunden und es werden auch noch weitere folgen – schon gewusst?
Google verbreitet damit eine eindeutige Botschaft: “Wir wollen einzigartigen, nützlichen und relevanten Content auf den Webseiten sehen.”

Bedeutet das, dass Backlinks keinen Wert mehr haben?
Ganz bestimmt nicht! Die Technologie macht es noch nicht möglich, die Qualität schriftlichen Contents so sicher zu bewerten, um alleine als Bewertungsmaßstab zu dienen. Das kann man daran sehen, indem man nach Google sucht und sich ansieht, wie wenige wertvolle Infos man zu diesem Thema bekommen wird. Die gefundenen Informationen sind vor allem theoretisch und haben noch lange nichts mit der praktischen Anwendung und Umsetzung zu tun.
Trotzdem sollte man niemals nie sagen. Auch das wird noch kommen. Es ist nur eine Frage der Zeit, aber bis dahin sind Backlinks nach wie vor sehr wichtig.

Woher ich das alles weiß?
Man braucht sich nur die Angriffe Googles auf die Blog-Netzwerke anzusehen. Eine ganze Reihe bekannter großer Blog-Netzwerke wurden aus den Suchergebnissen entfernt, einige haben sogar ihre Pforten geschlossen.
Es handelt sich dabei um Netzwerke, die Artikel en masse verbreitet und die Blogs mit Backlinks bepackt haben, sodass daraus Netzwerke aus Blogs entstanden sind, die sich fast völlig alleine betreiben, tausende Posts und zehntausende Backlinks aufgebaut haben.
Diese Netzwerke waren allein aufgrund ihrer Funktionsweise sehr beliebt. Warum sonst wäre es Google so wichtig, sie alle zu vernichten, was Zeit und Mühe kostet? Sie waren mächtig genug, die Suchergebnisse zu “manipulieren”.

Indirekt lässt Google uns damit wissen, dass Backlinks auch heute noch sehr wichtig sind.

Dann braucht man sich nur die neulich veröffentlichten Veränderungen aus dem Monat März anzusehen, die Google in den eigenen Blog gestellt hat. Lesen kann man sie unter http://insidesearch.blogspot.ca/2012/04/search-quality-highlights-50-changes.html.

Es handelt sich dabei um 50 veröffentlichte Veränderungen, aber ich gehe nur auf die ein, die ich für diesen Artikel am wichtigsten finde.

Bessere Indizierung von Profilseiten: [Launch-Codename "Prof-2"] Diese Veränderung verbessert öffentliche Prpfilseiten und sorgt dafür, dass sie leichter zu verstehen sind, und gibt ihnen einen Platz im Index, der mehr als 200 soziale Netzwerke kennt.

Wir müssen zunächst verstehen, dass Google uns nicht sagen wird, wie die Algorithmen aussehen, wie sie funktionieren und wie sie sich auswirken werden, weshalb diese Interpretationen lediglich meine eigenen sind.

Das klingt ganz danach, als sei Google dabei, öffentliche Profilseiten auf Netzwerken wie Facebook einzubeziehen und die Informationen dort zu indizieren. Das Ganze hat den gleichen Sinn wie die Vote-Funktion der Backlinks, da insbesondere soziale Netzwerke dazu geeignet sind, das Ranking zu beeinflussen. Man kann über sie immerhin Diggs, Likes, Tweets und viel mehr vergeben. Das Profil der Quelle eines solchen Votes verleiht nicht nur einen Backlink, sondern wird gleichzeitig bewertet (wie im PR-Bereich), um über die Bedeutung und “Autorität” des Votes zu entscheiden.

Updates und Verbesserungen hinsichtlich der Seiten-Algorithmen-Daten [Launch-Codename "MM", Projekt-Codename "Panda"]. Wie viele andere Veränderungen hängen Aspekte unserer hochwertigen Seiten-Algorithmen von der Offline-Verarbeitung ab, die periodisch erfolgt. Im letzten Monat haben wir aktuelle Daten für “Panda” veröffentlicht, wie wir in einem vorherigen Tweet bereits angesprochen haben. Außerdem haben weitere Veränderungen die Datenbank insgesamt auf einen aktuelleren Stand gebracht.

Also wieder mal Panda. Es sind natürlich wieder mal Veränderungen, aber es lohnt sich trotzdem, ihre Funktionsweise zu verstehen. Ich sehe Panda lieber als Strafe denn als Maßnahme. Für guten Content wird man durch dieses System nicht wirklich belohnt, aber wenn er schlecht ist, wird man bestraft. Alle Unterseiten einer Webseite werden auf die “Qualität” hin geprüft, und dennoch wird die Webseite betraft, wenn auch nur eine einzelne Seite durch den Panda-Filter fällt.
Die Strafe richtet sich gegen die gesamte Webseite und wird höchstens alle paar Monate einmal verändert. Eine Verbesserung der Webseite wird sich also nicht umgehend förderlich auswirken. Bis zum nächsten “Panda-Refresh” wird sich nichts verändern.
Diese Checks laufen sehr roboterhaft ab. Google ist gerade erst in die Position gekommen, die Qualität des Contents zu messen, aber es kann nur besser werden.

Verbesserungen der Aktualität [Launch-Codename "Abacus", Projekt-Codename "Aktualität"]: Wir haben im letzten Jahr die Aktualität der Datensätze verbessert und es hat sich bereits ausgezahlt, aber dennoch hat die Arbeit viele Reserven gekostet. Deswegen haben wir beschlossen, die Veränderungen nur für newsbasierten Traffic einzuführen. Diesen Monat haben wir sie hinsichtlich aller Suchanfragen umgesetzt.

Newsartikel sollten immer aktuell sein, das macht natürlich Sinn. Wer will schon alte Meldungen lesen? Jetzt müssen wir trotzdem wieder auf unseren eigenen Content achten. Wir wissen nicht erst seit gestern, dass aktueller Content nur gut für unsere Webseiten sein kann. Dadurch steigen sie im Ranking an eine höhere Stelle.
Wir wissen allerdings nicht, wie Google das misst und umsetzt. Vielleicht wird ein neuer Post im Blog alles verändern, oder es wird so aussehen, dass zu wenig aktueller Content zu negativen Maßnahmen führt. Die Frage lautet: Sollten alten Posts geupdatet werden? Interessanterweise gehört es zum aktuellsten Update, dass auch das Datum von Blog- und Forenposts berücksichtigt wird. (Siehe unten.)

Verbesserungen hinsichtlich der Aktualität von Blog- und Forenseiten [Launch-Codename "fibyen", Projekt-Codename "Dates"]. Diese Veränderung verbessert den Algorithmus, der nach dem Datum von Blog- und Foren-Posts sucht.

Verbesserungen im Umgang mit Linktexten [Launch-Codename "PC"]. Diesen Monat haben wir einen Klassierer ausgeschaltet, der mit den Linktexten zu tun hatte (das sind die sichtbaren Texte, die unterhalb der Links erscheinen). Unsere experimentellen Datensätze haben zu dem Schluss geführt, dass andere Methoden der Verarbeitung die besseren Erfolge einbringen können, die Abschaltung hat also die Ergebnisse klarer und die Suche zielführender gemacht.
Bessere Interpretation und Verwendung der Linktexte. Wir haben unsere Systeme verbessert, mit denen wir Linktexte analysieren und verwenden. Dadurch können wir jetzt erkennen, wie relevant ein Linktext für die Suche nach einer Webseite ist.

Es gibt damit zwei Updates, die sich auf den Linktext beziehen. Sie sind interessante neue Beweise dafür, dass Backlinks noch lange nicht überflüssig geworden sind. Gleichzeitig sind sie in der aktuellen Diskussion rund ums Thema “Überoptimierung” wichtig, die sich negativ auswirken kann (siehe Zitat von Matt Cutts weiter unten).
Eine “Überoptimirung” ist offensichtlich möglich, dazu gehören beispielsweise Keyword Stuffing oder Backlinks in Masse. Dennoch wird ersichtlich, wie wichtig der Linktext nach wie vor für die Einschätzung des Contents wird.
Es wäre beispielsweise “unnatürlich”, zu erwarten, dass jeder mit dem gewählten Keyword auf eine Webseite verlinkt. Wahrscheinlicher ist, dass viele Linktexte entstehen und dass auch einige davon überflüssig und irrelevant sind.
Der Content und die Relevanz des Zusammenhangs könnten ebenfalls wieder sehr wichtig werden, auch wenn nicht alles ganz stimmig sein kann. Auch das wäre wieder unnatürlich. Links gehören zum relevanten Content. Es sollte nicht mehr heißen: “Lebe besser vielfältig”, sondern: “Zu wenig Vielfalt wirkt sich negativ aus.”

Es geht im Grunde genommen darum, eine Basis zu finden, auf die man weiter bauen kann. All die Betreiber, die eine “Überoptimierung” betrieben haben, da sie zu viel SEO umgesetzt haben, stehen jetzt denen gegenüber, die eher darauf geachtet haben, eine tolle Webseite mit wertvollen Inhalten zu entwickeln, und zwischen ihnen wollen wir das Feld etwas ebnen.
“Wenn wir zwischen diesen beiden Extremen stehen, versuchen wir, die Webseite schlauer zu gestalten, damit Google mehr daraus macht. Wir wollen, dass sie relevant wird, sodass es nicht nur um SEO geht, die natürlich auch gemacht werden muss, auch wenn wir es mit ihr nicht übertreiben wollen. Ob es nun daran liegt, dass die Webseite zu viele Keywords integriert, ob sie zu viele Backlinks hat – all das geht darüber hinaus, was man normalerweise von ganz alleine tun würde. Darauf können wir also auch in Zukunft achten und weiter damit arbeiten. Es handelt sich um einen aktiven Bereich, denn mehrere Ingenieure aus meinem Team arbeiten bereits jetzt daran.” – Matt Cuts

Mehr Informationen auf: http://searchengineland.com/too-much-seo-google%E2%80%99s-working-on-an-%E2%80%9Cover-optimization%E2%80%9D-penalty-for-that-115627

Entfernung eines überholten Kennzeichens aus dem Bewertungsmaßstab für die Relevanz [Launch-Codename "Freedom"]. Wir haben ein veraltetes, produktorientiertes Kennzeichen aus dem Algorithmus entfernt, der die Seite verstehen soll.

Das war eine interessante Veränderung, auch wenn sie nicht direkt mit dem Thema zu tun hat. Noch weiß ich nicht, was genau das bedeuten wird, aber merken sollten wir uns das trotzdem – vor allem, wenn wir im eCommerce tätig sind, mit Amazon arbeiten wollen oder und grundsätzlich mit produktbasierten Seiten befassen (das kann sich sogar auf Mini-Seiten beziehen, wenn sie einen Produktnamen in der Domain führen). Am besten wäre es, jetzt das Ranking und das Einkommen über die Seite zu überprüfen. Wie hat sich beides innerhalb der letzten Wochen verändert? Wenn es Veränderungen gab, die erkennbar sind, ohne dass es einen sichtbaren Grund dafür gibt, dann liegt es nahe, dass diese Veränderung sich bereits ausgewirkt haben könnte.
Eine eCommerce-Webseite würde ganz andere Maßstäbe und Optimierung brauchen als eine rein informative Seite. Das gilt vor allem für den Content. Google nutzt wahrscheinlich spezifische Methoden, um zu bestimmen, ob eine Webseite “produktorientiert” ist, um dann einen entsprechend abgeänderten Ranking-Mechanismus einzusetzen. Beispielsweise würde doppelter Content normalerweise von der Suchmaschine gefiltert. Wenn es sich aber um eine kommerzielle Seite handelt, wäre der doppelte Content mit mehr Konkurrenz gleichzusetzen und damit mit niedrigeren Preisen für die Kunden. Das wäre sicher nichts, was Google noch herausfiltern wollen würde.

Zusammengefasst gibt es einige Dinge, die wir jetzt umsetzen sollten.
Um fair zu Google zu sein: Sie haben es ja lange genug gesagt und angekündigt. Inzwischen ist Google aber besser darin geworden, diejenigen zu erkennen und Seiten zu filtern, die nicht den Ansprüchen gerecht werden.

  • Content muss hochwertig, einzigartig, nützlich und relevant sein.
  • Aktualisierte Inhalte sollten regelmäßig nachfließen.
  • Die Unterseiten der Webseite sollten sich alle einem eigenen Thema widmen und Google sollte klar sein, worum es auf der Webseite geht.
  • Überoptimierung sollte vermieden werden, was beispielsweise Keyword Stuffing oder schlechte Links umfasst.
  • Backlinks und Linktexte sollten abwechslungsreich und “natürlich aussehen”. Nicht nur Homepages sollten verlinkt werden, sondern auch einzelne Unterseiten.
  • Die Verbreitung über soziale Netzwerke ist eine gute Idee – sie sollte nur nicht inflationär genutzt werden!
  • Die Seite sollte nicht mit Werbung überflutet werden.

Es geht um Content und Abwechslung. Der Content muss hochwertig sein und die Links natürlich wirken, dann wird die Seite auch besucht.

Das Update des Google-Algorithmus hat viele SEO-Agenturen und SEO-Consultants dazu gebracht, panisch nach den Antworten auf die Frage zu suchen, wie sie wieder im Ranking aufsteigen, nachdem sie ihre bisherigen Erfolge alle eingebüßt hatten. Durch all die Aufregung haben die SEO-Firmen vielleicht den wichtigsten Aspekt hirer SEO-Kampagnen übersehen – und zwar den Kunden selbst. Der Kunde ist der wichtigste Faktor in jedem Wirtschaftszweig, denn ohne ihn gäbe es überhaupt kein Unternehmen. Deswegen ist es trotz all der Verwirrung wichtig, die Frage zu stellen, was der Kunde denkt.

Und wieso muss ich in den Suchergebnissen auftauchen?
Die obige Frage könnte eine der Fragen sein, die Ihre Kunden sich stellen. Als SEO-Experte haben Sie ihrem Kunden das natürlich erklärt, bevor er Ihr Angebot angenommen hat. Dennoch ist es in einer solchen Krise wie dem Abstieg einer Webseite wichtig zu wissen, dass der Kunde die Funktionsfähigkeit der SEO-Maßnahmen nicht mehr sieht und nach wie vor am ROI für seine Firma interessiert sein wird. SEO ist anders als die Lebensmittelproduktion oder die Landwirtschaft kein Objekt zum Anfassen. SEO hängt vielmehr von Statistiken und Analysen ab, aber auch von Faktoren, die der Kunde gar nicht verstehen kann.

Gute Gründe für SEO
Wenn Sie vor einem solchen Problem stehen und die Kunden ihre SEO-Investitionen überdenken, wäre es eine gute Strategie, die Wichtigkeit der Suchmaschinenoptimierung hervorzuheben:

  • Ranking in der Suchmaschine – eine Webseite wird immer nur irgendeine Seite bleiben, wenn sie nicht ihren Traffic erhöht oder mehr Besucher erhält. Eine Möglichkeit bestünde darin, höher in den Ergebnisseiten der Suchmaschinen aufzusteigen.
  • Mehr Rendite – die Rendite ist einer der wichtigsten Gründe dafür, eine Suchmaschinenoptimierung durchführen zu lassen. Der Kunde braucht die Daten noch vor und während der SEO-Arbeit, damit er absehen kann, wie sich die Rendite steigern lassen hat, als das Ranking noch in Ordnung war.


Fazit:
Jede SEO-Agentur und jeder SEO-Consultant müssen ihren Kunden versichern können, dass ihr Unternehmen nicht untergehen wird, weil sich die Algorithmen verändert haben. Der erste Schritt besteht darin, den Kunden an die Gründe zu erinnern, aus denen er SEO-Leistungen bei Ihnen in Anspruch genommen hat. Weiterhin sollte versichert werden, dass Abstiege im Ranking rückgängig gemacht wird und die Rendite gleich bleibt, wenn sie sich nicht sogar verbessert.

 

Neuste Beiträge

Effiziente Suchmaschinenoptimierung: Helfen Sie Ihrer SEO-Agentur

Suchmaschinenoptimierung wandelt sich laufend, und SEO-Consultants arbeiten laufend daran, auf dem n

Google bringt das Thema semantische Suche auf: Wirkt sich das auf die Suchmaschinenoptimierung aus?

Google-Nutzer haben bislang ihre Suchbegriffe eingetippt und als Ergebnis eine saubere Liste blauer

Google-Algorithmus: Die neueste Änderungen und deren Auswirkung

Mit dem linkbasierten Suchalgorithmus scheint Google ein Eigentor geschossen zu haben. Zum Zeitpunk