Mit dem linkbasierten Suchalgorithmus scheint Google ein Eigentor geschossen zu haben.
Zum Zeitpunkt seiner Entwicklung war er noch so effektiv, dass er Google ganz nach oben beförderte und daraus die Nummer 1 unter den Suchmaschinen weltweit machte.
Kaum ein anderes Unternehmen nimmt so einen großen Marktanteil in seiner Branche ein wie Google.
Der Grundsatz war einfach: Webseiten werden auf andere Seiten verlinken, wenn die Betreiber davon ausgehen, dass diese gut sind. Jeder Link wurde damit zur Stimme oder zum “Like” für die betreffende Webseite. Und je mehr Votes eine Seite bekam, desto beliebter musste sie auch sein und desto besser war damit ihr Rank in den Ergebnissen.

Die Sache hatte allerdings einen großen Haken.
Je näher an den ersten Platz die Webseite gerät, desto mehr Nutzer werden auf sie aufmerksam. Und je mehr Nutzer auf sie aufmerksam werden, desto wahrscheinlicher wird es, dass sie sie verlinken.
Das bedeutet, dass eine etablierte Webseite einen Vorteil gegenüber neu entstandenen Seiten bekommt, die noch keine Links haben. Deswegen erreichen sie auch keine hohen Plätze in den Ergebnissen der Suchmaschine.
Google hat bereits daran gearbeitet und gibt den neueren Webseiten temporär einen höheren Platz in den Ergebnissen, damit sie bekannt werden können. Webmaster sind aber ebenfalls schlauer geworden, und es war offensichtlich, dass sie Links brauchten, um noch weiter aufzusteigen. Damit wurde die SEO-Branche geboren und Googles Algorithmus wurde auf einmal ineffektiv. Das lag daran, dass Zehntausende Webmaster nun jede Webseite mit jedem Keyword fördern konnten, indem sie sie einfach nur verlinkten. Die natürliche Auslese, die Google angestrebt hatte, funktionierte nicht mehr.
Einige Jahre später wünschte Google sich bereits, Webseiten nach der Qualität bewerten zu können und dabei die Relevanz der Inhalte als Maßstab zu nutzen (alles dreht sich im Kreis!).

Damit wurde Panda geboren, womit wir auf dem aktuellen Stand wären.
In den letzten 12 Monaten konnten wir beobachten, wie Google reihenweise Veränderungen unternommen hat, um Webseiten nun anders zu bewerten.
Panda bewertet den Inhalt und dessen Qualität, diese muss hochwertig sein.
Die Panda-Updates erfolgen nach wie vor regelmäßig und haben dafür gesorgt, dass bereits viele Seiten dramatisch an Vorsprung in den Ergebnissen verloren haben. Die meisten Leser werden bereits von Panda gehört haben, doch es lohnt sich trotzdem, weiter ins Detail zu gehen und zu erläutern, wie sich dieses System auf die Webseite auswirken kann.
Panda ist vielleicht keine topaktuelle Meldung mehr. Trotzdem sollte man als Betreiber wissen, welche Veränderungen sich dadurch ergeben.
Beispielsweise hat im März ein weiters Panda-Update stattgefunden und es werden auch noch weitere folgen – schon gewusst?
Google verbreitet damit eine eindeutige Botschaft: “Wir wollen einzigartigen, nützlichen und relevanten Content auf den Webseiten sehen.”

Bedeutet das, dass Backlinks keinen Wert mehr haben?
Ganz bestimmt nicht! Die Technologie macht es noch nicht möglich, die Qualität schriftlichen Contents so sicher zu bewerten, um alleine als Bewertungsmaßstab zu dienen. Das kann man daran sehen, indem man nach Google sucht und sich ansieht, wie wenige wertvolle Infos man zu diesem Thema bekommen wird. Die gefundenen Informationen sind vor allem theoretisch und haben noch lange nichts mit der praktischen Anwendung und Umsetzung zu tun.
Trotzdem sollte man niemals nie sagen. Auch das wird noch kommen. Es ist nur eine Frage der Zeit, aber bis dahin sind Backlinks nach wie vor sehr wichtig.

Woher ich das alles weiß?
Man braucht sich nur die Angriffe Googles auf die Blog-Netzwerke anzusehen. Eine ganze Reihe bekannter großer Blog-Netzwerke wurden aus den Suchergebnissen entfernt, einige haben sogar ihre Pforten geschlossen.
Es handelt sich dabei um Netzwerke, die Artikel en masse verbreitet und die Blogs mit Backlinks bepackt haben, sodass daraus Netzwerke aus Blogs entstanden sind, die sich fast völlig alleine betreiben, tausende Posts und zehntausende Backlinks aufgebaut haben.
Diese Netzwerke waren allein aufgrund ihrer Funktionsweise sehr beliebt. Warum sonst wäre es Google so wichtig, sie alle zu vernichten, was Zeit und Mühe kostet? Sie waren mächtig genug, die Suchergebnisse zu “manipulieren”.

Indirekt lässt Google uns damit wissen, dass Backlinks auch heute noch sehr wichtig sind.

Dann braucht man sich nur die neulich veröffentlichten Veränderungen aus dem Monat März anzusehen, die Google in den eigenen Blog gestellt hat. Lesen kann man sie unter http://insidesearch.blogspot.ca/2012/04/search-quality-highlights-50-changes.html.

Es handelt sich dabei um 50 veröffentlichte Veränderungen, aber ich gehe nur auf die ein, die ich für diesen Artikel am wichtigsten finde.

Bessere Indizierung von Profilseiten: [Launch-Codename "Prof-2"] Diese Veränderung verbessert öffentliche Prpfilseiten und sorgt dafür, dass sie leichter zu verstehen sind, und gibt ihnen einen Platz im Index, der mehr als 200 soziale Netzwerke kennt.

Wir müssen zunächst verstehen, dass Google uns nicht sagen wird, wie die Algorithmen aussehen, wie sie funktionieren und wie sie sich auswirken werden, weshalb diese Interpretationen lediglich meine eigenen sind.

Das klingt ganz danach, als sei Google dabei, öffentliche Profilseiten auf Netzwerken wie Facebook einzubeziehen und die Informationen dort zu indizieren. Das Ganze hat den gleichen Sinn wie die Vote-Funktion der Backlinks, da insbesondere soziale Netzwerke dazu geeignet sind, das Ranking zu beeinflussen. Man kann über sie immerhin Diggs, Likes, Tweets und viel mehr vergeben. Das Profil der Quelle eines solchen Votes verleiht nicht nur einen Backlink, sondern wird gleichzeitig bewertet (wie im PR-Bereich), um über die Bedeutung und “Autorität” des Votes zu entscheiden.

Updates und Verbesserungen hinsichtlich der Seiten-Algorithmen-Daten [Launch-Codename "MM", Projekt-Codename "Panda"]. Wie viele andere Veränderungen hängen Aspekte unserer hochwertigen Seiten-Algorithmen von der Offline-Verarbeitung ab, die periodisch erfolgt. Im letzten Monat haben wir aktuelle Daten für “Panda” veröffentlicht, wie wir in einem vorherigen Tweet bereits angesprochen haben. Außerdem haben weitere Veränderungen die Datenbank insgesamt auf einen aktuelleren Stand gebracht.

Also wieder mal Panda. Es sind natürlich wieder mal Veränderungen, aber es lohnt sich trotzdem, ihre Funktionsweise zu verstehen. Ich sehe Panda lieber als Strafe denn als Maßnahme. Für guten Content wird man durch dieses System nicht wirklich belohnt, aber wenn er schlecht ist, wird man bestraft. Alle Unterseiten einer Webseite werden auf die “Qualität” hin geprüft, und dennoch wird die Webseite betraft, wenn auch nur eine einzelne Seite durch den Panda-Filter fällt.
Die Strafe richtet sich gegen die gesamte Webseite und wird höchstens alle paar Monate einmal verändert. Eine Verbesserung der Webseite wird sich also nicht umgehend förderlich auswirken. Bis zum nächsten “Panda-Refresh” wird sich nichts verändern.
Diese Checks laufen sehr roboterhaft ab. Google ist gerade erst in die Position gekommen, die Qualität des Contents zu messen, aber es kann nur besser werden.

Verbesserungen der Aktualität [Launch-Codename "Abacus", Projekt-Codename "Aktualität"]: Wir haben im letzten Jahr die Aktualität der Datensätze verbessert und es hat sich bereits ausgezahlt, aber dennoch hat die Arbeit viele Reserven gekostet. Deswegen haben wir beschlossen, die Veränderungen nur für newsbasierten Traffic einzuführen. Diesen Monat haben wir sie hinsichtlich aller Suchanfragen umgesetzt.

Newsartikel sollten immer aktuell sein, das macht natürlich Sinn. Wer will schon alte Meldungen lesen? Jetzt müssen wir trotzdem wieder auf unseren eigenen Content achten. Wir wissen nicht erst seit gestern, dass aktueller Content nur gut für unsere Webseiten sein kann. Dadurch steigen sie im Ranking an eine höhere Stelle.
Wir wissen allerdings nicht, wie Google das misst und umsetzt. Vielleicht wird ein neuer Post im Blog alles verändern, oder es wird so aussehen, dass zu wenig aktueller Content zu negativen Maßnahmen führt. Die Frage lautet: Sollten alten Posts geupdatet werden? Interessanterweise gehört es zum aktuellsten Update, dass auch das Datum von Blog- und Forenposts berücksichtigt wird. (Siehe unten.)

Verbesserungen hinsichtlich der Aktualität von Blog- und Forenseiten [Launch-Codename "fibyen", Projekt-Codename "Dates"]. Diese Veränderung verbessert den Algorithmus, der nach dem Datum von Blog- und Foren-Posts sucht.

Verbesserungen im Umgang mit Linktexten [Launch-Codename "PC"]. Diesen Monat haben wir einen Klassierer ausgeschaltet, der mit den Linktexten zu tun hatte (das sind die sichtbaren Texte, die unterhalb der Links erscheinen). Unsere experimentellen Datensätze haben zu dem Schluss geführt, dass andere Methoden der Verarbeitung die besseren Erfolge einbringen können, die Abschaltung hat also die Ergebnisse klarer und die Suche zielführender gemacht.
Bessere Interpretation und Verwendung der Linktexte. Wir haben unsere Systeme verbessert, mit denen wir Linktexte analysieren und verwenden. Dadurch können wir jetzt erkennen, wie relevant ein Linktext für die Suche nach einer Webseite ist.

Es gibt damit zwei Updates, die sich auf den Linktext beziehen. Sie sind interessante neue Beweise dafür, dass Backlinks noch lange nicht überflüssig geworden sind. Gleichzeitig sind sie in der aktuellen Diskussion rund ums Thema “Überoptimierung” wichtig, die sich negativ auswirken kann (siehe Zitat von Matt Cutts weiter unten).
Eine “Überoptimirung” ist offensichtlich möglich, dazu gehören beispielsweise Keyword Stuffing oder Backlinks in Masse. Dennoch wird ersichtlich, wie wichtig der Linktext nach wie vor für die Einschätzung des Contents wird.
Es wäre beispielsweise “unnatürlich”, zu erwarten, dass jeder mit dem gewählten Keyword auf eine Webseite verlinkt. Wahrscheinlicher ist, dass viele Linktexte entstehen und dass auch einige davon überflüssig und irrelevant sind.
Der Content und die Relevanz des Zusammenhangs könnten ebenfalls wieder sehr wichtig werden, auch wenn nicht alles ganz stimmig sein kann. Auch das wäre wieder unnatürlich. Links gehören zum relevanten Content. Es sollte nicht mehr heißen: “Lebe besser vielfältig”, sondern: “Zu wenig Vielfalt wirkt sich negativ aus.”

Es geht im Grunde genommen darum, eine Basis zu finden, auf die man weiter bauen kann. All die Betreiber, die eine “Überoptimierung” betrieben haben, da sie zu viel SEO umgesetzt haben, stehen jetzt denen gegenüber, die eher darauf geachtet haben, eine tolle Webseite mit wertvollen Inhalten zu entwickeln, und zwischen ihnen wollen wir das Feld etwas ebnen.
“Wenn wir zwischen diesen beiden Extremen stehen, versuchen wir, die Webseite schlauer zu gestalten, damit Google mehr daraus macht. Wir wollen, dass sie relevant wird, sodass es nicht nur um SEO geht, die natürlich auch gemacht werden muss, auch wenn wir es mit ihr nicht übertreiben wollen. Ob es nun daran liegt, dass die Webseite zu viele Keywords integriert, ob sie zu viele Backlinks hat – all das geht darüber hinaus, was man normalerweise von ganz alleine tun würde. Darauf können wir also auch in Zukunft achten und weiter damit arbeiten. Es handelt sich um einen aktiven Bereich, denn mehrere Ingenieure aus meinem Team arbeiten bereits jetzt daran.” – Matt Cuts

Mehr Informationen auf: http://searchengineland.com/too-much-seo-google%E2%80%99s-working-on-an-%E2%80%9Cover-optimization%E2%80%9D-penalty-for-that-115627

Entfernung eines überholten Kennzeichens aus dem Bewertungsmaßstab für die Relevanz [Launch-Codename "Freedom"]. Wir haben ein veraltetes, produktorientiertes Kennzeichen aus dem Algorithmus entfernt, der die Seite verstehen soll.

Das war eine interessante Veränderung, auch wenn sie nicht direkt mit dem Thema zu tun hat. Noch weiß ich nicht, was genau das bedeuten wird, aber merken sollten wir uns das trotzdem – vor allem, wenn wir im eCommerce tätig sind, mit Amazon arbeiten wollen oder und grundsätzlich mit produktbasierten Seiten befassen (das kann sich sogar auf Mini-Seiten beziehen, wenn sie einen Produktnamen in der Domain führen). Am besten wäre es, jetzt das Ranking und das Einkommen über die Seite zu überprüfen. Wie hat sich beides innerhalb der letzten Wochen verändert? Wenn es Veränderungen gab, die erkennbar sind, ohne dass es einen sichtbaren Grund dafür gibt, dann liegt es nahe, dass diese Veränderung sich bereits ausgewirkt haben könnte.
Eine eCommerce-Webseite würde ganz andere Maßstäbe und Optimierung brauchen als eine rein informative Seite. Das gilt vor allem für den Content. Google nutzt wahrscheinlich spezifische Methoden, um zu bestimmen, ob eine Webseite “produktorientiert” ist, um dann einen entsprechend abgeänderten Ranking-Mechanismus einzusetzen. Beispielsweise würde doppelter Content normalerweise von der Suchmaschine gefiltert. Wenn es sich aber um eine kommerzielle Seite handelt, wäre der doppelte Content mit mehr Konkurrenz gleichzusetzen und damit mit niedrigeren Preisen für die Kunden. Das wäre sicher nichts, was Google noch herausfiltern wollen würde.

Zusammengefasst gibt es einige Dinge, die wir jetzt umsetzen sollten.
Um fair zu Google zu sein: Sie haben es ja lange genug gesagt und angekündigt. Inzwischen ist Google aber besser darin geworden, diejenigen zu erkennen und Seiten zu filtern, die nicht den Ansprüchen gerecht werden.

  • Content muss hochwertig, einzigartig, nützlich und relevant sein.
  • Aktualisierte Inhalte sollten regelmäßig nachfließen.
  • Die Unterseiten der Webseite sollten sich alle einem eigenen Thema widmen und Google sollte klar sein, worum es auf der Webseite geht.
  • Überoptimierung sollte vermieden werden, was beispielsweise Keyword Stuffing oder schlechte Links umfasst.
  • Backlinks und Linktexte sollten abwechslungsreich und “natürlich aussehen”. Nicht nur Homepages sollten verlinkt werden, sondern auch einzelne Unterseiten.
  • Die Verbreitung über soziale Netzwerke ist eine gute Idee – sie sollte nur nicht inflationär genutzt werden!
  • Die Seite sollte nicht mit Werbung überflutet werden.

Es geht um Content und Abwechslung. Der Content muss hochwertig sein und die Links natürlich wirken, dann wird die Seite auch besucht.

Neuer Monat, neue Veränderungen. Das Folgende vermeldete Google in seinem letzten Post auf dem Inside Search Blog. Wenn Sie ein SEO sind, müssen Sie aber nicht länger den Atem anhalten – es ist nichts wirklich Weltbewegendes (es gibt keine Änderungen in der Größenordnung des Panda-Updates!). Die Änderungen sind aber natürlich trotzdem so wichtig für uns, dass es sich lohnt, sie näher zu betrachten.

Normalerweise, wenn Google seinen Algorithmus in irgendeiner Art und Weise ändert oder erneuert, hat das einen Einfluss auf unsere SEO Strategie. Deshalb ist es wichtig, über diese Änderungen auf dem Laufenden zu bleiben und die Augen offen zu halten, ob sich etwas in der Branche ändern könnte (oder ob etwas die Branche als solches ändern könnte, wie besagtes Panda-Update es getan hat).

Deswegen bloggen wir auch über Googles jüngste Ankündigungen und über alle Änderungen, die in letzter Zeit umgesetzt wurden (Google kündigt im Inside Search Blog Post an, dass sie dies in Zukunft monatlich machen wollen. Bis jetzt haben sie Wort gehalten). Die weitreichendste Veränderung war das „Freshness-Update“, obwohl dessen erwarteter Einfluss auf 35 % aller Suchanfragen offensichtlich nicht gereicht hat, diese Änderung des Algorithmus im Fokus der Aufmerksamkeit zu halten. Der einzige Grund, warum es nur seine kurzen „15 Minuten“ im Rampenlicht bekam, war, dass Google seine Google + Brand Pages, also die Google + Seiten für Unternehmen, nur kurze Zeit (nur ein paar Tage) später veröffentlichte, nachdem das Freshness-Update angekündigt wurde.

Beachtenswerte Änderungen des Algorithmus
Die Änderungen, die bereits im Detail besprochen wurden, sind unter anderem die Äderungen der wortwörtlichen Suche, die „verbatim search“ und die aufgehübschte Google Toolbar, sowie ein Update für die Google App auf dem IPAD. Wir werden uns deshalb hier nicht näher mit diesen Themen beschäftigen. Die Änderungen, mit denen wir uns ausführlicher befassen, drehen sich um „Original Content“, ähnliche Suchergebnisse, mehr Longtail Indexierung, Auswahl der Top-Ergebnisse und „geparkte“ Domains.

“Original Content”
Auf der PubCon 2011 deutete Matt Cutts an, dass es eine Änderung geben werde, die Inhalte und deren Kopieren auf andere Seiten betreffen soll (er schlug vor, in der Zukunft könne es vielleicht einen Weg geben, Informationen an Google zu übermitteln, wenn man neue Inhalte veröffentlicht, damit die Seite, die die Inhalte nur kopiert, nicht besser ranken kann als der eigentliche Urheber). Google beschreibt einen Algorithmus, der mit diesem Statement zusammenhängt: „Wir haben neue Signale hinzugefügt, die uns dabei helfen, bessere Prognosen abzugeben, welche von zwei identischen Seiten das Original ist.“ Wir vermuten, bei solchen Signalen könnte es sich um Links, die Autorität dieser Links (je höher desto besser) und die Autorität der Domain handeln.

Ähnliche Suchergebnisse
Diese Änderung wird die Suchergebnisse so beeinflussen, dass sie den Suchbegriffen ähnlicher sind, die Sie tatsächlich eingegeben haben. Google benutzt das folgende Beispiel: „Wenn Sie nach „seltene rote rosen“ suchen, sind Sie unter Umständen nicht so sehr interessiert an Seiten, die nur „rote rosen“ erwähnen.“ Für SEOs bedeutet das wohl, dass die Webseiten zielgerichteter sein müssen – Sie sollten also größeren Wert auf die Onpage-Optimierung legen und dafür sorgen, dass die URL-Struktur wirklich exakt auf Ihr Keyword abgestimmt ist.

Longtail Indexierung
Diese Änderung kann als eine umfassendere Indexierung bezeichnet werden, der Algorithmus wird in der Lage sein, mehrere Longtail Dokumente zu indizieren, damit sie für relevantere Suchanfragen ranken können.

Auswahl der Top-Ergebnisse
Es gibt zusätzliche Aufmerksamkeit für die besten Platzierungen bei einer Suche, die jetzt auch stärker beeinflusst werden sollen, um zu verhindern, dass eine Seite alle Rankings für eine spezielle Suche dominiert. Das Update wird dafür sorgen, dass Google nicht zu viele Ergebnisse von einer einzigen Seite anzeigt („host crowding“). „Wir haben den Code verändert, damit er einfacher zu lesen ist, leichter gepflegt werden kann und flexibler für zukünftige Änderungen wird.“

„Geparkte“ Domains (neue Klassifizierung)
Google beschreibt die neue Klassifizierung für geparkte Domains wie folgt: „Es ist ein neuer Algorithmus, der geparkte Domains automatisch erkennt. Das sind Platzhalter-Seiten, die selten nützlich, dafür aber meist mit Werbung gefüllt sind. Üblicherweise haben sie keine Inhalte, die für unsere Nutzer von Wert sind und in den meisten Fällen würden wir sie ihnen auch nicht zeigen wollen.“ Die Ausrichtung auf eine höhere Nutzerfreundlichkeit und die Erwähnung von Werbung erinnern an einen Kommentar, den Cutts auf der PubCon abgegeben hat, der besagt, dass Google vorhat, ein besseres „Seitenverständnis“ zu entwickeln (er sagte, es würde eine Änderung des Algorithmus geben, der die Qualität der Seiten verbessern solle, besonders wenn es um die Inhalte geht, die „above the fold“, also auf dem oberen Teil der Seite liegen, die ohne Scrollen sichtbar ist – wir verstehen das so, dass viel Werbung „above the fold“ nicht gut für Nutzerfreundlichkeit ist und der Algorithmus es daher abstrafen wird.)

Fazit
Denken Sie daran, dass all diese Änderungen nur recht klein sind und wenig Bedeutung haben, wenn es um das große Ganze geht. Es sind allerdings größtenteils gute und sinnvolle Änderungen und nur ein kleiner Teil der Änderungen, die Google noch vornehmen wird (die Verantwortlichen sagen, sie verbessern den Algorithmus 500-mal im Jahr). Des Weiteren tragen diese Änderungen alle zu einer höheren Benutzerfreundlichkeit bei, die für Google an erster Stelle steht, wir können uns also darauf einstellen, in der Zukunft noch mehr solcher Änderungen zu sehen.

Neuste Beiträge

Effiziente Suchmaschinenoptimierung: Helfen Sie Ihrer SEO-Agentur

Suchmaschinenoptimierung wandelt sich laufend, und SEO-Consultants arbeiten laufend daran, auf dem n

Google bringt das Thema semantische Suche auf: Wirkt sich das auf die Suchmaschinenoptimierung aus?

Google-Nutzer haben bislang ihre Suchbegriffe eingetippt und als Ergebnis eine saubere Liste blauer

Google-Algorithmus: Die neueste Änderungen und deren Auswirkung

Mit dem linkbasierten Suchalgorithmus scheint Google ein Eigentor geschossen zu haben. Zum Zeitpunk