Es ist ja gute Tradition geworden um die Jahreswende entweder Jahresrückblicke auf das vergangene Jahr oder Ausblicke ins neue Jahr zu wagen. Ich würde gern versuchen, abseits der “Likes statt Links” und “User immer mehr im Mittelpunkt”-Hypothesen, die meiner Meinung nach einerseits schon längere Zeit gültig waren und andererseits eher schleichend vorangehen, mal ein paar wenige Trends in der Suchmaschinenenoptimierung beleuchten, die 2013 wirklich wichtiger werden könnten.
1. Negative SEO
Der Punkt steht nicht ohne Grund auf Platz 1. Gefühlt erlebt Negativ-SEO gerade einen ungeahnt flächendeckenden zweiten Frühling.
Mit dem Disavow-Tool hat Google letztes Jahr indirekt eingestanden, dass man Webmastern eine Möglichkeit geben muss, sich von Links zu distanzieren, welche die eigenen Rankings eventuell negativ beeinflussen können. Negativ SEO, also das gezielte “abschießen” von Konkurrenten durch das Triggern spezieller Thresholds für Filter und Penalties, war auch in den vergangenen Jahren kein unbekanntes Thema. Obwohl Google bis zum Schluss Webmaster hat glauben machen, dass es keine … kaum … nur selten Möglichkeiten gäbe, die Rankings eines Mitbewerbers negativ zu beeinflussen, war negative SEO gerade in kompetitiven Bereichen schon immer ein Thema.
2013 wird negative SEO jedoch leider zum Massentrend. Grund ist neben der allgemeinen Debatte um das Disavow-Tool zum einen die einfache Verfügbarkeit und hohe Effizienz von entsprechenden Tools und Spamming-Scripten. Vor allem aber hat Googles Anti-Linkbuilding Clusterbombe “Penguin” einerseits einen Großteil der extrem unnatürlichen Links erkannt und bestraft. Anderseits ist es aber einfacher denn je geworden unliebsame Konkurrenten gezielt aus den SERPs für die attraktivsten Keywords zu schießen.
Fakt ist: Mit negative SEO wird sich 2013 vermutlich jeder von uns beschäftigen müssen. Damit meine ich die Abwehr und Reaktion auf solche Maßnahmen. Ein guter Ausgangspunkt für das Thema ist übrigens der hervorragende Beitrag von Bastian Grimm zu dem Thema. Wie das Problem auf Seiten von Google zu lösen ist steht in den Sternen. Einerseits muss man Penguin wohl eher darauf trimmen solche potentiell schädlichen Links lediglich zu ignorieren statt zu bestrafen. Die “Erzeihungswirkung” auf die Webmaster, die mit Penguin angestrebt wurde, hat ja bereits stattgefunden. Von daher wäre es vertretbar die Penalties still und heimlich etwas zu lockern.
Zudem muss Google sich vermutlich beim Auswerten von Links wieder mehr auf redaktionelle und vertrauenswürdige Webseiten konzentrieren, die nicht mit automatischen SPAM-Attacken kompromittiert werden können. Dies wiederum stände aber im Widerspruch zur stärkeren Beachtung von user-generierten und sozialen Signalen. Einen großen Teil zur Lösung des Problems könnte das Authorship-Markup beitragen, wenn dieses flächendeckend eingesetzt wird. Denn was immer immer mit anonymen Comment- und Foren-Spam noch gut funktioniert, verliert seine Wirksamkeit sobald es Authentifizierung mittels Authorship und somit eines echten Google-Profils erfordert.
2. Organic Backfill vs. Google Portal
Der Traffic-Anteil, um den SEOs im organischen Bereich der SERPs konkurrieren ist 2012 kleiner geworden denn je. Immer mehr Anzeigen, Ad-Extensions und Google-Produkte rauben bis zu 95% der Sichtbarkeit above the fold. Wo der erste Platz vor Jahren noch bis zu 50% des Suchvolumen in Besucher umwandeln konnte liegt die SERP-CTR heute oft im einstelligen Bereich. Die organischen Ergebnisse verkommen teilweise zum Backfill für ein werbelastiges Portal in dem der Google Knowledge Graph die Suchanfragen beantwortet, Werbung den Großteil der Aufmerksamkeit vereinnahmt und das erste organische Ergebnis ein Google Produkt ist. (Vgl. “Google Monopoly“)
“Suchmaschinenoptimierung” wird also mehr und mehr bedeuten, Zugang zu den nicht-organischen Segmenten der SERPs zu erlangen. Es gibt mehr Agenturen, Berater und selbständige SEOs denn je. Nicht nur die Kuchenstücke werden kleiner, sondern die Torte um deren Krümel wir uns reissen wird von Google auch immer kleiner gebacken. Es gilt also neue Betätigungsfelder zu finden…
3. Vertikale Suchmaschinen – SEO ist nicht nur Google-Optimierung
Google ist in fast allen Teilen der Welt Traffic-Quelle Nummer 1 und in Deutschland mit über 95% Marktanteil die einzige Suchmaschine, auf die es sich lohnt zu optimieren… FALSCH!
Denn die Entwicklungen der letzten Jahre bieten smarten Optimierern viele neue Betätigungsfelder um ihr erworbenes Wissen einzusetzen. Was die meisten Auswertungen über den Suchmaschinenmarkt verschweigen ist der Fakt, dass die zweitgrößte Suchmaschine der Welt einerseits auch Google gehört und fast eine Milliarde Menschen im Monat erreicht. Die Rede ist von YouTube. Am heutigen Tag werden circa 5 Milliarden Videos auf YouTube angeschaut werden. Jeden Tag! Ist es nicht Zeit sich damit zu beschäftigen, wie man kommerzielle Inhalte in der YouTube-Suche optimal platzieren kann?
Auch die Google Bildersuche bietet enormes Trafficpotential und gibt im Gegensatz zur Google-Suche (noch) relativ viel Traffic an den Rest des Internet weiter. Ebenso wichtig ist es die Ranking-Kriterien von Google’s Vertikal-Suchen Places, Shopping oder News zu verstehen.
Auch die Nachfrage nach Experten für das Ranking von Apps im Apple AppStore und in Android Play wird 2013 weiter steigen. Dienstleister, die Apps für begrenzte Zeit in den Toplisten der Download-Marktplätze platzieren können, werden zu wertvollen Go-to-Guys, an denen man eigentlich nicht mehr vorbeikommt, wenn man eine App effizient und erfolgreich im Markt platzieren will.
Daher ist vertikales SEO einer der wichtigsten SEO-Trends 2013 für mich. Dienstleister die Feeds und Inhalte für Preissuchmaschinen, Immobilienportale, Download-Portale und andere Marktplätze und Suchmaschinen optimal aufbereiten oder deren Rankingfaktoren verstehen, können ihren Kunden wertvolle Services anbieten, die zu direkten Umsatz- und/oder Effizienzsteigerungen beitragen.
Fazit
Nein, SEO ist nocht nicht tot und wird es nie ganz sein. Aber der Tropf an dem wir alle hängen wird mehr denn je von Google reguliert und die Zahl der Besucher, die Google an dritte Webseiten weiterleitet steigt nicht mehr von Jahr zu Jahr, wie wir es gewohnt waren.
Umso wertvoller wird es für Unternehmen jedoch das einzige noch sichtbare organische Ergebnis in bestimmten Bereichen zu stellen. Ein alter SEO-Spruch lautete “The best place to hide a dead body is page 2 of the Google SERPs“. Das behält seine Gültigkeit, nur dass die zweite Seite, auf die niemand mehr schaut oder klickt heute schon bei Platz 3 anfängt und selbst die ersten Plätze erhalten weniger Traffic denn je.
Das gute ist jedoch: Ebenso wie Energie lässt sich Traffic quasi nicht vernichten. Der Traffic ist einfach nur woanders. Er läuft immer mehr über AdWords und Google-eigene vertikale Suchmaschinen wie die Image Search, YouTube oder Shopping. Apps werden immer wichtiger um Benutzer an Google vorbei zu den eigenen Angeboten zu navigieren. Es mehr gibt mehr als genug Arbeit für smarte Suchmaschinenoptimierer. Wer sich aber lediglich auf die organischen Google SERPs konzentriert, für den könnte 2013 frustrierend werden…
SEO Perspektive 2013 - Womit sich Optimierer im neuen Jahr beschäftigen müssen,
ich hätte persönlich Punkt 2) zu Punkt 1) gemacht. Sehr treffend, wie immer.
Vieles wird sich ändern – und damit bleibt die Situation, wie sie ist. Denn: Ständige Änderungen hat es im Suche-Umfeld immer gegeben. Und genau darin liegen auch die Chancen für SEOs: Nur diejenigen, die am Ball bleiben und sich auf dem Laufenden halten, werden auch gute Ergebnisse erzielen können. Wer dagegen einmal Website-Bossting 2.0 gelesen hat und glaubt, damit wisse er alles über SEO, wird scheitern.
Danke für den Ausblick.
Unterschreibe da mal die Aussage von Oneck. Google wird es uns nicht leichter machen und nur wer am Ball bleibt und Projekte zum Experimentieren hat, wird auch im Jahr 2013 vorne mit dabei sein. Das jedoch die AdWords Anzeigen immer mehr die organischen Suchergebnisse verträngen sehe ich sehr kritisch. Hier sind wir machtlos und die meisten User wissen nicht einmal, dass dies Anzeigen und nicht unbedingt passende Suchtreffer sind.
<<<>>>
Genau das hat doch Google vor Penguin 10 Jahre lang getan, aber anscheinend mit wenig Erfolg, deshalb die Radikal-Keule als letzter und einziger Ausweg.
Zitat: “Einerseits muss man Penguin wohl eher darauf trimmen solche potentiell schädlichen Links lediglich zu ignorieren statt zu bestrafen.”
Genau das hat doch Google vor Penguin 10 Jahre lang getan, aber anscheinend mit wenig Erfolg, deshalb die Radikal-Keule als letzter und einziger Ausweg.
Schöner Traffic-Erhaltungssatz 😉 🙂
Wie siehst du das Thema: Google und strukturierte Daten, die wir ihnen mehr und mehr “abliefern”?
Nette Zusammenstellung. Leider vermisse ich die wirklich wichtigen Probleme der Branche.
Punkt 3 sollte schon seit mind. 3-4 Jahren überhaupt nicht mehr zur Debatte stehen, denn wer anständig optimiert, macht das niemals nur für eine Suchmaschine – erst recht nicht Google – allein. Hier heißt es: einfach mal weniger auf die Rankings achten und wirklich die Probleme bei der Wurzel anpacken. Ein Teil davon wird in 2013 sicher die Aufarbeitung des Websitecontents sein. Als Content Marketing wird dies bereits verschrien, ist allerdings eine ganz selbstverständliche Sache.
Punkt 2 betrifft nicht alle Branchen und wird auch nie alle betreffen. Hier muss man sich als Websitebetreiber einfach mal überlegen, wofür man denn eigentlich sichtbar sein möchte. Z.B. ist im Travelbereich der Longtail immer noch am interessantesten und dort wird Google sich weniger mit eigenen Produkten tummeln als im Shorthead. Damit wären wir schon wieder beim Content: Zielgruppe genau analysieren, passenden Content schaffen und bewerben. Wer die Wünsche seiner Zielgruppe passend abdecken kann, muss sich um neue Google-Produkte bedingt Sorgen machen.
Punkt 1 ist auch bereits seit einem halben Jahr Geschichte. Wer gewissenhaft SEO für seine Website betreibt, muss sich hier keine Sorgen machen. Selbst wenn mal etwas durch das Monitoring schlüpft, kann es einer ansonsten sauberen und starken Website nicht schaden.
Bleiben die wirklich wichtigen Dinge des SEO-Lebens: Was ist mit Überschneidungen zu anderen Marketingdisziplinen? Was ist mit der Messbarkeit von Onlinemaßnahmen? Wie ist generell die Konvergenz der einzelnen Onlinekanäle zu bewerten und zu behandeln?
Hat jemand ein Beispiel von eine Suchanfrage wo 95% der above the fold Sichtbarkeit nicht organisch ist?
@Alex: “hotel new york” … Hab’s nicht genau gemessen, aber wenn man mal Local/Places nicht als organisch betrachtet, dann könnte das passen.
@ André , ja hotel + Stadt/Ortschaft sind seit einige Jahren von Anzeigen + maps & places dominiert.
Aber eine Suchanfrage mit Knoledge Graph, Werbeanzeigen und ein Google-Produkt am Platz 1 (wie im Artikel geschildert) habe ich noch nciht gesehen.
Youtube ist das Stichwort….
Wunderbarer Beitrag! Vielen Dank dafür!
Ja! Ändern wird sich einiges! Und SEO ist nicht mehr SEO wie es mal war! Ich denke oft an Worte von Marco Janck, der in einem Vortrag vielen versuchte klar zu machen das SEO zu Marketing geworden ist:-) Und Youtube ist dafür das beste Beispiel 🙂 Wahrscheinlich wird sich auch genau das irgendwann auf die organische Suche auswirken! Also 2013 ist umdenken angesagt!
@Marcus: Leider geht es eben nicht mehr darum, dass sich etwas “irgendwann auch auf die organische Suche auswirken wird” – Es geht darum YouTube und andere “Suchmaschinen” als Traffic-ERSATZ zu nutzen – nicht in der Hoffnung, dass es noch irgendetwas bei Google zu holen gäbe.
@Andre: Tut mir leid, aber wenn Du denkst, dass IRGENDeine Seite sicher vor negative SEO ist, dann glaube ich Du liegst falsch. Sicher senkt ein solides Linkprofil und die Unabhängigkeit von SEO das Risiko schon deutlich, aber sicher sollte sich niemand mehr fühlen.
Dass die Änderungen in den Google SERPS sich unterschiedlich auf verschiedene Branchen auswirken ist prinzipiell nicht falsch. Dennoch drehen sich meine Aussagen in der Regel um Entwicklungen in HOCHkommerziellen Industrien wie eCommerce, Comparison, Accomodation oder Travel allgemein. Und dort ist es schlicht pervers geworden… Aber auch in unkommerzielleren Bereichen (z.B. celebs, geo, musik) gibt es neue Probleme wie den Knowledge Graph.
Danke Philipp für deine umfassenden Ausführungen, die ich exakt mit dir teile. Um weiter auszuholen: Das hat zur Folge, dass sich SEO’s und Dienstleiter weiter spezialisieren müssen, um in den sich gegenseitig viral ergänzenden Kanälen stets Experte zu sein.
Ein SEO der von A bis Z alles macht, gibt es längst nicht mehr und so kann es erforderlich werden, dass sich die Segmente innerhalb unserer Disziplin schon bald weiter untergliedern lassen und neue Leistungsgruppen entstehen.
SEO, je mehr ich mich damit beschäftige, desto weniger verstehe ich*gg
onpage Optimierung, klar!
backlinks? zuviele könnten als spam gewertet werden, ohne läuft gar nichts, wie ich in meiner Naivität leider feststellen musste.
“natürliche links” kaum zu bekommen, bzw. Seiten, die jahrelang etabliert sind, kann man als newcomer kaum mehr einholen, selbst wenn diese oft gar nicht mehr gepflegt werden und der content schon veraltet ist, speziell bei technischen Themen.
und jetzt noch negatives SEO? sich gegenseitig ans Bein pinkeln, oder wo will google uns nun wieder reindrängen?
awesome article
Empfehlenswerter Artikel zum Thema "SEO 2013"..
@Philipp: Doch, ich wage zu behaupten, dass du es nicht schaffen wirst, z.B. eine Website wie spiegel.de, bild.de oder tagesschau.de durch negative SEO-Maßnahmen von den ersten Plätzen für z.B. “nachrichten” zu stürzen. Das könntest du nur schaffen, indem du dich strafbar machst oder einen Skandal aufdeckst, aber nicht durch simples Triggern einer Google-Penalty. Sprich, dein Aufwand wär hier schlichtweg so hoch, dass es sich für dich nicht lohnt – auch in Anbetracht der Tatsache, dass Sichtbarkeitseinbußen in den organischen Ergebnissen diese Websites nie den gesamten Traffic kosten würden und damit in deine Maßnahmen in keinem sinnvollen Kosten-Nutzen-Verhältnis stünden.
Nun sind nicht alle Websites so stark wie diese, das gebe ich zu. Aber du hast ja auch nur nach einem Beispiel gefragt, wo es nicht ginge. 😉
@Andre:
1. ich habe nicht behauptet, dass ICH das tun könnte oder gar würde…
2. meiner Meinung nach sind die meisten negativ-SEO-Ansätze illegal, das bezweifle ich nicht – nur leider ist das meiste nicht verfolgbar und daher ist der Aufwand leider weiterhin verschwindend gering
3. “nachrichten” halte ich weder für ein spannendes Keyword, noch glaube ich, dass es darauf ankommt, ob solch eine Maßnahme die Zielseite den kompletten Traffic kostet. In der Regel geht es bei negative SEO darum die Plätze vor dem eigenen Listing “freizuräumen” – dazu können ein oder mehrere Keyword-/URL-Penalties vollkommen ausreichend sein. Ich möchte hier aber gar nicht weiter darauf eingehen oder Leute anstiften wie man so etwas besonders effizient bewerkstelligen könnte.
4. Du hast natürlich Recht dass Top10-Seiten wie die von die erwähnten etwas schwieriger anzugreifen sind, aber darum geht es für die Mehrzahl der Akteure ja auch nicht. Es geht um Webseiten die richtig Geld verdienen… und die sind oft verwundbarer als der Spiegel oder die Tagesschau
Sehr interessanter Beitrag! Vielen Dank
Vielen Dank für die Zusammenfassung.
Ja, nachdem die Welt nicht untergegangen ist, können wir alle gespannt sein, wie’s weiter geht …
“Der Traffic ist einfach nur woanders” – musste gerade so lachen 🙂 Bin auch sehr gespannt auf dieses Jahr, und ob “woanders” jetzt öfters bei mir ist…
Grüße
Schöner Beitrag, vielen Dank. Da müssen wir uns als kleine Webseitenbetreiber warm anziehen, falls mal einer der Konkurrenten auf den Trichter kommt.
Naja nicht nur die SEOs haben ein Problem, vor allem die Texter, die vorher billig Content produziert haben werden sich umsehen. Die Webmaster wollen nach wie vor billigen Content, naja nur zu den vorher üblichen Preisen kann man nichts hochwertiges schaffen.
Hallo zusammen,
ich persönlich frage mich: Gibt es denn Zahlen, die YouTube wirklich auf Rang Zwei der Suchmaschinen emporheben? In der Suchmaschinenverteilung findet man immer nur Google als Gruppe, also Google + YouTube zusammengefasst. Habt ihr vielleicht eine exakte Verteilung?