29 Nov

SEOkomm 2016 – Recap: Make SEO Great Again

In diesem Beitrag habe ich habe für euch zusammengefasst, welche Vorträge ich mir in diesem Jahr auf der SEOkomm am 18.11.2016 angeschaut habe und was für Erkenntnisse ich daraus mitgenommen habe. Zudem bin ich schon sehr gespannt, was eure Highlights waren, falls ihr auch teilgenommen habt. Und auch falls ihr nicht da gewesen sein solltet – was denkt ihr über die einzelnen, hier angesprochenen Themen? Bitte verzeiht, mir dass die Recap so lang geworden ist, aber es gibt eben so viel von der Konferenz zu berichten und ich wollte euch möglichst wenig vorenthalten. Nun gut, fangen wir an:

seokomm 2016 recap

Die SEOkomm 2016 fand wie gewohnt in der Brandboxx im wunderschönen Salzburg statt und ist die wichtigste SEO Konferenz in Österreich. Das Publikum kommt aus dem gesamten deutschsprachigen Raum und die Agenda, sowie die Liste der Speaker können sich wirklich sehen lassen. Oliver Hauser und seine Frau Uschi Hauser haben zusammen mit ihrem Organisationsteam und dem Fachbeirat wieder eine der besten Konferenzen für Suchmaschinenoptimierung auf die Beine gestellt. Vielen Dank dafür an dieser Stelle!

Morgens begann die Konferenz wie die Jahre zuvor mit einer kurzen Begrüßung durch Oliver und Uschi. Direkt im Anschluss ging es direkt mit der Keynote der SEOkomm 2016 los, die von Marcus Tandler abgehalten wurde.

marcus tandler seokomm

Keynote: SEOs sind wo oben ist

von Marcus Tandler

Marcus hatte wieder über 400 Slides im Gepäck, die er wie gewohnt souverän und gekonnt in 45 Minuten abfeuerte. Er erinnerte uns alle, die bereits länger im SEO Bereich tätig sind, an einigen Stellen wieder an unsere Anfangszeiten und zeigte den Neuen wie es einmal war. Außerdem veranschaulichte er auch, was sich im SEO so über die Jahre entwickelt und verändert hat.

Marcus zitierte den SMX West 2016 Vortrag – „How Google Works: A Google Ranking Engineer’s Story“ von Danny Sullivan. Dabei erwähnte Marcus auch noch einmal, dass Google allein, als es um die Auswahl der blauen Färbung der Hyperlinks ging, 42 Blauschattierungen ausprobierte, um die beste Variante zu finden. Noch spannender war allerdings der nächste Test von Google, den Marcus Tandler erwähnt hat. Denn Google hat auch einmal getestet, welche Konsequenzen folgen, wenn sie Ergebnisse, die in den Rankings normalerweise auf dem 4. Platz stehen, stattdessen einfach mal auf dem zweiten Platz ausgeben. Das Ergebnis war erstaunlich: Die CTR auf das erste Ergebnis stieg deutlich an, da das zweite Suchergebnis nun – vom User-Standpunkt aus – deutlich schlechter.

Als nächstes erklärte Marcus dann, wie wichtig sowohl die CTR aus den SERPs als auch der Keywordfokus der Seiten sind und dass es Pflicht ist, immer ein Auge auf die Google Search Console zu haben. Schließich erhalten wir hier einfach direkt Daten von Google, die wir sonst schlichtweg nicht hätten.

Zum Thema des Keyword Fokus einer Seite zeigte Marcus ein schönes Beispiel des Reifenherstellers Continental, der fast 40 Milliarden Umsatz mit Reifen im Jahr macht und zudem über 200.000 Mitarbeiter haben und somit der größte Reifenhersteller sind. Gegen jede Erwartung rankt Continental bei der Suche nach „Reifen“ nicht auf der ersten Seite sondern derzeit auf der dritten Seite und dies auch nur mit einer Seite über Fahrradreifen, der continental-reifen.de Domain. Hier fehlt es aber deutlich an Inhalten, auf dieser rankenden Unterseite für Fahrradreifen lässt sich aus dem Content für die Suchmaschinen nicht erkennen, dass es auf dieser Seite um Fahrradreifen geht. Im Title steht nur „Reifen“ und die Description ist leer. Zudem gibt es weder einen Text, noch gibt es Headings (H1, H2…). Nur anhand der URL ist zu erkennen, dass es um Fahrradreifen geht. Dieses Beispiel zeigt, wie wichtig es ist, Seiten vernünftig aufzubereiten. Andernfalls kommt es im schlimmsten Fall sonst sogar bei sehr großen Brands wie der Continental zu solch katastrophalen Ranking-Ergebnissen. Deich das Beispiel wirklich sehr neugierig machte, warf ich selbst noch einmal einen kurzen Blick auf die Seite conti-online.com – auch hier wird leider konsequent fast alles ignoriert, was man für gute Rankings machen sollte. Continental verschläft in Seelenruhe den Online-Kunden und verliert diese an Mitbewerber, anstatt zu handeln.

Marcus Tandler zeigte dann noch ein Beispiel. An diesem ließ sich schön erkennen, wie wichtig es ist, auch bei der Erstellung neuer Inhalte zu lernen, was wirklich wichtig ist und wie Tools dabei helfen können, anstelle sich nur auf sein Bauchgefühl zu verlassen. Er zeigte dies am Exempel einer Werbeagentur aus München, bei denen die Rankings durch neue Inhalte verbessert werden sollten. Dafür kam eine WDF*p*IDF Analyse zum Einsatz, die unter anderem auch Zahlen ausspuckte. So war hier etwa die Zahl 089 als wichtiger Term zu finden; auch der Einsatz des Proofkeyword Filters änderte dies nicht. Da ihn dieses Ergebnis stutzig machte, schaute er genauer hin und stellte fest, dass es für eine Werbeagentur in München einfach äußerst wichtig ist, die Telefonnummer mit der Vorwahl 089 auf der Webseite zu führen. Denn diese Nummer sieht Google offensichtlich ebenfalls als deutliches Signal für gute Rankings in diesem Bereich. Nachdem die Telefonnummer hinzu gefügt wurde, ging es bergauf mit den Rankings. Das SEO Bauchgefühl hätte dagegen in diesem Fall wohl erst einmal gesagt, dass diese Nummern weggelassen werden sollen, also sieht man hier gut, wie wichtig das Arbeiten mit guten Zahlen und Daten doch eigentlich ist.

Marcus fuhr dann fort mit der Anmerkung, dass harte KPI nicht immer das Wichtigste sind, auf das man schauen sollte. Er wies darauf hin, dass man unbedingt immer mehr die auch Intention der Nutzer im Auge haben muss und seine Strategien immer darauf auslegen solle. Dies wird auch durch den Google Rankbrain Algorithmus immer weiter voran getrieben. Der Nutzer und seine Absichten und Bedürfnisse sind das, woran wir uns anpassen müssen, und diese verändern sich immer mehr durch die immer weitere Verbreitung von Voice Search. Schon heute unterscheidet sich die Voice Search stark von der klassischen Desktopsuche und der mobilen Suche. Der Nutzer wird immer mehr dazu erzogen, natürliche Fragen zu stellen, um damit zu suchen und kommt somit auch mehr und mehr von einfachen Short Head ab.

Der nächste Punkt von Marcus war der Pagespeed, also die Seitenladegeschwindigkeit. Marcus betonte, wie diverse Studien gezeigt haben, dass wenn eine Seite nicht in 3 Sekunden geladen ist, bereits 40% der Nutzer abspringen und damit verloren sind. Hier erwähnte Marcus auch nochmals einen sehr wichtigen, anderen Punkt: Viele schauen ja gerne in der Google Search Console auf die Ladezeiten und die Anzahl der gecrawlten Seiten durch den Google Bot, aber diese Daten in der Search Console beinhalten alle von den Google Bots (Google Bot, Mobile Bot, Media Bot etc) gecrawlten URLs, also nicht nur HTML Seiten, sondern auch CSS, JavaScript, Bilder und Co. Ebenso natürlich auch alle Statuscodes wie 200, 301, 302, 404, 500, 503 usw. Hinzu kommt, ein 301 wird natürlich viel schneller ausgeliefert als eine HTML Seite. Es ist wichtig zu verstehen, dass Crawling nicht gleich Ranking bedeutet. Deshalb muss der Umgang mit den Daten gelernt werden: Um zu verstehen wie man die Faktoren gegebenenfalls beeinflussen kann.

Marcus erwähnte dann noch eine Searchmetrics Studie von Marcus Tober, welcher einmal ausgewertet hat, dass über 66% der Webseiten, die im Jahr 2010 die Suchergebnisse dominierten, heute nicht mehr unter den Top 30 Suchergebnissen ranken. Das bedeutet dass nur ca. 33% der Seiten noch ranken, die anderen 66% sind für Google scheinbar nicht mehr relevant und werden nicht mehr gefunden, denn das Spielfeld der organischen Suche bei Google ist ständig in Bewegung. Eine kleine Randerwähnung von Marcus war schließlich noch, dass laut Google ungefähr 1,1% der Suchen in einem Klick auf einen Anzeigenlink (Adwords) enden, bei über 64.000 Suchanfragen pro Sekunde sind dass dann doch eine ganze menge bezahlte Klicks am Tag.

Natürlich durfte auch in der Keynote nicht fehlen, dass das Thema Mobile eines der wichtigsten Trendthemen ist und man diesen Trend wirklich nicht verschlafen darf. Denn im Oktober 2016 hat der Mobile Traffic erstmals den Desktop Traffic überholt und dies nicht nur in einem einzelnen Land oder auf einem einzelnen Markt, sondern sogar global gesehen. Mobile ist der zentrale Punkt und nach Marcus’ Ansicht ist das Thema Mobile Websites und Apps nur eine Zwischenstufe, es ist sehr wahrscheinlich, dass wir uns in der Zukunft weiter in Richtung Progressive Web Apps bewegen werden.

Das waren dann die insgesamt 414 Slides von Marcus Tandler, der SEOkomm Keynote 2016, die er mit den Worten „Make SEO Great Again!“ beendete.

dominik wojcik seokomm

Mach endlich deine Website sauber!

von Dominik Wojcik

Dominik startete seien Vortrag mit der äußerst einprägsamen Aussage: „Deine Webseite ist vergleichbar mit deiner Wohnung, also räume auf, sonst ist das Mädel schnell wieder weg, dass du zu dir eingeladen hast. Und verdammt, damit hat er recht, denn der Google Bot hat wirklich keine Lust, sich durch Webseiten Müll zu crawlen!

Dann erklärte er dem Publikum erst einmal grundlegend, wie die Google Crawling Architektur funktioniert und dass dies nicht so einfach aufgebaut ist wie viele es sich denken. Dies alles erklärte er sehr anschaulich auf Basis von Google Patenten. An dieser Stelle wies Dominik auch noch mal deutlich drauf hin, dass es Patente sind, die Google bereits vor rund 10 Jahren erstellt hat. In der Zwischenzeit ist dies sogar alles noch ein Stück komplexer und moderner geworden.

Welches Learning man sich hieraus mitnehmen sollte, ist vor allem, dass es für ein gutes Crawling der eigenen Webseite enorm wichtig ist, mit Reduktion und Fokussierung zu arbeiten. Denn eine saubere Webseiten Architektur ist essentiell, damit der Google Bot gut durch die Seite kommt und die Seite dann auch gut im Index landen kann. Auch kurzzeitige Produktion von überflüssigen URLs und Dokumenten hat weitreichende Folgen: Wie Dominik erklärte, hat Google ein langanhaltendes Gedächtnis, auch URLs, ganz egal, ob Seiten mit dem Statuscode 200, Weiterleitungen mit 301 und 302 oder Fehlerseiten wie 404 merkt sich Google und versucht, diese URLs manchmal auch noch nach vielen Jahren wieder aufzurufen und das kostet natürlich wertvolles Crawlbudget. Diese „minderwertigen“ URLs haben zwar einen schlechten Score bei Google und werden nur ganz selten vom Google Bot aufgerufen, dennoch belasten sie unnötig die Webseiten. Daher sollte man diese immer vermeiden, wenn es nur irgendwie geht.

Dominik erklärte dem Publikum auf der SEOkomm, dass es wichtig ist, einen Sweetspot zwischen interner Verlinkung, Informationsmanagement und Crawling zu erschaffen und damit gezielt und strukturiert zu arbeiten. Ein erster Schritt, um dies zu erreichen, ist auch für Dominik immer eine Webserver-Logfile Analyse, denn hieraus lässt sich am besten ermitteln was die Suchmaschinen Crawler und Bots so machen. Daher ist eine Saubere Logfile Analyse grundlegend zu empfehlen, als weiteres kann man sich dann Gedanken machen, auch selbst einmal die Seite zu crawlen und mit weiteren Tools im Detail zu schauen, wo noch weiter aufgeräumt werden sollte.

Anschließend kamen noch ein paar kleine Tipps. So empfahl Dominik zum Beispiel, die Pagination immer mit rel=“next“ und rel=“prev“ auszuzeichnen und die Unterseiten der Pagination, wenn diese nicht gezielt ranken sollen, per Meta-Robots NoIndex auszuschließen. Er gab auch zu bedenken, dass etwa Footer Links nicht Global auf einer Webseite immer gleich sein müssen. So kann es zum Beispiel sinnvoll sein, in einem Online-Shop für Kleidung einen Footer mit passenden Links für den Frauen-Bereich und einen Separaten für den Männer-Bereich zu pflegen. Auch betonte Dominik hier, dass noch immer die interne Verlinkung und vor allem die Anker-Texte eine Waffe sind. Wenn man diese vernünftig, kann man oft schon die Rankings gut beeinflussen. Auch der Einsatz von PRG-Pattern (Post-Redirect-Get) und JavaScript zur Reduktion unnötiger interner Links kann praktikabel sein, aber vor allem bei der JavaScript Variante müssen sie sehr aufwändig und komplex gestaltet sein, damit Google diese nicht findet. Dominik betonte immer wieder, dass er auf Webseiten zu einfach gestaltete Maskierungen sieht, die Google inzwischen aber erkennen und Interpretieren kann. Diese schlechten Maskierungen killen nach seiner Aussage oft deutlich die Sichtbarkeit von Webseiten.

Ein weiterer, gern gemachter Fehler, den Dominik noch mal deutlich aufzeigte, sind schlecht optimierte Snippets und Headings. Wichtig ist es, diese zu optimieren, sodass Google direkt erkennen kann, um was es auf der Seite geht: Was ist das Thema und der Inhalt der Seite? Achtet außerdem auch darauf, dass der Meta-Title und die Description die Benutzer direkt anspricht und somit die CTR steigert. Die Headings helfen zudem dem Nutzer, sich auf der Seite zu navigieren und sich zurecht zu finden. Niemand möchte Überschriften wie „hier Shoppen“, „mehr erfahren“ oder „Produkte“.

Auch in Dominiks Vortrag durfte natürlich nicht der Hinweis fehlen, dass es immer wichtiger wird mit einer Mobile First Strategie zu arbeiten. Macht keine Mobilen (m.) Seiten oder Dynamic Seiten! Wenn ihr es vernünftig machen wollt, ist Responsive die Technik, die ihr wollt und die am besten ist.

Die CTR und sprechende URLs sind laut Dominik keine direkten Ranking Faktoren, dennoch aber stark zu empfehlen. Denn eine gute CTR zeigt, dass die Seite den Nutzer anspricht. Sprechende URLs, die der Benutzer verstehen kann, schaffen Vertrauen und werden mehr geteilt und machen einen professionelleren Eindruck als kryptische und nichts sagende Parameter URLs. Dominik empfahl den Besuchern seines Vortrages weiterhin, stark auf strukturierte Daten zu setzen. Klar, man gibt viele Daten damit direkt an Google, aber diese Daten sind meist sowieso vorhanden, können aber durch den Einsatz von strukturierten Daten besser verarbeitet werden und können auch einen kleinen Vorteil bei den Suchmaschinen bringen, also Machen!

Ja, auch Content muss auf Mobile Webseiten, betonte Dominik. So hat auch Google bereits bestätigt, dass auf mobilen Seiten im Gegensatz zu Desktop Seiten auch mit „Tabbing“ gearbeitet werden kann und die nicht direkt sichtbaren Inhalte dennoch gewertet werden. Aber auch hier gilt, blendet Inhalte standardmäßig nur dann aus, wenn es für den Besucher so besser ist. Macht es einfach per CSS und deutlich, sodass der Nutzer den Inhalt auch einfach per Klick einblenden kann; komplett verstecken ist hier natürlich ein No-Go.

Auch der Einsatz von Minifying macht Sinn und SSL ist ebenfalls zu empfehlen. Dominik empfiehlt auch, beim Umstieg auf HTTPS gleich HTTP2.0 mit zu implementieren, denn dadurch beschleunigt sich der Pagespeed mal gerne um 20% und das ist einfach immer wichtiger.

Und dann ging Dominik noch mal auf Content ein, mit der einleitenden Frage: „Was haben Content und der Inhalt des Kühlschrank gemein?“ Die Antwort darauf war dann „Wenn man nichts macht, schimmelt es“. Damit erklärte Dominik, wie wichtig es ist, Content regelmäßig zu überarbeiten und zu verbessern, Für Google ist die Content Update Frequenz wichtig und sollte je nach Thema, Seite und Wettbewerb im Marktsegment passend gewählt werden. Achtet auch darauf, dass interner Konkurrenzkampf zwischen Dokumenten eurer Webseite vermieden wird, auch wenn dies nicht immer leicht ist, vor allem zwischen Content und Themen Welten Seiten. Versucht zum Beispiel, in Shops nicht für jede Produktvariante wie zum Beispiel verschiedenste Größen extra Seiten zu generieren. Auf Kategorieseiten mit Produkt Listing kann man Content aus Dominiks Erfahrung auch gut oben anteasern und unten dann den SEO Text für den Besucher schön aufbereitet, mit Bildern und guten Zwischenüberschriften gliedern und angenehmer gestaltet anbieten.

Dann wurde auch nochmal von Dominik darauf hingewiesen, dass Content nicht nur Text bedeutet: Auch andere Elemente wie zum Beispiel Bilder gehören dazu. Hier sagte er noch einmal explizit, dass es vielleicht doch nicht die beste Idee ist, Stockbilder die viele Andere auch einsetzen, zu verwenden. Denn Google erkennt natürlich, wenn Bilder auf vielen Webseiten eingesetzt werden, was nicht unbedingt ein Zeichen für eine Webseite von hoher Qualität ist und dann kam gleich noch der nächste Tipp: Wenn es um Bilder geht, achtet nicht nur auf die Alt-Texte und Dateinamen, sondern gebt den Bildern auch vernünftige Exif Daten, denn diese können auch ein Ranking Signal bei den Suchmaschinen darstellen.

Zum Abschluss gab Dominik noch einmal deutlich zu verstehen, dass man die eigene Seite und deren Inhalte gut monitoren soll und die Möglichkeiten, über die man verfügt, – etwa mit der Google Search Console, Analytics und den ganzen anderen SEO Tools –auch nutzen soll. In diesem Sinne beendete Dominik seinen Vortrag dann mit den Worten „Deine Webseite ist dein Tempel, also behandle ihn auch so!“

fili wiese seokomm

Making sites uber fast

von Fili Wiese

Fili von den Searchbrothers bat zu Beginn erst einmal darum, die Hände hoch zu nehmen, wenn die eigene Webseite in unter 3 Sekunden lädt. Nur vereinzelnd gingen hier Hände nach oben, weshalb Fili dann mit den Worten „das können wir besser machen!“ fortfuhr. Denn Pagespeed ist ein Kernfaktor für gute Webseiten und beeinflusst dabei auch direkt das Nutzerverhalten. Und beides sind laut Fili Kernfaktoren, die man nicht ignorieren darf, denn sie beeinflussen auch die Rankings. „Aber halt, noch viel wichtiger ist am Ende dann ja der Profit“, sagt Fili und dieser wird durch langsame Webseiten massiv geschmälert. Dass das Nutzerverhalten und die Conversionrate massiv von der Seitenladegeschwindigkeit beeinflusst werden, wurde laut Fili schon in sehr vielen Studien nachgewiesen und auch die Relevanz für Google ist bereits bestätigt worden. Fili zitierte aus einer Google Meldung von April 2010, nach der Pagespeed ein rankingrelevanter Faktor ist.

Google könnte theoretisch ohne Probleme 10 Millionen Seiten deiner Webseite in nur einer Stunde crawlen, aber das wollen sie nicht, da deine Seite down gehen könnte. Und genau darauf achtet Google sehr streng; sobald deine Webseite in irgendeiner Art und Weise Anzeichen dafür gibt, dass der Server zu stark belastet sein könnte und der Server dadurch langsam die Seiten ausliefert bzw. es einen Speedeinbruch gibt, senkt Google direkt tragisch die Crawling Rate des Google Bots. Also muss die Seite schnell sein, damit Google nicht unnötig lange benötigt, um deine Webseite komplett zu crawlen.

Laut Fili ist besonders für ihn sehr auffällig, dass gerade alle sehr stark über Mobile First reden, aber das Thema in seinen Augen schon viele Jahre relevant ist. Denn der wichtigste Faktor neben dem Design ist für gute Mobile Seiten der Pagespeed und das Thema Pagespeed ist sowohl für Mobile Endgeräte als auch für den Desktop Bereich super wichtig. Zum Pagespeed gehören neben den Server Faktoren natürlich auch die Dateigröße: Wieviel Kilobyte müssen geladen werden? Wir sind alle sehr verwöhnt, sitzen in unseren Büros mit schnellen Highspeed-Internet-Anschlüssen, aber wie schaut das denn aus mit den Nutzern, die nicht immer in Ballungsgebieten Wohnen? Mit Nutzern, die über mobile Internet Anschlüsse surfen? Wie ist das im Ausland, gibt es in Indien schnelles Internet? Wie man sieht, ist es relevanter, als es uns vielleicht immer bewusst ist. Auch sollte man sich immer die Frage stellen, ob die eigene Webseite auch ohne JavaScript Unterstützung nutzbar ist, führte Fili weiter aus. Ja, Google kann JavaScript, aber seid ihr euch sicher, dass die Browser und Internet Systeme der nächsten Monate und Jahre das können? Fili würde nicht drauf wetten, dass dein zukünftiger Online-Kühlschrank JavaScript kann und wenn nicht, kann er bei dir schon mal keine Milch bestellen.

Fili gab nun einige kleine Hinweise, was man so machen sollte. Er sieht immer wieder, dass auf Webseiten viele CSS und Javascript Zeilen auf jeder Seite geladen werden, die zum überwiegenden Teil gar nicht genutzt werden, das muss nicht sein. Eine weitere Sache: Vermeidet Redirects und Co. auf eurer Seite, wann immer es auch geht und nutzt Funktionen wie DNS und ja, auch AMP ist schön. Fili war AMP gegenüber zuerst sehr kritisch eingestellt, aber er mag es inzwischen,auch wenn er es aus Entwickler-Sicht nicht ganz so optimal empfindet. Doch die Erfahrungen der letzten Zeit haben ihm deutlich gezeigt, dass es gut ist. Um die eigene Webseite zu beschleunigen, sollte man auch immer an die Server Parameter denken. Benötigt man wirklich alle Apache Module, die aktiv sind? Beim Thema Datenbank abfragen: Ist es wirklich nötig, hunderte Querrys an die MySQL Datenbank pro Seite abzufeuern oder kann dies auch effizienter sein? Dann empfahl Fili auch noch, die Webseite komplett auf https umzustellen und HSTS zu nutzen und wenn man gerade sowieso schon auf https umstellt, dann im Idealfall auch gleich noch auf HTTP2. Hiermit lässt sich sehr viel Ladezeit sparen, da nicht mehr jedes Element einzeln abgerufen werden muss, sondern der Server in einem Rutsch als Stream alle Daten übergibt, die für die Darstellung der Seite benötigt werden und keine einzelnen Verbindungen jeweils aufgebaut werden müssen. Damit war Fili Wiese dann auch durch.

fabienne colling seokomm

Ein Fahrplan für den verlustfreien SEO-Relaunch

von Fabienne Colling

Fabienne, die schon sehr viele Relaunchs aus SEO Sicht begleitet hat, empfahl zu Beginn, immer noch einmal zu hinterfragen, ob ein Relaunch sein muss, ob und wie er stattfinden sollte und was alles geändert werden muss. Dazu ist es sehr wichtig, erst einmal festzustellen, was denn die Ziele des Relaunchs sind. Im Planungsprozess ist es für sie dabei immer sehr wichtig zu sehen, was alles gut an der zu überarbeitenden Webseite ist und nicht nur, wie es so gerne gemacht wird, einzig und alleine auf die Fehler der Webseite zu schauen. Es ist hierfür immer mit einer Bestandsaufnahme zu starten, haltet also den Ist-Zustand fest. Erst wenn diese Fragen geklärt sind, kann man die nächsten Schritte sinnvoll abhandeln, die da darin bestehen, eine Risikobewertung für den Relaunch zu machen und Ressourcen sowie die benötigte Zeit realistisch zu schätzen.

Wichtig ist für den Planungsprozess nicht nur, mit den Product Ownern, Entwicklern und Managern zu reden, sondern bezieht auch die anderen wichtigen Bereiche wie zum Beispiel das gesamte Marketing mit ein, nur dadurch lässt sich verhindern, dass relevante Faktoren der Seite beim Relaunch verloren gehen.

Fabienne empfiehlt, eine genaue Analyse zu machen, um festzustellen, welche Seitentypen die Webseite denn hat, welche Einstiegsseiten es gibt, welche Seiten besonders Conversion Stark sind, was wichtige Seiten und Elemente für die Navigation sind, was genutzt und was nicht wird usw. Fragt euch dabei immer, welche Seiten sich lohnen und welche Unterseiten nur die Kraft kosten und der Seite somit schaden. Weg muss laut Fabienne immer all das, was nur Crawl- und Index-Budget kostet und kein Geld einbringt.

Bei jedem Relaunch sollte darauf geachtet werden, flache und übersichtliche Strukturen zu erschaffen und die wichtigen Inhalte auf diese Weise gut und einfach erreichbar und geordnet erreichbar zu machen wie es nur geht, empfiehlt Fabienne. Beachtet die SEO Grundlagen und vermeidet klassische Fehler, macht ein vernünftiges Weiterleitung Konzepte vor dem Relaunch, achtet drauf kein Duplicate Content zu erzeugen und überarbeitet Title und Meta Tags, damit sie gut in der Zielgruppe funktionieren und möglichst unique sind. Achtet auch darauf, dass eure Attribute wie Titles, Desc, Alt-Tags, Bild URLs, strukturierte Daten und so weiter auch im Nachgang einfach editierbar bleiben. Auch immer wieder gerne falsch gemacht sind die Stolperfallen wie die Erreichbarkeit der Webseite mit www und ohne www, Groß und Kleinschreibung der URLs, sowie ob die Seiten unter http und https oder mit und ohne Trailing Slash am Ende der URL erreichbar sind. Einheitlichkeit ist wichtig, das heißt, eine eindeutige URL pro Inhalt/Dokument und nicht mehr. Also kurz gesagt, achtet darauf, die Crawlbarkeit, Indexierungslogik und interne Verlinkungen ordentlich aufsetzen.

Wichtig ist es nach ihrer Erfahrung, ordentlich zu arbeiten, denn hat Google eine URL gefunden, bleibt diese bei Google auf immer und ewig gespeichert und das nervt zu Teil. So ruft Google manchmal auch noch nach 10 Jahren URLs auf, die es schon lange nicht mehr gibt. Nutzt die HTTP Status Codes richtig, auch 410 kann Sinn machen. Eine XML-Sitemap ist gut und wichtig, hier sollten aber nur Seiten rein, die auch indexiert werden können. Achtet dabei auch darauf, dass es hier keine Widersprüche zwischen robots.txt und Sitemap gibt.

Fabienne erklärte den Besuchern ihres Vortrages auch noch einmal, dass es wichtig ist zu verstehen, dass die robots.txt nur aussagt, dass die Seiten nicht vom Bot gecrawlt werden dürfen. Dies bedeutet aber nicht, dass die Seiten nicht im Index landen. Dementsprechend ist die Robots.txt keine Option, um Seiten vor dem Google Index zu bewahren; hierfür muss der Robots-Noindex-Tag gesetzt werden. Dann dürfen die Seiten aber nicht per robots.txt gesperrt werden. Macht man dies falsch, produziert man gegebenenfalls eine Menge Müll, der dann in den Serps landet und der eigenen Webseite nur schadet.

Ein weiterer Tipp von ihr ist es, intern keine Notfälle Links zu nutzen, das macht aus ihrer Sicht keinen Sinn, da Google den nofollow Links dennoch folgt, dabei aber keine Power weiter gegeben wird. Diese geht einfach verloren dadurch. Macht euch also eine Strategie für die Steuerung der Attribute, wie zum Beispiel noindex , robots.txt, canonical, redirects usw.

Vermeidet unendliche Crawling Pfade, legt thematische Seiten nah zusammen und verlinkt nicht unbedingt direkt von Fernsehern zu Blumen, das macht ja meist wirklich keinen Sinn. Schaut euch eure Webseite mit Crawling-Tools wie Onpage.org, DeepCrawl, Audisto oder ScreamingFrog an, um zu erkennen, was ihr da vor euch habt und malt es dann anschließend schematisch auf ein Blatt Papier, um zu sehen, was zu tun ist. Und achtet auch darauf, dass keine ausverkauften oder gelöschten Seiten/Kategorien/Produkte pauschal auf die Startseite weiter geleitet werden oder Redirect Ketten entstehen.

Fabienne empfahl dann auch noch, auf jeden Fall vor dem Release des Relaunchs, das Ganze noch auf einer Testumgebung genau zu testen und dann, wenn alles gut ist, nach dem Livegang alle wichtigen Ziele und Parameter des Relaunchs genauestens und engmaschig zu messen und zu analysieren, wie die Performance des Relaunches ausfällt.

john mueller seokomm

PANEL: Ask Google, ask John Müller

mit Michael Schöttler, Nina Baumann, Jens Fauldrath und Tobias Fox

Nach der Mittagspause war ich dann im Ask Google Panel, in dem Nina, Michael und Jens, moderiert von Tobias, Fragen an John Müller von Google stellten. Hier ging es dann zuerst um die Mobile First Index Ankündigung von Google, John Müller betonte hier noch mal deutlich, dass einer der meisten Fehler der Webmaster aus seiner Google Sicht sei, dass oft auf den Mobilen Seiten die Inhalte fehlen. So gibt es oft schon sehr gute Inhalte auf den Desktop Seiten, die dann aber nicht auf den mobilen Seiten zu finden sind. Hier ist es wichtig, dass diese auch auf den mobilen Seiten Einzug finden müssen. Wenn etwas in den Snippets (Title/Description) versprochen wird, muss dies dann natürlich auch auf der Seite zu finden sein und da hapert es aus seiner Sicht im mobilen Bereich noch sehr. Jens fragte hier noch einmal genauer bei John nach; könnte Responsive Content wie es Karl Kratz zum Beispiel empfiehlt die beste Lösung sein? John Müller hat an dieser Stelle leider keine Zauberlösung für uns. So sagte John, dass man hier noch viel kämpfen und überlegen müsse, wie man die Inhalte vom Desktop bestmöglich auf das mobile Endgerät bekommen kann. Es ist vieles denkbar, es ist hierbei nur wichtig, dass es immer der bestmögliche Weg für den Besucher der Seite ist. Ob man dabei dann die kompletten Inhalte oder nur Auszüge anzeigt, kann man nicht pauschal beantworten, hier muss man selbst nach Wegen und Ideen suchen, das jeweils beste Ergebnis für sich und die mobilen Besucher zu finden.

Jens fragte dann gleich weiter, wie denn Johns Empfehlungen und Meinungen zur mobilen Informationsarchitektur seien, denn vieles was man auf dem Desktop machen und ausgeben kann – auch für den Google Bot –, kann man oft auf mobilen Seiten so nicht durchführen. John antwortete, dass Google hier auch noch keinen fertigen Masterplan hätte und man da bei Google auch noch viel am Probieren sei und noch nicht wisse, wo die Reise genau hin geht. John Müller stellte noch einmal klar, dass Google derzeit noch keinen fertigen mobile First Ranking Index habe. Man versuche, mit kleinen Sets bei Google an Webseiten zu experimentieren und testen, um so herauszufinden, wie es in Zukunft gehen könnte. Am liebsten hätte Google es aber so, dass man als Webmaster dafür dann in der Zukunft nicht zu viel neu anpassen muss, wenn man den Idealweg bei Google dann gefunden hat. Aber ob dies dann so sein wird ist noch nicht sicher. Es gibt da derzeit noch keinen Zeitplan, wann der mobile First Index kommt. Dies wird sich erst mit der Zeit zeigen. Man wird aber bei Google versuchen, dies so früh wie möglich genauer abschätzen zu können, wie groß dann ggf. Umstellungen werden könnten bei den Webseiten Betreibern, so dass man jene dann mit ausreichend Vorlaufzeit informieren kann, damit sich dann auch jeder noch mal damit auseinander setzen kann.

Nun erkundigte sich Jens bei John noch einmal nach den AMP (Accelerated Mobile Pages) Sites. John erklärte kurz, was Vorteile der AMP Technologie seien und dass eins der Ziele ja auch sei, Last von den Servern der Webmaster zu nehmen und man dieses ja durch die Google Cached-Proxies gut machen könne. Ihnen sei aber auch klar, dass dadurch unter Umständen das Crawling auch komplexer wird. Dies gilt natürlich vor allem für unsauber programmierte Webseiten. Alles in allem können laut John Müller AMP-Webseiten zur Zeit auch einen Rankingvorteil haben können.

Das nächste Thema, das Jens interessierte, war die Google Search Console, er fragte John Müller was die Roadmap wäre und welche Pläne es so für die GSC gäbe und ob es vielleicht irgendwann sogar eine öffentliche Roadmap geben könnte. John Müller antwortete, er glaube nicht daran, dass es hierfür mal eine öffentliche Roadmap geben werde. Er begründete dies damit, dass sich Prioritäten und Pläne bei Google mitunter sehr schnell ändern können und man bei Google versucht nicht zu viel vorher zu versprechen. Man arbeitet lieber im Hintergrund und bringt dann möglichst runde und fertige Produkte raus und nicht etwas Halbgares, nur weil eine Release Ankündigung das zum Zeitpunkt X verlangt.

Jens hakte an dieser Stelle noch einmal etwas weiter nach, er fragte nach fehlenden Datenpunkten in der API der Google Search Console, die man derzeit, wenn man sie nutzen möchte, aufwändig aus der Weboberfläche Scrapen muss: Ob diese denn auch eventuell mal Einzug in die API finden werden? John Müller sagte ja, er ist sicher, dass da noch der ein oder andere Punkt in der Zukunft auch über die API abfragbar sein wird. Man arbeite da wohl bei Google schon an einigen Verbesserungen im Hintergrund daran, vor allem möchte man bei Google möglichst viele der neuen und kommenden Funktionen der Google Search Console auch in die API bringen. John ist hierbei auch bewusst, dass derzeit zum Teil Abfragen über die API verwirrend sein können und vielen Nutzern nicht immer klar ist, ob Querries gerade auf URL, Keywords, Pages etc. ausgegeben werden. Auch hier wird man sicher noch einiges verbessern, sagte John, er denkt und hofft, dass man sich hier das ein oder andere intern bei der Google Analytics API abschauen wird, um es leichter für die Webmaster zu machen.

Eine der nächsten Fragen bezog sich auf den Sitemap Report in der Google Search Console. Hier wurde gefragt, ob es Verbesserungen geben würde und man eventuell, anstatt einfach nur aufzuzeigen, dass X Seiten eingereicht sind und nur Y Seiten im Index sind, vielleicht auch in Zukunft eine Liste, mit dem was nicht im Index ist, zu exportieren sei. John antwortete, dass solch eine Liste nicht so gut wäre, da es die Webmaster nur verwirren würde. Google möchte lieber den Leuten Hinweise geben, falls es ein Problem gibt. Nur weil einige Seiten aus der Sitemap nicht im Index sind, muss hier ja kein Problem vorliegen. John sagte weiter, dass man bei Google natürlich überlege, wie man das besser zeigen könnte, wenn die nicht-Indexierung zum Beispiel an technischen oder strukturellen Problemen liegt. Aber wie das dann aussehen könne, wisse man auch noch nicht.

Nina fragte anschließend John Müller, wie er es sieht, dass man dem Nutzer ja keinen anderen Inhalt als dem Crawler ausgeben darf – denn das ist ein Problem und behindert eventuell sogar die Personalisierung, die ja wiederum sehr gut sein kann für den Webseiten Besucher. John antwortete darauf, dass es hierbei einfach nur wichtig ist, dass der Hauptinhalt der Nutzer auch für den Bot sichtbar ist, dann sollte es im Normalfall kein großes Problem sein. Man muss hierbei aber aufpassen, da man zum Beispiel bei dynamischen Sprachaussteuerungen Probleme bekommen kann, weil der Google Bot in den meisten Fällen ja aus den USA crawlt. Dadurch bekäme dieser dann ja meist nur den Englischen Inhalt zu sehen und die deutschen Inhalte wären so nicht indexierbar für Google.

Die nächste Frage, die an John Müller gerichtet wurde, betraf die Indexierung: Ob es denn Pläne gäbe, den Webmastern eine genauere Übersicht an die Hand zu geben wie Google mit der Indexierung der eigenen Seiten zurechtkommt? Dies ist ja vor allem bei Heavy JavaScript Seiten spannend. Und ob John denn wüsste, wie die Timeouts für JS/AJAX sind? John Müller antwortete, dass man bei Google ja immer mehr daran arbeite, das Crawling und die Indexierung zu verbessern. Es gibt schon viele Sachen, die der Google Bot kann und vieles wird sicher noch hinzu kommen, aber ohne Zweifel wird es auch immer wieder Fälle geben, in denen die Interpretation und das Rendering nicht möglich sind. Zum Beispiel kann und will man seitens Google fortlaufend ladende AJAX Inputs nicht verarbeiten. Aber ja, Google möchte in Zukunft mehr Transparenz schaffen, sodass der Webmaster leichter erkennen kann, wenn es Probleme beim Crawlen seiner Inhalte gibt und der Webmaster diese dann beseitigen kann.

Nun gab John Müller noch das Beispiel, dass Hreflang im Grunde ja sehr einfach und simpel ausschaut, man aber in der Praxis sieht, dass sehr viele hier Fehler machen und es doch sehr komplex werden kann, was natürlich alle Berater da draußen freuen wird. Seiner Meinung nach kann aber eine Hreflang Kette nicht durch externe Einbindungen zerstört werden. Das würde man ja bei Google erkennen und dann gegebenenfalls nicht beachten.

Nun kam noch die Frage auf, inwieweit Google denn die Nutzer Signale mithin die Rankings einbeziehen würde? Darauf antwortete John Müller, dass man bei Google schon auf eindeutige Nutzer Signale achtet. Es sei aber nicht so, dass über Google Analytics akquirierte Daten als direkter Rankingfaktor einbezogen werden. Wenn aber zum Beispiel durch erhöhte Suchanfragen und Klicks auf eine bestimmte Seite in den SERPs, es Google möglich sei, kurzfristig Trends festzustellen und dementsprechend auch zu reagieren und Seiten so zeitweise nach vorne zu ziehen, damit die Nutzer auch das schnell und einfach erreichen was sie erwarten?

Auf die Frage, wie man denn bei Google die Content Qualität bestimmt, reagierte John, dass man auch hier viele Daten aggregiert. Zum einen werden natürlich mathematische Berechnungen ausgeführt, zur Beurteilung des Inhaltes, aber auch Nutzer Signale sind hier eine große Sache, anhand des Verhaltens der User lasse sich schon viel über die Qualität von Inhalten lernen.

Abschließend wurde John Müller noch gefragt, ob Google derzeit daran arbeite, in Zukunft auch PRG (Post-Redirect-Get) Seiten auswerten zu können? Antwort: Seines Wissens nach nicht. Dazu sieht er derzeit keinen Grund. Als weiteres merkte er noch an, dass er immer wieder feststelle, dass Leute Links verstecken, die sie eigentlich gar nicht verstecken müssten, daher sollte man sich immer überlegen ob man solche Techniken wirklich benötigt, es gibt aber auch fälle wo es wirklich sinnvoll sein kann.

seo site clinic seokomm 2016

Live Site Clinic

mit Dominik Wojcik, Sebastian Erlhofer und Bastian Grimm

Im Rahmen dieser Session haben Dominik, Sebastian und Bastian live auf der Bühne Kurz-SEO-Analysen zu Webseiten von Teilnehmern der Session abgehalten. Moderiert wurde das Ganze von Evert Veldhuijzen. Analysiert wurden eine Reise-Webseite, eine Seite zum Thema Aluminiumdach-Installationen und eine Seite einer großen Berliner Fluggesellschaft.

Im Allgemeinen lässt sich sagen, dass fast alle der getesteten Seiten mit Standardproblemen und Fehlern zu tun haben, oft basierend auf den eingesetzten CMS Systemen, wie zum Beispiel den Tag Seiten bei WordPress, dass teilweise für jedes Bild eine extra Seite generiert wird, dass fast jedes WP Plugin eigene JS und CSS Files einbindet, dass das typo3temp Verzeichnis bei Typo3 standardmäßig auf Disallow steht und so weiter. Davon abgesehen sind aber auch bei fast allen Seiten strukturelle Probleme zu finden, sei es fehlerhafte Einbindung der hreflang Tags, das Fehlen von rel=“next“ und rel=“prev“, der fehlerhafte Umgang mit Canonicals oder die massenhafte Generierung von Such-URLs und Filter-Seiten.

Ebenfalls gern – aber nicht optimal eingesetzt – werden Title, Descriptions und die Headings (H1, H2, H3 usw.). Eine mobile Optimierung ist auch noch nicht überall vorhanden, ebenso wie eine konsequenter Einsatz von SSL, und der Einsatz von guten Content mit Mehrwert für den Besucher ist auch nicht selbstverständlich. Diese Session zeigte einmal mehr, dass es auf so gut wie jeder Webseite viel Arbeit aus SEO Sicht gibt. Dies ist insbesondere noch mal beeindruckender, als dass dies nur Seiten von Anwesenden waren, die sich ja schon mal aktiv mit Suchmaschinenoptimierung beschäftigt haben sollten. Man mag sich also lieber gar nicht vorstellen, wie Seiten aussehen, bei denen dies noch nicht der Fall ist.

stefan fischerlaender seokomm

Mobile SEO: Strategie und Praxis

von Stefan Fischerländer

Nun zum eindeutigen Trend Thema der SEOkomm 2016 in Salzburg… „Mobile SEO“. Zu Beginn machte Stefan zunächst erst einmal klar, dass es unerlässlich ist, Daten zu erheben, diese zu Analysieren und daraus dann die Strategie zu entwickeln. Er zeigte zu Beginn erst einmal auf, dass es massive Unterschiede geben kann – je nach Thema der Seite (Shop, News, Information, Entertainment etc.) – , aber ebenso auch Unterschiede zwischen dem Verhalten der Benutzer verschiedener Endgeräte-Klassen. Er zeigte auch, dass hierbei Tool-Daten nicht immer gleich miteinander vergleichbar sind, da bei einem Teil die Tablet Nutzer zum Beispiel zum Desktop gezählt werden, bei anderen wiederum zum Smartphone Traffic und dann gibt’s natürlich auch noch einen Teil der Tools die Tablet separat ausgeben. Dementsprechend ist hier beim Analysieren von Daten aus verschiedenen Tools etwas Aufmerksamkeit gefragt.

Dann zeigte Stefan, was es mit AMP auf sich hat, was Vor- und Nachteile sind und warum es wichtig sein kann, auf AMP zu setzen und dass hier noch viel Potential drin liegt, da gerade einmal die Hälfte der News Seiten, die er sich so angeschaut hat, AMP schon richtig integriert haben. Zum anderen gibt es aber schon einige Trend Such-Themen (z.B.: aktuell die Suche nach Donald Trump), bei denen die komplette erste Suchergebnisseite bei Google aus AMP Seiten besteht.

Als nächstes ging er darauf ein, dass mobile Seite nicht gleich Mobile Seite ist. Er zeigte, dass aus seiner Sicht m-punkt (also mobile Seiten unter einer extra Subdomain wie zum Beispiel m.domain.tld) nicht mehr zu empfehlen ist und im Idealfall vermieden werden sollte. Etwas besser, aber auch nicht wirklich zukunftssicher ist der Einsatz von mobilen Dynamic Serving Seiten. Dies bedeutet, dass beim Abruf mit einem Mobilen Endgerät eine mobile Seite unter den URLs der Desktop Seite ausgeliefert wird. Die beste, modernste und zukunftssicherste Technik derzeit sind auch für Stefan Responsive Seiten. Ausnahmen, bei denen die anderen Techniken Vorteile haben, gibt es nur sehr wenige, also steckt am besten nur noch in Responsive Sites Ressourcen. Ein paar der Vorteile von Responsive-Webseiten sind der einfachere Wartungsaufwand, die geringere Fehler Anfälligkeit, einfachere und bessere Crawlbarkeit.

Stefan erklärte auch, dass im Fokus für mobile Seiten immer die Benutzbarkeit und eine bestmögliche User Experience sein sollten. Das gilt nicht nur für das Design sondern auch die Inhalte. Die Besucher auf der mobilen Seite mit langen Desktop Texten zu erschlagen, macht meist keinen Sinn. Auch das Scrollen ist auf Mobile ein wichtiger Faktor. Stefan berichtete von einem Test zum Scrolling auf Smartphones: Sie haben dabei einem Teil der Nutzer ein Scrolling mit 30 fps (frames per second) ausgeliefert und dem anderen Teil der Besucher das Scrolling mit 60fps ermöglicht. Das Ergebnis hieraus ist, dass die Interaktionen wie Likes, Shares und Co. beim flüssigeren Scrolling mit 60fps massiv höher waren. Aus diesem Grund sollte man zum Beispiel lieber, wenn möglich, die Transform Funktion von CSS nutzen, um Objekte zu bewegen. Denn hierbei wird die GPU und nicht nur die CPU verwendet und damit die Nutzer Erfahrung einfach smoother sein kann. Also behaltet immer die UX und auch die Technik im Auge.

Aus diesem Grund fragte Stefan das Publikum, „Mal ehrlich, wie oft rufen wir unsere eigene Seite denn am Handy auf? Täglich? Kaum jemand von uns macht das!“ Die meisten von uns sitzen doch am Schreibtisch immer vor großen Bildschirmen und testen unsere Seiten nur in Ausnahmefällen mal auf dem Smartphone und das, obwohl immer mehr unseres Traffics vom Smartphone kommt.
Zum Thema Mobile First Index sagte er, dass dies eine wirklich wichtige Sache sei und wir alle das auf dem Radar haben sollten und daran arbeiten müssen. Auch aus seiner Sicht glaubt er fest daran, dass es bei einem Index bleiben wird. Einen Unterschied wird es wohl nur im Crawling geben, das bedeutet, dass wir uns alle mehr Gedanken über das mobile Crawling machen sollten. Eines der Kernprobleme sei, das vieles, was auf mobilen Seiten versteckt ist, nicht ausgewiesen wird, dass schlechter intern verlinkt wird und teilweise sogar viele Inhalte einfach nicht auf mobilen Webseiten vorhanden sind.

Apps ersetzen derzeit noch keine mobilen Webseiten, weder von der Anzahl der Nutzer, noch von der Reichweite. Dennoch kann auch ASO wichtig sein und wenn man eine App hat, sollte man dies keinesfalls verpassen. Beim ASO ist die Uninstall Ratio sehr wichtig, ebenso wie die AppStore Detail Seiten. Diese bestimmen zum Teil, wie wir im AppStore ranken und zum anderen landen auch diese Detailseiten für unsere Apps im Web Index.

Voice Search ist das next big thing für Stefan. Schon jetzt sind über 20% der Suchen auf Android Geräten Sprachsuchen. Man kann dies sogar bei Google Trends sehen, hier gibt es zum Beispiel zum Suchstring „navigate home“ ein starkes Wachstum. Dies ist ein reines Voice-Search-Leyword, auf Desktop Systemen macht dies keinen Sinn. Google gibt gerade richtig Gas bei dem Thema der mobilen Suche, da sie Voice Search dringend für ihr Machine Learning und die künstliche Intelligenz brauchen, um hier weiter in die Zukunft entwickeln zu können. Google hat hier in Richtung Apple Siri, Amazon Echo, Facebook, Yelp und so weiter verloren, daher jetzt der harte Angriff auf den mobilen Markt seitens Google.

kai spriestersbach seokomm

RankBrain Gegenwart, Ausblick und die Bedeutung für SEO

von Kai Spriestersbach

Kai fing erst einmal sacht an und erklärte, wie Machine Learning in den Grundzügen funktioniert, wie Google es einsetzt, wo es sich aus seiner Sicht hin entwickeln wird und was das für SEO bedeutet und wie man es nutzen kann.

Kai erklärte, dass das Auswerten von Daten nur recht schwer von Menschenhand abzuwickeln sei, das ist einfach zu komplex. Maschinen lernen dies und machen es dann sehr schnell, sie lernen die Achsen passend anzupassen, um Grenzen zu ziehen, damit die Daten genauer interpretiert und ausgewertet werden können.

Dann zeigte Kai uns ein schönes Video zum Thema Machine Learning von Google.
Danach erklärte er, dass Wörter an sich schwer zu verarbeiten sind. Da der Einsatz von Wörtern aber durch Regeln definiert wird, können auf Basis der Regeln die automatischen Maschinen den Umgang mit Wörtern dann doch indirekt lernen und diese dann verarbeiten.

Beim Deep-Learning, wie Google es einsetzt, lernt die Maschine von den Nutzern Signalen. Den Benutzer, den Maschinen mittels Machine Learning trainieren lassen, ist wesentlich effizienter für Google als zu versuchen, alles selbst zu machen. Es ist hierbei sehr wichtig zu verstehen dass Google KEINE semantische Suchmaschine ist, sondern eine statistische.

Google hat die meisten und besten Daten und daraus lernt Google und trainiert damit auch die Regeln der Suchmaschine. Hier kommt Rank-Brain dann zum Einsatz. Googles Rank-Brain ist kein neuer Algorithmus, Rank-Brain ist vielmehr ein automatisch lernendes System von Google, dass die einzelnen Ranking Faktoren, je nach Suchanfrage, anders gewichtet.
Dies kann wiederum für uns SEOs bedeuten, dass wir lernen müssen, unsere Optimierungen ebenfalls auf die unterschiedlichen Bereiche anders gewichten lernen zu müssen. Somit ist die Optimierung nach user intent und Nutzer Signalen sehr wichtig. Sie verändern sich ständig und damit auch die Rankings. Dazu gehören dann auch die indirekten Faktoren wie Page Speed. Hierzu merkt Kai an, dass er kein AMP Fan ist, dennoch ist es für den Nutzer eine tolle Sache. Ihm fällt bei der täglichen Arbeit immer wieder auf, dass die bounce rate mit den Rankings korreliert. Kai gibt den Tipp, dass man sich genau anschauen sollte, wo man sich in der User Journey der Besucher befindet und erfüllt die Nutzer Erwartungen für jede URL.

Schaut nicht einfach darauf, wer vor euch rankt und versucht, dann besser zu sein als die Seite die auf Position 1 rankt, sondern seid besser als alle Mitbewerber. Dies bedeutet auch, dass man verstehen muss, dass kein Besucher bei einem Shop einen Wikipedia-ähnlichen Text finden möchte. Warum sollte es einen Shop Besucher interessieren wie um 1803 der erste Sneaker erfunden wurde?

Kai sagt, dass WDF*IDF dabei helfen kann, die wichtigen Fakten zu finden, aber auch er rät davon ab, ohne nachzudenken einfach nur auf die Tools zu schauen. Schaut euch die Serps an. Als Beispiel kann das Keyword „Jaguar“ eine Suche nach dem Automobilhersteller sein, es kann aber auch sein, dass der User nach dem Tier Jaguar sucht: Ein Text über Autos und Tier ist also sicher wenig hilfreich, anders als es bei einer einfachen WDF*IDF Analyse wohl rauskommen würde. Denkt auch an die automatische Vervollständigung bei der Google Suche. Hier bekommt ihr direkt die Top-Themen genannt, diese können bei Top-Rankings sehr helfen, denn die automatische Vervollständigung zeigt, was die Nutzer erwarten und wollen. Macht guten Content auch für SEO, aber viel wichtiger: Schreibt dabei immer für den Nutzer.

Um die Qualität der Inhalte zu messen, empfiehlt Kai auch immer auf Shares, Likes, Verweildauer, Scrooll-Tiefe, Aktionen, Klicks, CTR usw. Betrachtet euren Content immer als aktive Baustelle und habt einen Lifecycle für euren Content. Dazu gehört auch, einzuplanen den Content immer wieder zu verbessern. Wenn die Technik eurer Webseite sauber ist, sollte der Content das größte Budget bekommen.

Wichtig sind eine klare Positionierung und thematische Recherche. Bietet Mehrwert, bietet Qualität und ständige Verbesserungen, eine schnelle Seitenladezeit und gute User Experience; optimiert für Nutzer und nicht für Maschinen.

Kais Protipp zum Abschluss noch: Legt doch alle wichtigen Landingpages per API als Properties in der Google Search Console an. Dadurch bekommt ihr direkt von Google alle wichtigen Daten auf URL Ebene zur Optimierung frei Haus.

salzburg seokomm 2016

Das war auch schon mein „kleiner“ Recap zur SEOkomm2016. Ich hoffe, es hat euch gefallen und jetzt bin ich sehr gespannt auf eure Meinungen und Kommentare.

3 Gedanken zu „SEOkomm 2016 – Recap: Make SEO Great Again

  1. Vielen Dank Simon für den sehr ausführlichen Recap, da ich gerade auf dem Rückweg von Hamburg nach München bin (in der Bahn), hat mich dieser Artikel schon einmal die ersten 40KM zwischen HH und Hannover sehr gut verkürzt. Viele Grüße aus der Lüneburger Heide
    Alexander

  2. TLDR. ;P

    Dein Writeup zeigt komprimiert auf das es mit SEO ganz und gar nicht vorbei ist. Es geht „überallhinundnirgends“. Die Kinderjahre sind nun definitiv vorbei und die Branche muss Sich wohl von der Einzelkämpferdisziplin zum Interdisziplinären Mannschaftssport wandeln.

    Zumindest wenn es um die Beratung von Enterprise und Mittelstandsunternehmen geht. Reportingprofis, Ingenieure, Entwickler, PR Gurus, Redakteure und Analysten wird man recht selten in einer Person vereint finden.

    Finde deine Nische(!)(?)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.