Dies ist eine Aufnahme des Google Webmaster Sprechstunden-Hangouts vom 22. August 2019. In diesen Hangouts besprechen wir alles Google/Webmaster-bezogene, z.B. Google’s Crawling & Indexing, Duplicate Content, Sitemaps, Search Console, Mehrsprachige & internationale Websites, usw.

Webseiten indexiert haben möchte. Wenn man andere Dateien dort einreicht oder versucht zu testen mit dem Tool, dann werden die als blockiert angesehen. Das heißt, einerseits sind das Bilder, JavaScript-Dateien, CSS-Dateien und solche Sachen, die eigentlich nicht normal indexiert werden müssen. Die werden an und für sich intern blockiert, damit sie auch gar nicht erst in der Websuche normal erscheint und dementsprechend auch in diesem Tool, wo ja die Websuche emuliert wird, werden diese dann auch als blockiert dargestellt. Das heißt, im Inspect-URL-Tool steht, dann unter Umständen blockiert durch robots.txt zum Beispiel. Und eigentlich ist es nur normale Bilddatei die nicht durch robots.txt blockiert ist, aber es ist halt blockiert für die Websuche. Es ist nicht allgemein blockiert, sondern wirklich nur für die Websuche. Das heißt, ich sehe das ein bisschen als Bug an, weil es verwirrend ist, das es nicht klarer in der UI ist. Aber an und für sich ist das aus unserer Sicht so gewollt, dass man da diese Sachen ausprobiert, anschaut und einfach damit sie nicht aus Versehen in der Websuche erscheinen. Gibt es Pläne, dass in Zukunft in der Search Console auch Informationen über Bilder angezeigt werden? Wie es bereits zum Beispiel für Nutzerfreundlichkeit auf Mobil oder Logos der Fall ist. Gute Frage, ich weiß nicht, ob da speziell etwas geplant ist, für Bilder in der neuen Search Console. Ich weiß, dass die Bildersuche für uns recht wichtig ist. Dementsprechend versuchen wir das für Webmaster auch interessant zu machen. Ich könnte mir vorstellen, dass vielleicht einmal ein bisschen mehr Informationen über Bilder in der Search Console kommen, aber jetzt speziell ist mir nichts bekannt. Bei einem News Publisher werden die Artikel über mehrere Seiten veröffentlicht, insofern entsteht durch Duplicate Content zwischen all diesen Domains, die diesem Publishing Unternehmen gehören. Dazu hat jeder duplizierte Artikel einen Canonical Tag auf sich selbst. Wie entscheidet hier Google, welche Domain Ranking soll ist? Ist es grundsätzlich schädlich für die Rankings allgemein, dass man denselben Artikel über mehrere Domains veröffentlicht.

An und für sich passieren da zwei Sachen in einer solchen Situation. Das heißt, wir crawlen erst mal diese verschiedenen Artikeln und wir sehen, dass die Seiten insgesamt unterschiedlich sind. Das heißt, wenn jetzt ein Artikel bei verschiedenen Nachrichtenwebseiten z.B. veröffentlicht wird, dann sind die Seiten ja unterschiedlich. Das sind unterschiedliche Nachrichtenwebseiten, die den gleichen Artikel haben. Das Hauptmenü der Seite ist unterschiedlich. Der Hauptinhalt ist aber ähnlich oder vielleicht sogar gleich. Was dann passiert ist, wir indexieren erst mal diese verschiedenen Versionen, weil wir sehen das die ja unterschiedliche HTML-Seiten sind und dann, in der Suche, wenn jemanden nach diesen Informationen innerhalb vom Artikel sucht, dann sehen wir relativ schnell, dass das ja die gleichen Inhalte wären, also suchen wir uns eine Seiten aus und zeigen die dann in den Suchergebnissen.

Die Wahl der Seite hängt von verschiedenen Faktoren ab. Es ist schwierig zu erraten im Voraus, welche Seite dargestellt wird. Aber was natürlich passieren kann, dass man gezielt nach einer Variante sucht. Das heißt, wenn ihr einmal eine Sportnachricht bei einer Fahrradwebseite und bei einer Läuferwebseite veröffentlicht und wir sehen in der Suchanfrage sucht jemand nach Fahrrad Informationen zu diesen Artikel, dann nehmen wir vielleicht eher die Fahrradwebseite, als die Läuferwebseite. Das passiert aber natürlich nicht immer, dass jemand gezielt so genau mit weiteren Informationen sucht. Das heißt, in der Regel zeigen einfach eine von diesen beiden Seiten an, in den Suchergebnissen, und blenden die andere Seite aus. Für das Ranking ist das insofern nicht optimal, weil einerseits wir all diese Varianten ständig neu crawlen und neu indexieren müssen. Wir schauen die Seite ja nicht nur einmal an, sondern versuchen sie mehrmals anschauen und regelmäßig zu aktualisieren. Das passiert einerseits, andererseits ranken diese Seiten für sich selber. Das heißt, jeder Variante könnten in den Suchergebnissen erscheinen und hat die ganzen Ranking Signale für sich. Und die andere Variante hat eigene Ranking Signale. Und dementsprechend gibt es eine Art Konkurrenz zwischen diesen Varianten. Die optimale Situation wäre, wenn man in solchen Fällen einfach mit dem Canonical Tag arbeitet und eine dieser Seiten als kanonisch aussucht. An und für sich ist es egal welche Seite ihr nehmt. Sagt einfach, das ist jetzt meine Hautversion für diesen Artikel und was wir dann machen können ist, wir konzentrieren alle Ranking Signal auf dieses Artikel und zeigen dann das entsprechenden ein bisschen besser in den Suchergebnissen. Weil das sind dann einfach mehrere Signale, alles ist ein bisschen konzentrieren. Wir sehen, dass das wirklich eine sehr relevante Seite ist zu diesem Thema und können die dann auch ein bisschen höher in den Suchergebnissen zeigen. Das heißt vom Ranking her, wäre es sicher optimal, wenn man das Ganze mit dem Canonical-Tag ein bisschen konzentriert statt, dass man die einzelnen Versionen für sich stehen lässt. Da würde ich schon sagen, dass man da eher ein Vorteil hat in der Suche, wenn man das so machen würde.

Laut einer Studie wird Voice Search immer wichtiger und könnten im Jahr 2030 bereits 37% des Umsatzes im E-Commerce ausmachen. Gibt es eine Möglichkeit in Analytics oder der Google Search Console herauszufinden, wie viele Leute bereits jetzt per Voice Search auf unserer Webseite landen oder müssen wir uns mit der Annahme begnügen, dass längere Keywords sehr wahrscheinlich per Voice eingereicht wurden? Gute Frage, ich denke, dass das kommt immer mehr, gerade, weil diese Studien immer häufiger kommen. Wie weit das wirklich für euch relevant ist, ist schwer zu sagen, weil viele von diesen Studien über Voice Search natürlich alles Mögliche anschauen, was über Voice gemacht wird. Das sind Sachen, wie schalte das Licht an, spiele dieses Lied auf Spotify oder was auch immer. All diese Sachen sind natürlich auch Anfragen die kommen, aber das sind nicht Sachen die speziell mit einer Webseite verbunden sind. Das heißt, man sieht in den meisten Fällen sehr schnell, dass es viele Leute gibt, die Voice Search machen, aber das heißt nicht unbedingt, dass das Voice Anfragen sind, die zu einer  Website führen oder dass ihr da speziell etwas anders machen müssen für eure Webseite, für diese Voice Anfragen. In der Search Console ist es im Moment so, dass die Voice Suchanfragen, die sag ich mal über Voice als Art Tastatur für die Suche kommen, die sind dort vorhanden, aber die sind nicht separat verfügbar. Das heißt, wenn ich auf dem Handy das Mikrofon Symbol anklicke und dann meine Suchanfrage mache und eine Suchseite bekomme, dann ist das eine normale Suche, dann ist das nicht irgendwie spezielle Art zu suchen, sondern die gleiche Such Art und einfach eine andere Art die Suchanfrage einzugeben. Das wird nicht separat dargestellt. Anders ist es wenn man direkt über den Google Assistant geht oder über ein Google Home Gerät geht. Und eine Frage stellt und dann kommt als Antwort, laut dieser Website ist das und das die Antwort und dann kommt vielleicht noch einen Link auf das Handy geschickt, dass man die Seite selber anschauen kann. Diese Anfragen gehen über Systems direkt und sind im Moment nicht in Google Search Console verfügbar. Ich weiß nicht wie sich das ändern wird im Laufe der Zeit, ich vermute, dass das irgendwann mal, kommen wird. Das hängt ein bisschen damit zusammen, wie oft solche Suchanfragen gemacht werden und wie weit das für Webmaster wirklich interessant sein könnte. Aus meiner Sicht würde ich sagen, dass man sich auch selber vielleicht mal die diese verschiedenen Assistant Devices zulegt. Einfach damit man das ein bisschen ausprobieren kann.

Weil das ist etwas, was ich zumindest gemerkt habe, dass es gerade bei Voice sehr viele Ideen gibt, die da vorhanden sind und wie sich das verändern könnte. Aber es gibt im Verhältnis sehr wenig an Personen, die das wirklich auch mal ausprobiert haben und sich überlegt haben, wie könnte das überhaupt gehen mit meiner Webseite und Voice. Es ist nicht so etwas Wahres, das auf einmal Traffic zur Website kommt und das geht alles über Voice. Sondern man muss sich wirklich mal überlegen, wie würde jemand überhaupt per Voice den Weg zu meiner Webseite finden und ein Produkt kaufen können. Es würde ja nicht jemand kommen und sagen, ich gehe auf diese Webseite mit dieser URL und dann suche dann nach diesem Produkt, in dieser Variante und bestellen das so, dass ich das übermorgen habe. Sondern das ist schwierig manchmal mit diesen Geräten umzugehen und da wirklich auch das so herauszuholen, was man so haben will. Und da würde ich vielleicht das Ganze auch ein bisschen kritischer anschauen und überlegen wie man da wirklich mitmachen könnte, oder wie man vielleicht etwas anderes machen könnte, das dann trotzdem mit Voice funktionieren würde. Oder was müsste man überhaupt umgestalten auf der eigenen Webseite damit das besser geht. Ich denke, da sind noch sehr viele schwierige Fragen, die geklärt werden müssen und für den normalen Benutzer gibt es noch einen langen Weg, bis man da sagen kann, dass die Kameras oder für Webseiten insgesamt, dass man da spezielle das machen kann und dass man da genau weiß, was man machen kann. Da gibt es, denke ich, eine längere Zeit wo noch sehr viel experimentiert wird.

Werden die Impressionen von Google News One Boxen ebenfalls in der Search Console mitgezählt? Ich habe das kurz vorher mit dem Team mal angeschaut. Und bei Google News ist es ja so, dass man die spezielle Google News Oberfläche hat und dass manchmal die News Ergebnisse in den Suchergebnissen auch eingeblendet werden. Die Sachen, die in der normalen Google News Umgebung dargestellt werden, die sind nicht in der Search Console. Aber alles was in der normalen Google Websuche Webseite dargestellt wird, das wird über die Google Search Console gezählt. Das heißt, wenn ich in den normalen Suchergebnissen oben irgendwo eine One Box habe, mit verschiedenen News-Seiten, das wird gezählt. Wenn man speziell auf diese News Funktion in der Suche geht, das wird dann nicht gezählt. Von der Position und von den Impressionen ist es so, dass wir da einen Hilfe-Artikel haben, welches ziemlich genau in die Details geht, wie was gezählt wird. Das heißt, wenn ich jetzt im Karussell bin,  wie wird das gezählt, ab wann wird das gezählt, muss ich da irgendwie die Seite quasi sichtbar, im Blickfeld, haben oder nicht? Das ist alles relativ detailliert in diesem Hilfe-Artikel dargestellt.

Ich kenne eine Webseite, die auf der Startseite beim Initialen Besuch der Seite, ein riesiges mp4-Video automatisch abspielt, mit lauter Musik. Inhaltlich ist es schon relevant, da das Video auf das Unternehmen selbst eingeht. Aus User-Sicht ist das Ganze jedoch sehr nervend. Auf Mobile startet das Video übrigens nicht selbstständig. Gibt es einen konkrete Empfehlung, wie man mit automatisch starten in Videos umgehen sollte? Aus Sicht der Websuche haben wir da eigentlich nicht spezielle Empfehlungen. Das heißt, man kann das machen, wie man will. Es gibt sicher viele die das nervt. Wie jetzt hier bei dieser Frage. Vielleicht gibt es Situationen, wo es Sinn macht, dass man das so macht. Ich vermute gerade mit Musik, mit Audio dabei, ist das natürlich ein bisschen nervig, wenn das automatisch los geht und man das nicht erwartet. Und dementsprechend ist es so, dass man vielleicht indirekt irgendwelche Veränderungen in der Suche hat, die man dann da sieht. Das heißt, wenn man Benutzer natürlich abschreckt, die eigene Webseite anzuschauen, dann wird es vielleicht auch so sein, dass sie entsprechend weniger zur Webseite verlinken. Dass sie sie weniger weiterempfehlen. Das sind dann einfach indirekte Sachen, die wir vielleicht aufrufen können. Aber direkt in der Suche ist es nicht so, dass wir automatisch startende Videos mit Audio als negatives Signal ansehen. Aber was natürlich passieren kann, gerade aus der Webmaster Sicht ist, dass wenn wir erkennen können, dass er ein Video eine große Rolle spielt auf einer Seite, dann zeigen wir das oft mit einem Video Thumbnail in den Suchergebnissen. Das heißt, wir haben dann das Bild neben dran, mit dem Play-Symbol. Damit Benutzer, wenn Sie auf dieses Suchergebnis gehen, schon relativ früh schon wissen, dass da auch ein Video dabei ist. Einerseits ist das für Besucher natürlich interessant. Für Webmaster kann das auch interessant sein. Es gibt aber auch Situationen, wo Web Master sagen, dass möchte ich nicht haben. Wenn ich zum Beispiel eine Firmeninformationsseite habe und daneben ein Thumbnail mit einem Video. Dann könnte das so aussehen, als ob das eine Video-Seite ist und nicht eine Firmeninformationsseite. Und da gibt es dann manchmal auch Situation vom Webmaster her, dass man sagt, ich nehme lieber das Video weg, damit ich dieses Video-Thumbnail nicht habe. Oder ich finde das toll mit dem Video Thumbnail, das Besucher relativ schnell schon sehen was präsentiert wird. Das ist dann eher eine direkte Entscheidung die der Web Master treffen kann. Möchte ich ein Video Thumbnail oder möchte ich kein Video Thumbnail haben.

Zwei strategische Fragen: Für einen Kunden aus dem Medizinbereich. Dessen Seite seit dem Ad-Medic-Update kontinuierlich an Sichtbarkeit verloren hat. Der Kunde hat Praxen an 7 verschiedenen Standorten. Jeder Standort hat seine eigene Website und diese sind untereinander verlinkt. Macht es mittelfristig Sinn, diese Webseiten so weiterzuführen oder wäre es zu empfehlen eine eigene Brandseite aufzubauen? Die dann aus EAT-Sicht, Expertise Authority Trust, durch den Brand dann Vorteile hätte und der gesamte Content an einem Ort konzentriert und dadurch ausführlicher aufgebaut werden könnte. Ich würde vermuten, dass es insgesamt gerade für diese EAT-Signale, macht das vielleicht ein bisschen Sinn, dass man das ein bisschen konzentriert. Aber wahrscheinlich ist das eher nebensächlich. Ich könnte mir vorstellen, dass es insgesamt aus SEO Sicht aber Sinn machen würde, dass man eine starke Website hat. Statt, dass man verschiedene einzelne kleinere Webseiten hat. Ich weiß jetzt nicht, wie viele dieser Filialen da sind, 7, bei 7 Filialen könnte ich mir vorstellen, dass man vielleicht die 7 Versionen separat führt. Wenn man viel mehr hat, dann ist das irgendwie fast so, dass man die die ganzen Inhalt ein bisschen verdünnte und dass die eigenen einzelnen Websites dann nicht mehr so stark sind, wie sie eigentlich sein könnten. Da könnte ich mir schon vorstellen, dass man das Ganze konzentriert und sagt, das ist jetzt unser unsere Haupt-Firmenwebsite und wir haben Standorte an diesen verschiedenen Punkten. Aber dass man die Hauptinhalte für die Firma gemeinsam aufbaut. Das heißt nicht, dass sie an jedem dieser sieben Standorte, Informationsbereiche für die medizinischen Techniken die ausgeführt werden, aufbauen müssen. Oder Hintergrundinformationen aufbauen müssen. Sondern, dass man wirklich eine starke Website hat, die all diese Informationen hat. Die dann auch in den Suchergebnissen relativ stark präsent sein kann, weil es klar ist, dass alles wirklich konzentriert ist auf dieser Webseite. Und dementsprechend könnte ich mir schon vorstellen, dass es Sinn macht, dass man das ein bisschen konzentriert. Statt, dass man das so aufteilt. Ich denke gerade bei 7 Seiten, ist es vielleicht ein bisschen an der Grenze, dass man sagt, 7 Webseiten könnte man noch einigermaßen aufbauen. 7 Seiten sind auch schon relativ viel. Gerade wenn man auch vorhat, dass man das Ganze weiteraufbaut. Ich würde auf jeden Fall empfehlen, dass man eher eine starke einzelne Webseite aufbaut. Anstatt, dass man noch mehr Seiten für weitere Filialen aufbaut. Die Seiten haben grundsätzlich dasselbe Design und denselben Code im Grundaufbau. Siehst du hierbei aus SEO Sicht ein Nachteil für die Bewertung der Seiten oder hat die Ähnlichkeit des Codes keiner größeren Auswirkung auf die Linkings. Ähnlichkeit von Code hat eigentlich keine größeren Auswirkungen, aber wie gesagt, es ist einfach so, dass wenn man diese Inhalte publizierten und auf verschiedenen Websites bringt, dann ist es wie, wenn man die Signale auch ein bisschen verdünnt und dass die einzeln Version dann nicht so stark in den Suchergebnissen erscheinen. Wie es wäre, wenn man eine einzelne starke Webseite hätte. Im Vergleich zu diesen 7 einzelnen Seiten die da wären.

Ich möchte, dass eine Website in unterschiedlichen Ländern gut in den Suchergebnissen gefunden wird. Sollten wir die entsprechenden Domains, .de oder. co.uk, benutzen? Oder machen Unterverzeichnisse mehr Sinn? Aus unserer Sicht kann das auf beide Arten machen. Das heißt, man könnte auch mit Subdomains arbeiten. Es ist so, dass wir das Geotargeting bei länderspezifischen Top-Level-Domains selber machen und ist es so, dass man das selber nicht ändern kann. Wenn ich eine .de Domain habe, dann ist das automatisch aus unserer Sicht für Deutschland per Geotargeting eingerichtet, ihr müsst da nichts machen. Ihr könnt aber auch nichts machen. Ihr könnt nicht sagen, meine .de Domain soll auf Irland ausgerichtet werden. Sondern ihr seid automatisch für Deutschland eingereicht. Mit einer generischen Top-Level-Domain könnt ihr das selber einstellen. Einerseits mit den Unterverzeichnissen, andererseits mit Subdomains. Könnt ihr mit beiden machen. Wenn ihr mit Unterverzeichnissen arbeitet, dann habt ihr wieder ein bisschen mehr die Situation, dass ihr eine starke Domain habt. Statt dass ihr verschiedene einzelne Domains habt. Das ist unter Umständen ein Vorteil. Manchmal gibt es aber auch sehr starke Marketing Gründe, warum man sagt, ich möchte lieber eine länderspezifischen Top-Level-Domain. Das heißt, in manchen Ländern ist es ja so, dass man da vielleicht ich möchte wirklich Inhalte aus meinem Land haben und das sieht man ja sehr schnell mit einer eigenen Top-Level-Domain. Das heißt, wenn da kann man wirklich davon ausgehen, dass wenn da .fr steht wirklich, dass das von Frankreich oder zumindest für Frankreich ausgerichtet ist. Hingegen, wenn da irgend langer Firmenname .com und dann irgendwo versteckt noch weiter hinten .fr steht, dann sieht man das ja nicht so schnell. Solche Marketing Überlegungen sind manchmal stärker und mal weniger stark. Das sind Sachen, die wir aus SEO Sicht nicht groß beurteilen können oder nicht groß für euch Empfehlungen machen können. Das müsst ihr selber einfach mal überprüfen. Macht es Sinn, dass man mit länderspezifischen Domain arbeitet für unsere Kunden oder ist das vielleicht weniger kritisch? Aus SEO Sicht, kann man da beide Varianten machen.

Dann geht's weiter: Was ist denn Best Practice wenn in unterschiedlichen Ländern die gleiche Sprache gesprochen wird, beispielsweise Großbritannien und Irland. Sollte ich dann inhaltsgleiche Bereiche aufbauen und dann per ahref arbeiten oder mit dem Canonical? Wie macht man das am besten? Aus meiner Sicht, kann man auf jeden Fall beide Varianten machen. Entweder dass man eine Sprachvariante aufbaut und die dann für alle Länder verfügbar macht. Oder dass man verschiedene länderspezifische Version aufbaut, die eigentlich die gleichen Texte haben. Das ist ja auch sehr normal, z.B. über Deutschland, Österreich und Schweiz. Das nimmt man sicher schnell mal, gerade wenn man Produkte hat und man die gleichen Produktbeschreibungen hat. Die Beschreibung ist ja nicht anders, nur wenn jemand in Österreich oder in Deutschland sitzt. Was da einfach oft passiert, von unserer Seite ist, das wie erkennen, dass sie Inhalte gleich sind und wenn wir erkennen, dass die Inhalte gleich sind, dann kann es sein, dass wir die Seiten zusammenklappen und sagen, dass ist jetzt eine Seite. Per aherf-Link können wir die verschiedenen URLs, noch dazu nehmen und können die entsprechend auch wieder auseinandernehmen, nachher in den Suchergebnissen. In die Indexierung nehmen wir eine dieser Varianten. Und was dann passiert ist, einerseits in der Search Console nehmen wir die Canonical-URL für die ganzen Daten. Das heißt, wenn ich ein einmal .de habe und einmal .at, dann nehmen wir vielleicht die .de Version als Canonical für eine und diese Seiten. Und alle Daten, die wir für diese Seiten haben, sind dann in der Search Console in der .de Version. Und wenn man die at. Version anschaut, in der Search Console, so sieht man da so gut wie nichts. Weil alles mit der Canonical-Version aufgeführt wird. In den Suchergebnissen selber, können wir die URLs dann wieder austauschen, das heißt für normale Benutzer macht das wenig Unterschied.

Aber für den Web Master, für jemanden der das Ganze überwachen will, da ist das echt verwirrend. Das heißt, aus meiner Sicht, man kann das machen, dass man die gleichen Inhalte nimmt für unterschiedliche Länder. Ich eher würde empfehlen, dass man für wichtige Informationen wirklich auch eigene Inhalte nimmt, für einzelne Länder. Das ist einerseits für die Benutzer klaren, dass das wirklich für mein Land jetzt abgestimmt ist. Anderseits in der Suche, würden wir die auch viel weniger zusammenklappen und entsprechenden in der Search Console sieht man dann die Daten viel schneller, auch unterschiedlich für die einzelnen Länder Versionen. Man kann aber auch genauso gut sagen, ich habe jetzt eine deutsche Version und das ist jetzt eine starke Version, die die einfach auf Deutsch ist. Die ist verfügbar für verschiedene Länder. Das ist an und für sich dann auch, okay. Könnte ich eine Frage stellen? Ja natürlich. Also du hattest ja in irgendeinem der letzten Hangouts gesagt, dass ihr auf jeden Fall eine ch Domain in der Schweiz ein bisschen höher rankt. Nur jetzt ist es so, dass ich in der Search Console für unsere.com Domain kein Land angegeben habe. Sie ist eigentlich ausgerichtet auf Frankreich. Wenn ich sie jetzt ausrichten würde auf Frankreich, die. com Domain, würde ich dann bessere Ergebnisse in Frankreich erzielen oder nicht? Vielleicht. Okay. Ja, das Schwierige ist, gerade mit der Länder Ausrichtung, ist es so, dass wir versuchen zu erkennen, wenn der Benutzer etwas länderspezifisches sucht. Das heißt, wenn man zum Beispiel einfach insgesamt Informationen über Länderflaggen haben möchte, dann können wir vielleicht anhand der Suche erkennen, das ist mit dieser Sprache, aber wir vermuten vielleicht das sind einfach Informationsanfragen. Welche Länderflaggen gibt es? Oder solche Sachen. Und dann ist es so, dass wir sagen würden, da ist der Standort von der Webseite. Die Ausrichtung von der Webseite ist weniger wichtig. Wenn wir hingegen können, dass der Benutzer wirklich etwas länderspezifisches sucht. Das heißt, zum Beispiel, in deinem Fall, jemand sucht nach „Länderflagge kaufen“. Dann können wir davon ausgehen, dass wirklich etwas länderspezifisches gesucht wird und dann würden wir mit dem Geotargeting die Länderversionen ein bisschen höher zeigen, in den Suchergebnissen. Das kann eine Länder-Domain oder eine generische Domain sein, mit der Ausrichtung auf das Land.

Ich habe es weggelassen, da wir auch Kunden in Belgien und in Kanada haben, deswegen habe ich mir gedacht, ok .com ist einfach für alles und nicht nur für die französische Sprache gedacht. Sollte ich das denn ausprobieren, einfach mal schauen, vielleicht ein Monat und Frankreich ausrichten? Weil unsere meisten Kunden sind in Frankreich, eigentlich. Ja ich würde es einmal ausprobieren. Ich vermute, wenn du die Einstellung machst für Frankreich dann siehst du, dass es ein bisschen mehr in Frankreich zunimmt. Und in allen anderen Ländern ein bisschen abnimmt. In wie weit das bei den anderen Ländern  ganz verschwindet, lässt sich schwer sagen. Ich vermute, dass sie trotzdem dort auch wie eine  generische Website ranken wird. Das heißt, ihr habt dann einfach nicht den Vorteil, zum Beispiel in Belgien oder in Kanada, dass man das als lokale Webseite anschauen würde. Macht wahrscheinlich auch so Sinn. Okay, Danke.

Dann geht's danach weiter: Machen Markups für Structured Data zum Beispiel für Google Jobs Sinn, auf Seiten die per Canonical auf andere verweisen. Ich weiß jetzt nicht, wie das bei Google Jobs gehandhabt wird. Von dem her, kann ich zu Google Jobs nicht wahnsinnig viele sagen. Aber insgesamt, wenn man mit verschiedenen Länderversionen arbeitet und dann einen Canonical setzt, dann ist es so, dass wir uns wirklich nur auf diese Canonical-Version konzentrieren. Das heißt, wenn ich jetzt Deutschland, Österreich und Schweiz habe und ich sage, von Österreich ist der Canonical die Deutschland Version, dann würden wir wirklich nur die Deutschland Version indizieren. Das heißt, die ganze Structured Data, die ganzen Informationen auf der Version für Österreich, das würde gar nicht berücksichtigt werden. Sondern wir indexieren dann nur die Version für Deutschland. Das heißt, einerseits könnte man sich das sparen. Andererseits würde ich in einem solchen Fall nicht per Canonical arbeiten, weil dann wirklich die einzelnen Länderversionen ganz verschwinden würden.

Gibt es eine ungefähre Zeitangabe, wie lange der Google Crawler wartet bis eine Webseite bzw. Sitemap geladen ist, sodass er die Daten abrufen kann? Ich glaube nicht, dass wir da eine spezielle Zeitangabe haben. Bei es hängt ein bisschen davon ab, denke ich, von der Website selber. Was wir in der Regel versuchen zu vermeiden ist, dass wir allzu viele gleichzeitige Anfragen offen haben bei einer Website. Das heißt, wenn alle Seiten beim crawlen sehr lange warten, bis wir die HTML-Version zurückkriegen oder die Inhalte dieser Seite zurückkriegen, dann wird es so sein, dass man wir einfach weniger crawlen von dieser Webseite. Aber insgesamt für die Indexierung ist es so, dass Google relativ flexibel ist mit der Zeit, die es da dafür braucht. Wir sind ja auch nicht unbedingt unter Zeitdruck für die einzelnen Webseiten. Das heißt, wenn wir eine Sitemap-Datei abrufen und es dauert im schlimmsten Fall eine Minute oder zwei, bis die Sitemap-Datei heruntergeladen werden kann. Dann warten wir halt die Zeit, bis wir das heruntergeladen haben und dass wir das weiterverarbeiten können. Es ist nicht so, dass das unbedingt negativ ist. Aber ich würde gerade bei den normalen HTML-Seiten schauen, dass die ganzen Inhalte dort relativ schnell kommen. Weil wie gesagt, wenn wir sehen, dass wir mit vielen Anfragen hängen beim Crawling, dann werden wir da entsprechend weniger crawlen, von dieser Webseite.

Auf google.de hat sich die Schriftgröße geändert, bleibt das jetzt so groß? Weiß ich nicht. So wie ich das sehe, ist es so, dass das UI-Team bei Google arbeitet natürlich auch weiterhin. Sie machen sehr viel Testing und manche dieser Tests führen dann zu Veränderungen in der Suche. Aber oft ist es so, dass diese Veränderungen nur temporär sind und irgendwann kommt das Nächste. Von dem her, so wie ich das sehe, ist das jetzt überall erschienen. Ich denke, das bleibt jetzt erst mal so. Wie sich das längerfristig verändert, keine Ahnung.

Eine Frage dazu: Sollte ich denn jetzt reagieren und unsere Titel verkleinern, weil unsere Titel jetzt mit Pünktchen angezeigt werden und das nicht mehr gut aussieht, in der Suche. Würdest du sagen reagieren oder eher warten? Wenn das jetzt noch zwei Wochen dauert würde ich natürlich warten, aber wenn du sagst, für die nächsten 6 Monate wird es jetzt erst mal so bleiben, dann würde ich das natürlich ändern. Ich habe keine Ahnung, wie lange das bleibt. Was in der Regel passiert gerade, gerade mit dem Titel ist, wir passen die Titel ja auch automatische an, in der Suche. Und gerade bei größeren Umstellung im UI-Bereich machen, für die Titel, dann ist es oft so, dass wir die alte Länge erst mal indexiert haben und die angepassten Titel für die alte Länge optimiert haben und dann wird das halt abgeschnitten, mit Pünktchen am Ende. Wenn wir die Seiten neu verarbeiten, dann berechnen wir die neuen Titel für die Seiten und dann wird die Länge wieder richtig angepasst. Das heißt, was wahrscheinlich jetzt passiert ist, dass in den nächsten Wochen oder so, diese Seiten zum großen Teil Neu verarbeitet werden, die neuen Titel werden bestimmt und die Titel sind dann wieder ohne Pünktchen. Weil die an die neu Länge angepasst sind. Das wird automatisch gemacht. Aber wenn du natürlich Vorstellungen hast, wie du die Titel haben möchtest und du weist am besten wie du die kürzer machen könntest, dann würde ich das an deiner Stelle direkt machen. Dann musst du nicht darauf warten, das Google etwas neu bestimmt und man einzelne Wörter weglassen kann und das kürzer machen kann. Sondern das kannst du ja selber auch in die Hand nehmen.

Sind die Titel denn jetzt wieder wie früher? Ihr habt die Titel ja einmal länger gemacht und jetzt sieht es so aus wie vor fünf Jahren, kann das sein? Keine Ahnung. Mir persönlich gefällt das jetzt nicht, ist zu groß. Ich persönlich höre auch nur Feedback von Leuten, denen es nicht gefällt. Andere Leute merken es vielleicht gar nicht. Ich denke mit der Titellänge ist es auch so, dass wir irgendwann mal gewechselt haben, dass es auch unterschiedlich lang sein kann. Das heißt, manche Seiten haben längere Titel, über 2 Zeilen hinweg und andere haben einen kürzeren Titel. Ich denke, dass ist wahrscheinlich noch weiterhin so. Ist das jetzt ähnliches wie früher, weiß ich nicht. Okay.

Gibt es irgendwie ein Schreiben das aussagt, wie viel Platz ist, in Pixeln oder Zeichen. Eigentlich nicht. Es ist so, dass wir gerade für die Titel und für die Suchergebnisse, keine optimale Länge angeben. Das wir sagen, ihr müsst auf das hin optimieren, weder für die Anzahl Buchstaben noch die Pixel.

Wie geht Google mit Webseiten und Workshops um, die pornografisches beziehungsweise erotisches Bildmaterial verwenden, kann man beispielsweise für ein Erotikprodukt, ein Rich Snippet mit Bild erhalten? Oder hat Google eine Art Jugendschutzfilter? Gerade für die Rich Results, also die ganzen Zusatzergebnisse, die man einrichten kann, mit der Structured Data. Es ist so, dass in unseren Richtlinien steht, dass man die nicht für Adult Content verwenden soll. Ich weiß nicht, wie das auf Deutsch genau formuliert, aber in den Rich Snippet Guidelines müsste das so sprechen drin sein. Das heißt, an und für sich, dich würde ich würde schauen, dass man da Structured Data verwendet, für solche Sachen. Es ist auch so, dass unsere Systeme einen Art Safe Search Filter haben. Das heißt, dass sie automatisch die Rich Results von solchen Websites gar nicht erst darstellen würden. In der Regel ist es so, dass wir die Website Ebene machen oder auf größeren Teilen der Webseite. Das heißt, wenn ihre Teile der Website haben die für Erwachsene sind und Teile die für den allgemeinen Benutzer verfügbar sind, dann würde ich schauen, dass man die ganz klar unterscheiden kann. Am besten über die URL selber, dass wir genau wissen dieser Abschnitt der URL, im Unterverzeichnis oder der Subdomain, ist für Safe Search und der andere Teil ist etwas, das man ohne Safe Search ausliefern kann. Das ist manchmal nicht einfach machbar, aber gerade bei einem Shop, der verschiedenen Produkte hat, ist es ja nicht so, dass man da wirklich mit Unterverzeichnissen arbeiten kann. Sagen kann, dass es jetzt so und das ist so, sondern das ist alles im gleichen Produktebereich. Da lohnt es sich unter Umständen zu überlegen, ob man das ganz trennen möchte, auf unterschiedliche Webseiten oder ob man einfach sagen möchte, gut, ich habe halt unterschiedliche Inhalte und wenn die mit Safe Search gefiltert werden, ist es auch nicht das Ende der Welt. Da in der Regel jemand der nach solchen Produkten sucht, der wird auch wissen, dass man Safe Search auch ausschalten kann.

Ich habe eine 20 Jahre alte Domain übernommen und von TYPO3 auf WordPress umgestellt und muss nun die Linksstruktur von mehr als 2000 Beiträgen, und vor allem die Links, neu aufbauen. Auf was soll ich achten, um die alten Rankings nicht zu verlieren? Linkstruktur, Code-Bereinigung usw. Was ich da an erster Stelle machen würde, bevor man da groß etwas umstellt. Ich weiß nicht, ob das jetzt vielleicht zu spät ist. Das man wirklich ein klares Verzeichnis hat, von den alten hinhalten. Das heißt, am besten eine Liste aller URLs und vielleicht aller Inhalte, die da verfügbar waren. Damit man das längerfristig auch vergleichen kann und dann wenn man die interne Struktur der Website umstellen muss, dann würde ich schauen, dass man wirklich eine 1 zu 1 Weiterleitung von all den alten URLs, zu den neuen URLs hat. Einfach damit man sicher ist, das alles der alten URLs, irgendwie auf die neunen URLs weitergeleitet wird. Das betrifft nicht nur die HTML-Seiten, sondern auf alle eingebunden Inhalte. Sachen wie PDFs die vielleicht verlinkt werden, die JavaScript-Dateien. die CSS-Dateien. die Bilder die eingebunden waren, dass all diese URLs auch weitergeleitet werden an die neuen URLs. Die Idee dabei ist, dass wenn wir eine ältere HTML-Seite in unserem Cache haben und die neu rendern wollen, dass wir da dann nicht hängen bleiben, dass wir da trotzdem diese Seite rendern können, dass die Bilder weitergeleitet werden, dass wir die neue URL verfügbar haben. Je eher man das machen kann, umso eher kann man dann wirklich die alten Signale beibehalten. Und dass man möglichst alles so 1 zu 1 weiterzuverwenden kann. Was ich dann längerfristig auch machen würde ist, mit einem Website-Crawler, die ganze neue Domain mal durchgehen und wirklich kontrollieren, dass alle Links auch angepasst worden sind. Das möglichst wenig über verschiedene Redirect-Stufen geleitet wird, sondern dass alles möglichst sauber weitergeleitet wird. Nicht das man dann noch irgendwelche 404 Bereiche hat, die einfach hängengeblieben sind. Wenn man einen Crawler drüber laufen lässt, dann sieht man auch sehr schnell, ob die Linkstruktur innerhalb der Webseite ähnliches wie vorher. Das heißt, solche Sachen, dass auch alle Seiten gefunden werden über die Links. Dass die Ankertexte vielleicht innerhalb der Webseite ähnlich sind, obwohl ich vielleicht das Template komplett umgestellt habe. Was ich vielleicht auch überlegen würde ist, ob man irgendwie vermeiden kann, dass sich die URL-Struktur verändert. Weil wenn man das machen kann, dass man die alten URLs beibehalten kann, dann spart man sich sehr viel mit den ganzen Redirects muss man sich nicht so viel Gedanken machen, mit dem ganzen Crawling, mit der Indexierung der alten Inhalte, dann weiß man ja, dass das so weitergeht. Manchmal lässt sich das machen, dass man da eine Art Struktur dazwischen einbaut, dass die neuen Inhalte über die alten URLs auf buchbar sind.

Manchmal ist das sehr aufwändig und da muss man halt mit Redirects arbeiten. Auf jeden Fall würde ich sagen, auch wenn man alles hundertprozentig korrekt macht, mit Weiterleitungen, mit dem Neuaufbau, mit der internen Verlinkung, dass es einigermaßen funktioniert, lässt sich nicht garantieren, dass alles eins zu eins weiter läuft in der Suche. Weil wenn wir erkennen können, dass es größer Umstellung gegeben hat auf einer Webseite, versucht wir das halt zu berücksichtigen. Es kann sein, dass die Seite ein bisschen weniger gut dasteht am Ende. Kann natürlich sein, dass sie bisschen besser da steht, dann am Ende. Das ja auch ein bisschen das Ziel mit einer Umstrukturierung der Webseite, dass man da ein bisschen besser dasteht, in der Suche am Ende. Aber auf jeden Fall ist das erst mal viel Arbeit und viele Sachen, wo man auf den Details achten muss und schauen muss das wirklich alles 1 zu 1 weitergeleitet wird und wieder verfügbar ist wie vorher.

Danke schön, das war meine Frage. Deine Antwort war schon ungefähr das, was ich gemacht habe in dem Bereich. Ich hab ja, mir die ganze Seite aus ????  Da schaue ich bei allen Ländern nach, welche Seite war da verlinkt, zum Beispiel, wie ist der Link. Ich hab auch Weiterleitungen, als 301-Weiterleitungen gemacht, von den alten Links zu den neuen Links. Weil das ist nicht möglich, dass man die neue Struktur so macht, weil TYPO3 hat einen andere Linkstruktur. Mit 1- und dann eine Nummer hinten dran und dann .html. Dann gab es Verschachtelungen innerhalb der Seite zu anderen Artikel. Ich habe aber gemerkt, muss ich auch ganz ehrlich sagen, dass es scheint so zu funktionieren wie ich es mache. Ich habe dann die ganze Seite gecrawlt, habe meine 10.000 Google-Rankings mittlerweile, durch die alte Seite. Dann schaue ich mir die ganzen alten Seiten an und übernehme diese Seiten 1 zu 1, mache die Links neu und bereinige sonstige Sachen. Die hat zum Beispiel auch Keyword angegeben, der Optimierung nach auch mehrere Keywords angegeben, in einer Liste mit 5, 6, 7 oder 8 Keywords, als Hauptkeyword. Das muss ich alles bereinigen. Dann hat sie noch einen alten Code drinnen, zum Beispiel. Dann hat sie einen alten Google Adsense Code drinnen, den ich rausnehmen muss. Also ich muss sämtlichen HTML-Code bereinigen. Und das ist bei insgesamt 5000 Beiträgen ziemlich viel Arbeit. Eine Frage dazu: Wie lange wir des ungefähr dauern, bis die Seite so halbwegs wieder in Google drinnen ist, wie sie vorher war? Die Seite ist wirklich gut gerankt und ist 20 Jahre alt und die Seite lief einmal sehr gut. Bei Adsense lief sie sehr gut. Die Seite hat natürlich jetzt Einbußen genommen, weil nie auf mobile Geräte acht genommen wurde und seit 4 Jahren nicht mehr aktualisiert wurde. Deshalb habe ich mich für Wordpress entschieden, weil ich auch Wordpress schon seit Jahren mache. Ich mache das also jetzt und ich merke auch es geht langsam aufwärts. Ich habe aber einen Haufen, ja, Einnahmen verloren. Und wie lange wird es jetzt ungefähr dauern, bis die Seite wieder auf dem Stand ist, wo sie vielleicht vorher war? Gibt’s irgendwelche Tipps dazu, was ich noch beachten kann? Oder irgendwas in der Richtung?

Ich denke, du machst eigentlich schon alles soweit richtig. Ich denke, dass klingt alles sehr gut. Zeitlich lässt sich das gar nicht sagen, wie lange das gehen wird. Kann auch sein, dass ich Sachen im Bereich vom von Google Algorithmus auch verändert haben im Laufe der Zeit. Das heißt, wenn das jetzt zum Beispiel eine medizinische Website ist und die jetzt mit den letzten paar Updates sowieso anders gerankt wäre, dann lässt sich das schlecht vergleichen, wie das Ranking heute ist und wie das Ranking vor einem Jahr war. Auch wenn die Webseite 1 zu 1 gleich bleibt. Aber ich denke die ganzen technischen Sachen, sind sicher immer Sachen, die man mal bereinigen muss. Die alten Codes rausnehmen, dass die Links alle funktionieren. Und dann ist es eine Frage der Zeit bis alles wieder zurückkommt und auch eine Frage vom „weiterbeleben“. Wie man die Webseite weitertreiben kann, wieder aktualisieren kann, dass die Inhalte wieder aktuell sind, dass Benutzer die entsprechen auch auffinden und dann wieder weiterempfehlen usw. Noch eine Frage, dazu: Wenn ich jetzt meinetwegen 10 Beiträge neu mache. Ist es notwendig, dass ich die Sitemap jedes Mal wieder neu hoch lade oder wird das automatisch von Google aktualisiert? Ich habe ja das SEO von Yoast für die Sitemap. Muss ich das immer neu hochladen wenn ich eine Aktualisierung gemacht habe, meinetwegen für 10 oder 20 neue Beiträge? Oder wird das alles automatisch abgearbeitet? Normalerweise geht das automatisch. Bei Wordpress gibt es ja die RSS-Feeds. Die werden automatisch erstellt und eingereicht. Und ich glaube mit dem Yoast Plugin oder mit anderen Sitemaps Plugins werden die Sitemaps-Dateien automatisch erstellt und automatisch eingereicht. Das heißt, du musst da nicht in der Search Console von Hand irgendwas machen. Danke schön. Eine Frage in den Kommentaren gibt es noch: Spielen Social Signals noch eine Rolle für das Ranking? Aus unserer Sicht nicht. Das heißt, ich glaube ziemlich alle Webseiten haben ja den NoFollow bei den Links und dementsprechend würden wir die sowieso alle ignorieren. Aus SEO Sicht ist es natürlich so, dass wir die nicht als direkte Signale dazu nehmen, aber indirekt kann das natürlich trotzdem sinnvoll sein, dass man die Webseite so an ein bisschen breiteres Publikum bringt. Dann könnte es natürlich schon sein, dass die dann auch separat verlinkten zur Webseite und dementsprechend ist es besser für die Website ist insgesamt, wenn man mit den ganzen Social Networks aktiv ist. Aber es ist nicht so, dass wir das als direkten Faktor dazu nehmen würden.

Okay, ich denke zeitlich sind wir ziemlich am Ende und Fragen hat sonst auch keiner mehr. Gibt’s noch Fragen? Ja, Entschuldigung. Ich habe noch eine Frage reingestellt. Im Youtube Kommentarfeld, ganz unten. Oder sagen Sie sie sonst einfach kurz. Eh, es sind drei Fragen. Vielleicht einfach einmal aktualisieren. Verstoßen Links die über einen Kumpel gewährt werden, ohne Bezahlung, gegen Google Richtlinien? Sollten sie besser disavowed werden? In der Regel sind das Kleinigkeit, auf die wir nicht groß achten würden. Ich denke, wenn das in größeren Rahmen betrieben wird, dann wäre das vielleicht etwas was wir sehen würden und darauf reagieren würden. Aber wenn das Kollegen sind, die eure Webseite weiterempfehlen, ist das an und für sich keine große Sache.

Sollten Links auf Verzeichnis Seiten, unter Umständen ??? Links pro Seite, besser auf Follow gesetzt werden, wenn die gelisteten Firmen vertrauenswürdig sind? Das ist an für sich euch überlassen. Also, wenn du ein Verzeichnis betreibst, ist es an für sich ja euch überlassen wie ihr das handhaben wollt. Man kann das so oder so machen. Ich denke, gerade bei Verzeichnis-Webseiten ist es manchmal ein bisschen schwierig, weil die einfach an Popularität ein bisschen verloren haben und nicht mehr so relevant sind in vielen Fällen.

Verstoßen Follow-Backlinks, im Rahmen einer Kooperation, der Partner zahlt, nicht man selbst, gegen die Google Richtlinien? Ja, an und für sich schon. Das heißt egal ob du direkt jemanden zahlst für diesen Link oder ob du eine Agentur etwas zahlst und die kaufen dann die Links. Das ist aus unserer Sicht das Gleiche. Der Link ist ja nur da, weil man da dieses finanzielle Verhältnis hat zwischen den beiden Webseiten.

Ist das nächste Google Update eher in Wochen oder Monaten zu erwarten? Wir machen an und für sich Updates fast jeden Tag. Manchmal ist es schwierig zu sagen, welches Update groß scheint extern und welches Update klein erscheint. Von dem her, lässt sich das schlecht sagen, wie schnell das kommt. Okay! Ich habe es gerade geschafft. Gibt es eine Liste aller wichtigsten Rankingfaktoren? Haben wir leider nicht. Extern gibt's verschiedene die Rankingfaktoren zusammenstellen, aber eine Liste direkt, haben wir an und für sich nicht. Okay, dann machen wir vielleicht hier eine Pause. Vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen und sehen wir uns vielleicht in einen von den nächsten Hangouts wieder. Tschüss allerseits.