Video
Transkript

Diese Lektion befasst sich mit der Mobil Freundlichkeit von Webseiten und deren Impact auf Googles Qualitätsbewertung.

In diesem Teil des Videotrainings schauen wir uns die mobile Optimierung an. Im Tool können wir wieder sehen, wie es mit der mobilen Optimierung ausschaut. Also auf welchen Geräten, schaut die Webseite wie aus, im Endeffekt. Gehen wir wieder gleich in die Tools direkt rein. Hier sehe ich, wie gesagt, ein Tablet, Hochformat, Querformat, auf einem Mobilgerät ausschaut. Unten natürlich wieder die Errors. Das heißt, ich habe hier irgendwie JavaScript und CSS blockiert. Das sollte ich nicht machen, weil sonst Google nämlich nicht alle Elemente anzeigen kann. Die Kompression sollte ich aktivieren. Server Response Time ist nicht besonders gut und das Browser Caching sollte ich aktivieren. Also hier kann man, wie gesagt, wie überall, Immer drauf klicken und findet hier einen Link wie man das ganze reparieren kann. Immer diesen Weg gehen. Das sind sowieso Sachen, die man normalerweise weitergeben sollte an einen Entwickler, wenn Sie sich selbst nicht wirklich gut in diesem Bereich auskennen. Also diese Dinge sehe ich da mal und es gibt natürlich wieder offiziell von Google hier etwas. Schauen wir nun aber direkt in die Search Console, hier gibt es noch ein ganz interessantes Tool, wo ich sehen kann, wie Google meine Unterseite oder meine Seiten sieht.

Wenn Sie hier gehen unter Crawling, Abruf wie durch Googel, geben Sie hier einfach eine Unterseite ein oder Sie lassen es auf der Startseite. Ich lasse einmal die Startseite. Ich wähle dann aus, dass ich das möchte, Mobilgerät - aktuelle Version, aufrufen und rendern, sage ich. Was Google jetzt macht, Google geht auf Ihre Webseite oder geht zu Ihrer Webseite, versucht die ganzen Daten herunterzuladen oder versucht eine Art Screenshot zu machen. Sie sehen dann, welche Elemente der User nicht sehen kann, im Endeffekt und welche Elemente Google nicht sehen kann. Also ich habe hier jetzt eine genaue Vorstellungen darüber, wie Google die Seite sieht und ob ich vielleicht irgendwelche Elemente in der robot.txt Datei aussperre, ob irgendwelche Bilder nicht erreichbar sind, ob irgendwelche Informationen von Google nicht geladen werden konnten usw. Das mache ich hier in den Webmaster Tools, bei Aufruf wir durch Google. Dann könnte ich hier, wenn ich wollen würde, noch eine Unterseite eingeben. Ich starte hier einfach die Analyse und dann muss ich ein bisschen warten. Sobald die Analyse fertig ist, bin ich wieder da. So die Analyse ist jetzt fertig. Dann klicke ich einfach hier drauf. Wir werden gleich zwei Screenshots sehen, im Endeffekt. So sah Google die Seite und so der Besucher. Wenn wir das mal anschauen. Schaut so aus, wie wenn alle Elemente drauf wären. So würde es der Besucher sehen. Also manchmal sieht man da relativ starke Unterschiede. Ich habe hier keine Fehler drinnen. Schauen wir uns da noch ein anderes Beispiel an. Versuchen wir hier mal seo4agencies aufzurufen. Ich gehe hier wieder auf Smartphone und aufrufen und rendern. Ich bin gleich wieder zurück, sobald die Analyse durch ist. So die Analyse ist jetzt durch und ich habe gleich noch eine Zweite gestartet. Weil ich hier einen Redirect drinnen hatte. Das heißt, wenn ich nur seo4agencies.com eingebe, wird der Benutzer automatisch schon weitergeleitet, von der Startseite und das sehen wir dann hier. Wenn ich da reingehe, sehe ich den Header. Ich sehe hier, dass es eine 301 Weiterleitung gibt, auf eine Unterseite die heißt, seo-fuer-agenturen. Darum habe ich einen zweiten Check gestartet, für diese Unterseite. Das können wir uns jetzt anschauen. Also, noch einmal auf der einen Seite wie das Google sieht. Hier fehlt schon mal das Logo, hier fehlt das Hintergrundbild, hier fehlen diese ganzen Bilder im Endeffekt, ein paar Style Elemente, wenn wir uns anschauen, die ganzen Buttons, das Bild ist nicht schön formatiert und unten sehe ich es dann auch wieder. Also die Images werden hier geblockt, anscheinend. Die Seite ist nicht bei uns gehostet, also die werden durch die robots.txt hier geblockt, zweimal. Dann werden Skripte geblockt. Es wird hier eigentlich alles durch die robots.txt geblockt. Hier sind schon ganz schön viele Sachen, die in der robots.txt geblockt werden. Das heißt, die ganzen Bilder werden nicht im Index sein. Das sollte man sich natürlich anschauen, wie man das beheben kann.