Kategorien Arbeiten von zu Hause


Themenseiten

Suchen

Archiv Arbeiten von zu Hause

November 2017
M D M D F S S
« Okt    
 12345
6789101112
13141516171819
20212223242526
27282930  

Gezwitschere

    Auf Twitter folgen
    21. April 2015

    Von Html zum CMS – Mobile Google Drohung lässt mich rotieren

    Google hatte ja angedroht ab heute in der mobilen Suche Seiten schlechter zu ranken, die nicht wirklich eine mobile Ansicht bieten. Findet Google dann zum gleichen Suchbegriff eine andere Seite, die eben besser für Handy und Co. geeignet ist, wird meine Seite nach hinten verschoben. Da ich auf einigen Projekten ziemlich viele Besucher mit Handys habe, hatte bzw. habe ich da natürlich Handlungsbedarf und so waren meine letzten Tage gestopft mit Arbeit. Ganz fertig bin ich zwar noch nicht, aber die wichtigsten Seiten (zu denen zählt nicht dieser Blog :-)) sind umgestellt.

    Das größte Problem dabei waren die Seiten, die noch aus meinen Anfängen stammten und nicht auf einem CMS beruhten. Es gibt da ja dann zwei Möglichkeiten: Ich rufe je nach Projekt 80, 250 oder auch 700 Seiten auf und ändere überall den Code (das könnte man sicherlich auch automatisieren) oder ich überführe die entsprechenden Projekte gleich in ein CMS. Ich habe mich für die zweite Lösung entschieden.

    Hier mal mein Lösungsweg, vielleicht gibt es ja noch andere Webseitenbetreiber die uralte Projekte haben, die eben aus richtigen Seiten bestehen und nicht aus einer Seite und einer Datenbank 🙂

    Als erstes habe ich die Seiten gescrabt. Also beginnend von der Startseite alle Links aufgerufen, die auf der Seite gefunden wurden, diese dabei gleich noch überprüft, ob der Statuscode auch 200 ist und das mit der Url in der Datenbank notiert. Mit Status 0. Dann habe ich das Programm diese Liste abarbeiten lassen und habe Url für Url aufgerufen, die Links ausgelesen, dabei gleich wieder überprüft ob 200, 301 oder gar ein 404. Abgearbeitete Urls bekamen eine 1, und die nächste mit 0, die eine 200er war, wird aufgerufen, ausgelesen, Urls raus, geguckt ob diese nicht schon in der Datenbank ist (dabei könnte man natürlich gleich noch einen Zähler mitlaufen lassen, um zu schauen wie oft einzelne Seiten verlinkt werden). Und so weiter. Aus einer Start-Url werden dann ganz fix viele viele neue Urls. Einmal hat sich mein Programm totgelaufen, ich habe bei dem Urls auslesen nicht an die Möglichkeit gedacht, dass es auch Anker Links geben könnte. War aber schnell behoben.

    In die Datenbank kam außerdem immer auch der komplette Code der Seite. Zum Schluss hatte ich eine schöne Liste mit vielen Einträgen und immer mit dem Code. Beim Scraben wurde außerdem schon der Titel der Seite und, wenn vorhanden, die Beschreibung ausgelesen.

    Dann bin ich erst einmal alle Seiten durchgegangen, die eben keinen Statuscode 200 haben. Bei einem Projekt habe ich mich mehrfach bei einer Url (ich nehme mal an da habe ich mit Suchen und Ersetzen gearbeitet) verschrieben und statt .php .ph stehen gehabt. Solche Seiten werden nun zukünftig umgeleitet. Außerdem konnte ich gleich in der Datenbank schauen wo diese Links standen und habe diese korrigiert.

    Das war der erste Schritt. Nun wurde den ganzen Seiten in der Datenbank wieder eine Rangordnung zugewiesen. Welche Seiten sind Hauptseiten, was gehört dazu etc. Immerhin mit Suchen nach Url war das auch schnell erledigt.

    Der dritte Schritt war dann der langwierigste.

    Jede Seite aufrufen. Dabei noch mal alle Links auslesen, in richtige Form (absolut) bringen, Statuscode überprüfen, auch von den externen Seiten. Alles was nicht einen 200er auswirft überprüfen und gegebenfalls korrigieren (dabei habe ich tatsächlich eine Domain gefunden, die nicht mehr vergeben ist, die aber außer mir noch einige andere gute Backlinks hat. Die habe ich natürlich gleich auf mich registriert). Und bei einem älteren Projekt war es erschreckend wieviele Textlinks zu Amazon einen 404 ausgeworfen haben. Sind nun aber auch alle korrigiert.

    Außerdem von allen Seiten dabei gleich die Bilder umkopieren. Die waren bei den Seiten bislang immer genau dort wo sie gebraucht worden und mussten nun natürlich in ein Sammelunterverzeichnis /bilder/ verschoben werden. Aber mit php auch kein Problem.

    Dann habe ich mir noch den Code-Block vorgenommen und hier schon mit Regex, Explode und Strreplace Vorarbeiten übernehmen können, so dass ich im Regelfall wirklich nur den eigentlichen Content der Seite in einer Textbox hatte. Den noch mal überflogen, ob wirklich alles gut aussieht und umkopiert ins eigentliche Textfeld. Bei Bildergalerien habe ich mir die Seiten mit den gefundenen Werten für Bilder, nächstes Bild etc. gleich neu aufbauen lassen. Außerdem wurden bei Bilder auch immer die Angaben im IMG-SRC um eine Klasse erweitert.

    Seite speichern, teilweise noch mal die Layout-Version überprüfen und gut war es.

    War sehr sehr langweilig. Aber jetzt sind meine wichtigsten Seiten alle überführt.

    Danach noch die PHP-Seite für den Output angelegt, eine schöne htaccess geschrieben, eine Css erstellt und ansonsten außer dem Ordner Bilder und den Adminbereich alles vom Server gelöscht. Sollte jetzt zukünftig was sein, habe ich eben nur noch drei Dateien, bei denen ich was ändern muss.

    Und jetzt habe ich fast Traumwerte für die Seiten was die mobile Nutzerfreundlichkeit angeht.

    An zwei Stellen hätte ich die Arbeit noch etwas verbessern können. Zum einen hätte ich die Bilder umleiten können. Das heißt Server auslesen, Links zu den alten Bildern sammeln und dann entsprechend eine 301 in der htaccess anlegen Url-altes Bild zu Url-neues Bild.

    Außerdem findet mein Tool so natürlich nur Seiten, die auch verlinkt sind. Verwaiste Seiten eben nicht. Theoretisch hätte ich also Url Liste noch mal abgleichen müssen indem ich eben alle Verzeichnisse nicht nur nach Bildern ausgelesen hätte, sondern eben auch nach anderen Dateien. Aber die Idee ist mir zu spät gekommen.

    Es war wirklich viel Arbeit, aber ich wollte die alten Html-Seiten schon so lange in ein CMS überführen (und hatte nie richtig Zeit und Lust dazu), das ich Google jetzt schon richtig dankbar bin 🙂

    Den Scraber werde ich auch weiterhin nutzen, damit kann ich mir ein eigenes kleines OnpageTool basteln 🙂

    Abgelegt unter: Programmieren, Tools und Nützliches Comment (0)

    Kommentar für diesen Artikel


    Proudly powered by WordPress. .
    Copyright © Arbeiten von zu Hause. All rights reserved.