interne Verlinkung – <Meta-Tag /> http://localhost/blog Mein privater Blog Wed, 25 Apr 2018 19:31:08 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.4 Broken Links finden http://localhost/blog/index.php/2016/04/02/broken-links-finden/ http://localhost/blog/index.php/2016/04/02/broken-links-finden/#respond Sat, 02 Apr 2016 20:45:03 +0000 http://localhost/blog/?p=439 wgetLinks sind im Internet äußerst wichtig. Eingehende Links bringen Besucher auf die Seite. Ausgehende Links ermöglichen es den eigenen Besuchern, weitergehende Informationen auf anderen Seiten zu erhalten. Interne Links führen den Benutzer durch die Seiten. Bei größeren Seiten kann es immer mal wieder passieren, dass hier und da eine Datei gelöscht wird, die von einer anderen Seite noch verlinkt ist. Wie man einfach solche gelöschten Dateien findes zeige ich hier.

Vielleicht hat man auch auf der eigenen Seite ein Bild gelöscht, das noch irgend wo benutzt wird. Das ist für den Besucher sehr ärgerlich. Wie man solche

Deswegen ist es eine gute Idee, die eigene Seite regelmäßig auf Broken Links zu überprüfen. Dafür gibt es eine Menge Tools, die das mehr oder weniger gut erledigen.

Es gibt aber auch ganz einfach Lösung mit dem sehr universellen Kommandozeilentool wget.

Auf den meisten Computern mit unix-artigem Betriebssystem ist das Tool schon installiert. Wenn nicht, dann kann es leicht nachgeholt werden:

Linux:
apt-get install wget

OS X, Installation mit Homebrew:
brew install wget

Windows:
Download des Installationspaketes hier: http://gnuwin32.sourceforge.net/packages/wget.htm

Jetzt kann es los gehen. Im Terminal wird folgender Befehl eingegeben:

wget --spider -o ~/wget.log -e robots=off -w 1 -r -p http://www.example.com

Der Sinn der ganzen Optionen hinter dem Befehl erschließt sich sicherlich nur den Wenigsten sofort. Deswegen will ich die mal kurz erläutern.

--spider
Die Option bewirkt, dass nicht alles heruntergeladen und gespeichert wird. Es werden also keine Bilder oder Videos übertragen. Es wird aber ein Report erstellt, ob es möglich wäre.
-o ~/wget.log
Hiermit werden die Log-Ausgaben in die Datei wget.log im Home-Ordner umgeleitet. Es ist natürlich jeder andere Dateiname möglich.
Unter Windows sollte nur wget.log geschrieben werden, da es das Symbol “~” für den Home-Ordner nicht kennt. Die Datei wird dann im aktuellen Ordner angelegt.
-e robots=off
Diese Option bewirkt, dass die Vorgaben aus der robots.txt nicht beachtet werden. Ansonsten könne die robots.txt für Spider den Zugriff auf bestimmte Dateien und Ordner verbieten und unser Tool würde falsche Broken Links anzeigen.
-w 1
Die Option bewirkt, dass wget zwischen jeder Anfrage eine Sekunde wartet. Ohne diese Option würde wget die Anfragen so schnell es die Hardware hergibt an den Server stellen. Dieser könnte überlastet werden.
-r
Das „r“ steht für rekursiv. wget geht jedem Link nach und versucht die verlinkte Datei herunterzuladen. Damit wird wget von einem Programm, was einzelne Dateien herunterladen kann, zu einem Crawler.
-p
Damit get wget allen in der HTML-Datei verlinkten Ressourcen nach, auch Bildern, PDFs oder auch CSS- oder JavaScript-Dateien. Ohne diese Option würde es nur verlinkten HTML-Datei folgen.
http://www.example.com
Zum Schluss muss die URL angegeben werden, mit der wget mit den crawlen beginnen sollen. www.example.com muss also mit der URL der eigenen Seite ersetzt werden.

Nach einiger Zeit findet man dann im Home-Ordner die Textdatei wget.log. Öffnet man diese mit einem Editor, dann findet man ganz zum Schluss eine Liste der Broken Links.

wget.log

Möchte man die Ergebnisse weiter per Kommandozeile auswerten, dann ist grep das Tool der Wahl, zumindest wenn man Linux oder OS X benutzt. Windowsnutzer können alternativ findstr verwenden.

grep -B 2 ' 404 ' ~/wget.log

Die Option -B 2 zeigt nicht nur die Zeile an, die den String ' 404 ' enthält sondern auch die zwei Zeilen davor. Auf die Leerzeichen vor und nach der „404“ sollte geachtet werden. Ansonsten wird jede Zeile Ausgegeben, in der irgendwo die „404“ vorkommt.

Das Ergebnis sieht dann so aus:
grep

Eine Stärke der Kommandozeile ist die gute Automatisierbarkeit von Abläufen. Mit sehr wenig Aufwand kann das in eine Shell-Skript eingebunden werden, das eventuell regelmäßig per cron-Job ausgeführt wird. Der Fantasie sind keine Grenzen gesetzt.

]]>
http://localhost/blog/index.php/2016/04/02/broken-links-finden/feed/ 0
Klickoptimierung durch einfache Onpage-Maßnahmen http://localhost/blog/index.php/2015/05/30/klickoptimierung-durch-einfache-onpage-massnahmen/ http://localhost/blog/index.php/2015/05/30/klickoptimierung-durch-einfache-onpage-massnahmen/#respond Sat, 30 May 2015 14:10:31 +0000 http://localhost/blog/?p=61 Eine gute Platzierung in den Suchergebnissen von Google ist wichtig. Was nutzt das aber, wenn die Klickrate niedrig ist. Ich hatte so ein Fall auf meiner Vergleichsspannungsseite.

Wie es mir gelungen ist mit ein paar simplen Onpage-Optimierungen, die Klickrate mehr als zu verdoppeln, will ich hier beschreiben.

Konkret geht es um die Seite zum E-Modul. Nicht jeder kennt sich mit technischer Mechanik aus, deswegen eine ganz kurze Erklärung des Begriffs. Wenn man ein Körper drückt, dann verformt er sich. Die Größe der Verformung hängt von zwei Sachen ab, von der Geometrie des Körpers und vom Material. Der Anteil, der vom Material bestimmt wird, heitßt Elastizitätsmodul, oder kurz E-Modul. Der E-Modul ist ein wichtiger Kennwert für das Material und wird zum Erstellen statischer Berechnungen benötigt.

Für die Keywords „elastizitätsmodul“, „e modul“ und „e-modul“ ist es sehr schwer, vernünftigen Traffic zu generieren. Warum?

Dazu muss man sich überlegen, mit welcher Absicht ein Nutzer diese Suchbegriffe bei Google eingibt. Der Nutzer erwartet eine Erklärung, was der Elastizitätsmodul überhaupt ist. Wenn dann der passende Wikipedia-Artikel auf Platz 1 liegt, dann werden wohl die allermeisten Suchenden auf diesen Link klicken. Alle anderen Suchergebnisse, egal wie gut die Seiten sind, werden es sehr schwer haben.

Etwas anders sieht es bei der Keyword-Kombination „e modul stahl“ aus. Es ist anzunehmen, dass der Suchende schon weiß, was der E-Modul prinzipiell ist. Er sucht nur den Zahlenwert für ein bestimmtes Material, in dem Fall für Stahl. Da habe ich mit meiner Seite wieder eine gute Chance gegen die Wikipedia. Meine Seite enthält schließlich einige Tabellen mit den Zahlen für alle denkbaren Werkstoffe. Trotzdem lag die Klickrate bei nur 7% bei einer durchschnittlichen Platzierung von 2,9. Das war viel zu niedrig. Ich wollte die Ursache dafür herausfinden.

Die Seite hatte ich eigentlich gut strukturiert. Jede Werkstoffgruppe war in einer separaten Tabelle zusammengefasst. Über jeder Tabelle stand eine Überschrift mit dem Namen der Werkstoffgruppe, beispielsweise „Holz“, „Stahlbeton“ usw. Am Anfang der Seite gab es ein Inhaltsverzeichnis, welches die einzelnen Zwischenüberschriften verlinkte. Eigentlich optimal, dachte ich.

Doch ich hatte einen Fehler gemacht.

Stahl war mit Aluminium, Kupfer und anderen Metallen zu Werkstoffgruppe „Metalle“ zusammengefasst. Die Zwischenüberschrift hieß dann natürlich „Metalle“. Das Ergebnis war, dass Google folgendes Snippet in seinem Suchergebnissen anzeigte:

Snippet
Google wertet also die internen Links des Inhaltsverzeichnis aus und zeigt diese direkt im Snippet an. Das ist erst einmal eine wichtige Erkenntnis und zeigt, wie wichtig Überschriften und Inhaltsverzeichnisse gerade bei längeren Texten sind.

Die Suchmaschine war aber der Meinung, dass das Keyword „Stahl“ besser zu „Stahlbeton“ passt als zu „Metalle“. Das sahen logischerweise die meisten Suchenden anders und klickten nicht auf den Link.

Meine Schlussfolgerung war, eine neue Tabelle einschließlich Zwischenüberschrift „Stahl“ zu erstellen. Nach kurzer Zeit sah das Snippet dann so aus:

Snippet

Die Klickrate liegt jetzt nach ca. einem Monat bei 15%. Da Google auch die Klickrate in den Suchergebnissen auswertet hat diese kleine Onpage-Optimierung indirekt auch Einfluss auf die Platzierung in den SERPs. Die stieg auf von 2,9 auf 2,2.

Dafür, dass auf Platz 1 der Wikipedia-Artikel liegt, ist die Klickrate jetzt im annehmbaren Bereich.

Zusammenfassung

Hier nochmal ganz knapp zusammengefasst mein Vorgehen:

  • Keywords mit unterdurchschnittlicher Klickrate ausfindig machen
  • Suchabsicht herausfinden
  • Passt Snippet zur Suchabsicht?
  • Onpage-Optimierung. Zwischenüberschriften und Inhaltsverzeichnis sind wichtig, für die Leser als auch für Google.
]]>
http://localhost/blog/index.php/2015/05/30/klickoptimierung-durch-einfache-onpage-massnahmen/feed/ 0