Kapfenberg, 23.05.2011 – Der Begriff Suchmaschinenoptimierung (SEO) fasst alle Maßnahmen zusammen, die geeignet sind, um einer Website in möglichst kurzer Zeit möglichst gute Positionen auf den Suchergebnisseiten (SERPs) von Google und anderen Suchmaschinen zu ermöglichen. Das Ziel der meisten kommerziell orientierten Websitebetreiber besteht darin, ihre Internetseiten unter die Top Ten auf den SERPs zu bringen.

Der Vorteil liegt dabei klar auf der Hand: Die leichte und schnelle Auffindbarkeit einer Website mittels Suchmaschinenabfrage ermöglicht eine hohe Zahl an Seitenaufrufen (Traffic) bei entfallenden Werbekosten.

Es gibt zahlreiche Faktoren, welche das Ranking einer Webseite beeinflussen, Googles‘ Sortieralgorithmen scheinen mittlerweile weit über 200 Kriterien zu berücksichtigen. Das genaue Verfahren ist streng geheim und wird ständig verändert. Trotzdem gibt es einige Punkte, die von so grundlegender Bedeutung sind, dass sie grundlegende Gültigkeit haben. Zuvor noch ein sehr kurzer und einfacher Überblick über die Arbeitsweise einer Suchmaschine:
Suchmaschinen senden autonom arbeitende Programme (Searchbots, Spider oder Webcrawler) im Internet aus, welche die Aufgabe haben, Webdokumente zu besuchen und deren Links zu folgen. Die Dokumente werden dabei heruntergeladen und im sogenannten Page Repository gespeichert. Dort werden sie vom Indexer Wort für Wort ausgelesen, wobei jedes Wort eine eigene ID (Identifikationsnummer) erhält.
Identische Wörter bekommen die selbe ID zugewiesen. Anschließend wird festgestellt, welche dieser IDs auch in anderen Webdokumenten vorkommen. Dadurch werden die einzelnen Wörter zu Suchbegriffen, deren Abfrage zur Ausgabe einer Liste relevanter Webseiten führt (Trefferliste). Zu diesem Zeitpunkt beginnt der Searcher damit, diese Liste unter anderem nach folgenden Kriterien zu sortieren:
Der redaktionelle Inhalt (Content) einer Webseite muss einzigartig sein. Das heißt, der selbe Text darf nicht unter mehreren URLs (=genaue Speicherort eines Dokumentes im Internet) ausgeliefert werden. Dies würde man als Duplicate Content (DC) bezeichnen. DC führt in den meisten Fällen zur Abstrafung der betroffenen Webseiten durch deren Benachteiligung beim Sortiervorgang.
Ein weiterer, sehr wichtiger Faktor ist die Aktualität einer Website. Google stellt regelmäßig fest, ob deren Inhalte erneuert, gewartet und erweitert werden. Expandierende Projekte haben einen klaren Vorteil gegenüber stagnierenden. Weiters ist es von Bedeutung, wie sich die Seite in der Vergangenheit entwickelt hat. Eine stetige, lineare Entwicklung führt zu besseren Ergebnissen als mehrere kurze, exponentielle.
Die kurze Beschreibung der Suchmaschinen oben zeigt bereits, dass den Keywords eine zentrale Bedeutung beim Sortiervorgang zukommt. Sie müssen im Content vorkommen, wobei man als Bewertungsgrundlage die Keyworddichte heranzieht. Diese bezieht sich darauf, wie oft ein Suchbegriff im Verhältnis zur Gesamtzahl der Wörter eines Textes vorkommt. Ein idealer Wert scheint bei ungefähr drei bis vier, auf alle Fälle bei unter 5 Prozent zu liegen. Höhere Werte sind nicht nur für Menschen unangenehm zu lesen, sie können bei Suchmaschinen leicht die Spamfilter aktivieren.
Weiters ist das Vorkommen der Keywords in den Titeltexten von großer Bedeutung. Auch hier darf man es als Webmaster jedoch nicht übertreiben. Überlange Titletexte sowie übertriebene Wortwiederholungen führen zu schlechten Ergebnissen.
Zusätzlich ist es für das Ranking einer Webseite von Vorteil, wenn ihr wichtigstes Keyword im Domainnamen selbst vorkommt. Ein Umstand, der vielen nicht bewusst ist.
Die Bedeutung der internen Verlinkung einer Website ist ebenfalls ein häufig unterschätzter Rankingfaktor. Je nach Gesamtgröße eines Projektes sollte die interne Linkstruktur bestimmte Muster aufweisen.
Für kleinere bis mittlere Websites (bis etwa 100 Unterseiten) reicht es meist, alle Seiten vollständig untereinander zu verlinken, wobei jede einzelne Seite mit der Hompage verbunden sein muss.
Besonders wichtig sind auch Anzahl und Qualität der ausgehenden Links. Steht eine Website vollkommen isoliert im Internet da, wird sie von Suchmaschinen wiederum benachteiligt.
Geordnete Struktur der Überschriften: HTML kennt sechs verschiedene Grade von Überschriften (h1 bis h6), die in absteigender Reihenfolge verwendet werden sollen. Es darf genau eine h1-Überschrift geben, genau eine h2 und so weiter.
Valider Quelltext: Webcrawler lesen den HTML-Code von Webseiten. Je mehr Fehler der aufweist, desto schlechter das Ergebnis der Sortierung.
Wenig JavaScript, Ajax und Flash-Elemente: Searchbots können solche Elemente nicht auslesen. Besteht eine Webseite nur aus Flash-Elementen, kann es vorkommen, dass sie es gar nicht in den Index schafft.
Alternativtexte für Grafikdateien: Auch Bilder können von den Crawlern nicht gelesen werden. HTML stellt die Möglichkeit zur Verfügung, ihnen Alternativtexte hinzuzufügen, was sich auf das Ergebnis der Sortierung positiv auswirkt.
Das größte Gewicht unter allen Rankingfaktoren kommt jedoch den Backlinks (eingehenden Links) zu. Jeder Link wird von Suchmaschinen als Empfehlung für die empfangende Seite interpretiert. Je mehr Backlinks eine Seite vorweisen kann, desto beliebter und vertrauenswürdiger sollte sie sein. Eine gesunde Backlinkstruktur ist das Fundament aller SEO-Bemühungen.
Kontakt:
Manfred Kendlbacher
Anton Buchalka Straße 49
8605 Kapfenberg
support@cash-im-internet.org
http://cash-im-internet.org