Hauptbereich
Hauptseite
Impressum
AGB's
Öffnungszeiten
History

Webdesign
Portfolio
Preise
Gefunden werden
Keywords/
Suchbegriffe

Länderkennungen
Farblehre
Ergonomie
Domain-Check
KK-Antrag
Einzugsermächtigung

Allgemein
So finden Sie uns
Presse

Wissenswertes
Liste Pop3 und SMTP
Glossar
Dokumentationen

Sicherheitsbereich

Fernwartung
(kostenpflichtig!)

Gefunden werden - nur wie?

Die Optimierung von Webseiten für Suchmaschinen wird immer wichtiger

09.05.2005 12:01 | von Ulrike Ostler


Rund 300 Besucher zählte der Veranstalter der 'Search Engine Strategies 2005' neulich in München, was den Event bei den viel reisenden Experten "gemütlich" erscheinen ließ. In den USA kommen zu solchen Tagungen mehrere tausend. Ihr Ziel hüben wie drüben: Mehr zu erfahren darüber, wie sie mit den eigenen Webseiten von Suchmaschinen besser gefunden werden.

Der anwesenden Kundschaft jedenfalls vermittelte die 'Google University' oder auch die 'Website-Klinik', dass sie jede Menge tun kann und muss, um die Struktur, die Wortwahl und das Design ihres Web-Auftritts für das Ranking in Suchmaschinen zu verbessern. Erste Hilfe können übrigens auch frei verfügbare Tools wie 'seekbot' oder 'Xenu' liefern, von denen es mittlerweile eine ganze Reihe gibt. Sie schauen in der Regel nach Barrieren und defekten Links, die den Suchmaschinen das Auffinden einer Site erschweren.

Um Hindernisse zu vermeiden, gibt es eigentlich eine recht einfache Regel. Suchmaschinen-freundliche Seiten sind auch benutzerfreundlich und barrierefrei. Warum das so ist, erläutert Stefan Karzauninkat, Director Quality Management Europe bei der Seekport Internet Technologies GmbH: "Benutzen Sie einen Browser, wie er 1995 gestaltet war, und Sie sehen die Web-Seiten so, wie sie sich den Robots darstellen."

Mit drei Klicks zur richtigen Seite

Suchmaschinen sind Datensammler, die lediglich die Hypertext Markup Language (HTML) verstehen und Zeichenketten interpretieren. Sie können weder Multimediadateien wie Bilder oder hinreichend Flashs auswerten noch Bedeutungen erkennen. Sie folgen Links. Je weiter weg eine Information in stark verschachtelten beziehungsweise tiefen Hierarchien angesiedelt ist, desto schwieriger ist sie nicht nur für menschliche Sucher, sondern auch für die Suchmaschinen zu finden. Deshalb empfehlen sich flache Hierarchien. "Mit drei Klicks beziehungsweise Suchmaschinen-Hobs sollte die richtige Seite gefunden sein", sagt Karzauninkat.

Mit Hilfe von so genannten 'Deep Links' können Suchende direkt auf eine nachgeordnete Seite springen. Bei großen Seiten empfehlen sich Mini-, Meta- oder Teil-Verzeichnisse und moderate inhaltliche Cross-Links. Verboten sind Linkfarmen. Die könnten von den Suchmaschinen-Betreibern als Spam interpretiert werden. Die URLs der nachgeordneten Seiten sollten einem einheitlichen Muster entsprechen und keinen rätselhaften Zauberformeln gleichen.

Frames behindern die Interpretierbarkeit, denn Inhalte stehen in getrennten Dokumenten und werden unter Umständen deshalb getrennt präsentiert. Vermutlich wird ihre Anzahl ohnehin noch in diesem Jahr erheblich dezimiert. Behörden sind nämlich inzwischen zur "Barrierefreiheit" verpflichtet. Somit werden auch dynamische Seiten und Java-Scripts mehr und mehr verschwinden. Denn hier folgen die meisten Roboter den Links nicht.

Das heißt nicht, dass sämtliche Bilder oder auch Firmenlogos verschwinden müssen. Doch sollten Bilder beschrieben sein und das Corporate Design ergänzenden Text erhalten. Sonst findet sich im Listing der Suchmaschine statt einer Werbebotschaft unter Umständen nur der Hinweis der Einstiegsseite: "Dieser Internetauftritt ist optimiert für den Internet Explorer 6.0 und eine Bildschirmauflösung von 1024x768 Bildpunkten."

Text muss nicht schön sein, sondern auffindbar

Das Portal muenchen.de ist von Kronenberg nach diesen Regeln verbessert worden. "Wir haben jetzt gut lesbare Seiten und URLs", sagt der Verantwortliche. Die "Keyword-Analyse" dagegen hält er zumindest für seine Seiten vernachlässigbar oder nur als Tüpfelchen auf dem i. Zum einen sorge guter Inhalt für eine gute Platzierung in den Suchmaschinen, zum anderen gebe es hier die dominierenden Schlüsselwörter einfach nicht.

Dagegen spielt die Bestimmung von optimalen Schlüsselwörtern für Eduard Heindl eine große Rolle, etwa im Zusammenhang mit Suchmaschinen-gestützten Werbekampagnen, wie etwa Google Adwords. Die Auswahl neuer Schlüsselbegriffe setzt die Analyse vorhergehender Kampagnen voraus unter der Voraussetzung, dass zwar viele Wörter benutzt werden, aber nur wenige lohnend sind. Darin einbezogen werden die Klickraten und die Kosten pro Klick (Cost per Click = CPC). Daraus errechnen sich die Kosten. Der Wert einer Kampagne hingegen entsteht durch den Wert des Kunden (value per customer). Außerdem ist von Bedeutung, wie wertvoll die Umwandlung (conversion) von Clicks in ein Geschäft ist.


Manchmal hilft aber auch der gesunde Menschenverstand. So sollte das Luxushotel 'Bayerisher Hof' in München wohl unter den Schlagworten 'Hotel' oder 'First-Class Hotel' in Kombination mit München zu finden sein. Schlechte Karten dagegen haben die Commerzbank und die Credit Suisse. Denn die Finanzhäuser nutzen aus Sicherheitsgründen das abhörsichere Netzwerkprotokoll Hypertext Transfer Protocol Secure (HTTPS), bei dem die Daten über Secure Sockets Layer/Transport Layer Security (SSL/TLS) verschlüsselt werden. Das soll die Seiten unter anderem vor Phishing-Attacken schützen. Bis vor kurzem waren solche Sites für Suchmaschinen völlig unzugänglich.

Bauchweh und Blähungen bei den Such-Robotern

Doch HTTPS gehört nur zu den nachrangigen Problemen, mit denen sich die Suchmaschinen-Anbieter konfrontiert sehen. Das Qualitätskriterium schlechthin ist derzeit die Anzahl der Spam-Einträge in den Ergebnissen, sagt der Suchmaschinen-Guru Danny Sullivan. Er ist Autor und Herausgeber zahlreicher Bücher zum Thema sowie bei Jupitermedia zuständig für die Suchmaschine auf der amerikanischen Website der Company. Zudem ist er maßgeblich an dem Suchmaschinen-Codex beteiligt, den die Branche pflegt. Als Spam klassifiziert er eine Seite, die keinen eigenen informativen Inhalt besitzt oder sonst irgendeinen Nutzwert hat.

"Große Suchmaschinen gleichen einerseits einem Buch mit 8 Milliarden Seiten. Andererseits nehmen sie eine Qualifizierungsfunktion wahr. Sie vermerken auf welcher Position sich ein Suchwort befindet und registrieren, wie häufig und von wo auf eine Seite verlinkt wird", beschreibt Sullivan. Spam-Autoren machen sich das zunutze. 'Info-Klone' etwa spiegeln Originalseiten mehrfach, Shop-Klone wiederholen Sonderangebote. Beim so genannten "Cloaking" bauen findige Spammer zwei Seiten unter derselben Adresse, eine für die Suchmaschine und eine für den Nutzer. Die Suchmaschine identifiziert eine Info-Seite, der Nutzer erhält Werbung. Mit manipulierten Keywords gelangt der Suchende ausgerechnet zur Website des Wettbewerbers statt zum Marktführer.

Um solche, sowie etwa rassistische Seiten herauszufiltern, schafft sich jeder Anbieter eigene Regeln, die mit Hilfe von Algorithmen aber auch händisch agierender Redaktionen umgesetzt werde. An dieser Stelle setzen neue Suchmaschinen an. Ihre Betreiber, wie zum Beispiel Neomo, sehen eine Chance, qualitativ bessere, passendere Ergebnisse liefern zu können. Das soll insbesondere für nationale Einträge unter Berücksichtigung des Jugend- und Datenschutzes sowie der Datensicherheit gelten.

Dasselbe versprechen die Großen der Branche aber auch, und zwar durch die Eingrenzung der Suche auf Interessen. Laut Guru Sullivan aber besteht darin die größte Herausforderung der Suchmaschinen-Anbieter. Sie müssen ihre Nutzer davon überzeugen, dass eine solche eingeschränkte Suche die bessere ist. Die auf das gesamte Web ausgedehnte Suche könne gar keine besseren Ergebnisse liefern als die spezifische, so der Experte von Jupitermedia.

Suchmaschinen sind Dummchen

Ohnehin sind die Suchmaschinen stark verbesserungsbedürftig. Der Wissenschaftler Dirk Lewandowski von der Universität Düsseldorf hält geradezu Sprengstoff parat - vor allem für all die Website-Optimierer. Die Abteilung Informationswissenschaft der nordrhein-westfälischen Hochschule untersucht permanent die Qualität von Suchmaschinen. Das Ergebnis: Alle schneiden kläglich ab. Nur maximal sechs Treffer von zehn haben überhaupt Relevanz für eine Abfrage. "Oder andersherum: Mindestens 4 von 10 Treffern sind irrelevant", erklärt Lewandowski.

Ein ähnlich katastrophales Bild ergibt sich bei der Abdeckung. Das deutsche Web besteht aus rund 4 Millionen Domains mit 320 Millionen Seiten. Die Suchmaschinen jedoch decken hier gerade einmal 50 bis höchstens 60 Prozent ab. Dagegen werden US-Sites zu mehr als 80 Prozent indiziert bei einer Tiefe bis zu 90 Prozent. Außerhalb Amerikas werden zum Teil nicht einmal 50 Prozent der tiefer liegenden Seiten erwischt.

Auch die Aktualität lässt stark zu wünschen über. Obwohl die Suchmaschinenbetreiber angeben, es finde alle 30 Tage eine komplette neue Indexierung statt, sind die Einträge vielfach älter: "Oft sind keine klaren Intervalle erkennbar", so Lewandowski. Den aktuellsten Index weise noch Google auf, dann MSN Search und Yahoo. Umso wichtiger erscheint eine Einschränkung der Abfrage nach Datum. Doch auch da versagen die Suchmaschinen. Nur vier bis sechs Dokumente werden richtig zugeordnet.

Angesichts der boomenden Industrie rund um die Suchmaschinenoptimierung stellt sich die Frage, ob die Bemühungen überhaupt Erfolg garantieren können. Die Antwort des Wissenschaftlers ist knapp: "Hier wird viel Geld verbrannt.