You are here

Grundlagen um eine Drupal-Webseite suchmaschinenfreundlich zu gestalten

Auch wenn manche Werbetexte es suggerieren: Suchmaschinen-Optimierung (SEO) ist nichts, was man mal so eben für 100 € nebenher mit seiner neuen Webseite einkauft. Es ist ein kontinuierlicher Prozess, der vom Seitenbetreiber regelmäßige Arbeit verlangt (oder von seiner Agentur). Wer das aus Kostengründen nicht Profis überlassen möchte kann trotzdem einiges tun um seine Webseite nicht nur für menschliche User angenehm und interessant zu gestalten, sondern auch für die Crawler von Google, Yahoo und Co. Als Beispiel nehme ich eine Seite mit dem CMS Drupal.

"Lesbare URLs"

Das erste was man nach der Installation von Drupal tun sollte, ist die "lesbaren URLs" zu aktivieren. Als nächstes empfehle ich die Module Pathauto und Taxonomy Breadcrumb zu installieren. Ersteres erstellt automatisch URL-Aliase, so dass man z.B. die URL nach dem Muster /content/meine-toller-artikel erhält, anstelle eines wenig aussagekräftigen /node/123. Das zweite Modul sorgt für eine schönere Breadcrum-Navigation, indem es Taxonomy-Begriffe in den Navi-Link einbaut.

robots.txt

Als nächstes gilt es einen Blick in die robots.txt zu werfen. Standardmäßig bringt Drupal bereits eine Datei mit, an der man kaum etwas ändern muss. Hier ein Ausschnitt:

User-agent: *
Crawl-delay: 10
# Directories
Disallow: /database/
Disallow: /includes/
Disallow: /misc/
Disallow: /modules/
Disallow: /sites/
Disallow: /themes/
Disallow: /scripts/
Disallow: /updates/
Disallow: /profiles/
# Files
Disallow: /xmlrpc.php
Disallow: /cron.php
Disallow: /update.php
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /CHANGELOG.txt
Disallow: /MAINTAINERS.txt
Disallow: /LICENSE.txt
Disallow: /UPGRADE.txt
# Paths (clean URLs)
Disallow: /admin/
Disallow: /aggregator/
Disallow: /comment/reply/
Disallow: /contact/
Disallow: /logout/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/

Wichtig sind die Anweisungen "Disallow". Sie weisen die Crawler der Suchmaschinen an, die entsprechenden Unterverzeichnisse (oder auch Dateien) nicht in den Index aufzunehmen. Eventuell möchte man noch einige zusätzliche Verzeichnisse ausschließen - Kandidaten hierfür wären z.B. Skriptverzeichnisse wie /cgi-bin oder Verzeichnisse für Up- und Downloads wie /files.

Verwendet man ein anderes CMS, so sollte man eine solche Datei auf jeden Fall anlegen.

Inhalt und Schlüsselwörter (Keywords)

Die Zeiten, wo Suchmaschinen dem Inhalt des Metatags "Keywords" in einer Webseite große Beachtung schenkten sind lange vorbei. Heute kommt es vor allem auf dem Inhalt der Seite an und die darin verwendeten Schlüsselwörter, die sogenannten Keywords. Keywords sind die Begriffe, die die Benutzer von Suchmaschinen als Begriffe eingeben, wenn sie bestimmte Inhalte suchen. Nun könnte man auf die Idee kommen, möglichst viele x-beliebige Suchbegriffe auf einer Seite zu platzieren. Dies wurde früher auch von so mancher Webseite gemacht. Mittlerweile achten die relevanten Suchmaschinen jedoch auch darauf, wo diese Keywords erscheinen und wieviele auf einer Seite verwendet werden. "Vermutet" eine Suchmaschine, dass die Seite nur deshalb viele Keywords enthält um weit oben in den Suchergebnisseiten gelistet zu werden, so führt dies zu einer starken Abwertung. Zuviele sich wiederholende Keywords können daher ebenso schädlich sein, wie zuwenige.

 Wieviele Keywords sollte man also auf einer Seite platzieren? Wie hoch sollte die "Keyword Density" (die Schlüsselwort-Dichte) sein? Zunächst einmal sollte man sich mit Keywords und Keyword Density vertraut machen. Ein schönes Tool hierfür ist zum Beispiel die Webseite googlerankings.com, die kostenlos die Dichte von bestimmten Keywords und Keyword-Kombinationen für eine Webseite ermittelt. Dort findet man auch das Ultimate SEO Tool mit dessen Hilfe man analysieren kann, welche Wörter auf einer Webseite wie oft verwendet werden. Die Ergebnisse werden in gut aufbereiteten Reports präsentiert und bieten Anhaltspunkte für die weitere Seitenoptimierung.

Und wo platziert man Keywords? Keywords sollten nicht nur im eigentlichen Content der Seite platziert werden. Als weitere Möglichkeiten bieten sich an:

  • im Pfad der URL
  • in der Breadcrumb-Navigation
  • im HTML-Titel der Seite
  • in h1-Überschriften
  • im Header oder Footer
  • in den Alt-Tags von Bildern
  • im Text von Hyperlinks

Nun bleibt noch die Frage was für Keywords soll man verwenden. Dazu sollte man zunächst einmal die Brille der potenziellen Kunden bzw. Besucher der Webseite aufsetzen. Welche Suchbegriffe werden diese wohl verwenden? Beispiel: als Anbieter von Carsharing in Frankfurt sind ganz sicher die Keywords "Carsharing" und Frankfurt relevant, aber womöglich ist dieses Angebot ja auch für Menschen interessant die zunächst nicht an Carsharing denken und beispielsweise "Auto mieten" in die Suche eingeben. Auch gängige falsche Schreibweisen könnte man berücksichtigen, z.B. "Car-Sharing" oder "Car Sharing" - hierbei muss man natürlich aufpassen, dass man nicht den Text seiner Webseite verunstaltet. Aber als Alt-Tag in einem Bild ließe sich "Car-Sharing" unter Umständen verwenden.

Daneben kann es aber auch Sinn machen, Keywords zu verwenden, die gerade aufgrund aktueller Ereignisse besondere Aufmerksamkeit genießen. Beispielsweise das Wort "Bahnstreik" wenn das Bahnpersonal mal wieder streikt. Wenn es gelingt, ein solches sinnvoll in einen eigenen Beitrag auf der Webseite zu platzieren, kann dies nützlich sein - und als Carsharing-Anbieter fällt einem doch sich etwas ein, was man Bahnkunden als Ersatz zum bestreikten Regionalexpress anbieten kann, oder? Solche Keywords können unter Umständen sogar lukrativ sein, um sie im Rahmen einer "Google Adwords™"-Kampagne zu buchen.

Fortsetzung folgt...