Vorschaltseiten sind überflüssig, stören Benutzer und behindern Suchmaschinen

Oftmals wünschen sich Webseiten- oder Onlineshopbetreiber in Gesprächen eine tolle Vorschaltseite für Ihre Webpräsenz. In XING wurde gerade über Sinn oder Unsinn solcher Vorschaltseiten diskutiert.

Aus meiner Sicht sind Vorschaltseiten vor Webpräsenzen vollkommen überflüssig. Dafür gibt es verschiedene Gründe.

Aber vor allem zwei schwerwiegende Nachteile:

  • Suchmaschinen sehen die Vorschaltseite als erste Seite der Internetpräsenz. Da auf diesen Vorschaltseiten in der Hauptsache meistens Grafiken, Bilder oder Flashanimationen sind, wird die Suchmaschine nicht viele Informationen über die Seite gewinnen können. Folge: deutlich schlechtere Platzierungen.
  • Benutzer die öfters auf die Seite kommen, fühlen sich durch die Intros “ausgebremst”. Anstatt gleich im Innerern der Seite die Inhalte zu lesen oder auszuwählen, muss zuerst die Vorschaltseite “entfernt” werden. Benutzer die sich derart “belästigt” fühlen, kommen seltener oder bleiben ganz aus.

Vorschaltseiten gefallen daher in der Regel nur zwei Personenkreisen:

  • Der Agentur die Aufpreis für eine Flashanimation erfolgreich verkaufen kann und
  • zur Selbstbeweihräucherung des Seitenbetreibers. Das ist meist der einzige welcher der Auffassung ist, Besucher finden die anmierte Selbstdarstellung soo toll, dass man sie immer wieder anschauen will.

Fazit: Ab in die Tonne damit!

Vorschaltseiten behindern gute Platzierungen in den Suchergebnislisten und stören Benutzer. Somit gibt es keinen nachvollziehbaren Grund mehr, unbedingt eine Vorschaltseite zu implementieren.

Checkliste Onpage Optimierung für Einsteiger

Viele Webmaster welche eine Seite neu erstellt haben, möchten in den Suchergebnissen gut platziert werden. Natürlich spielen viele Faktoren eine Rolle. Hier möchte ich kurz aufzeigen, was Webmaster auf Ihrer Seite machen können, damit Suchmaschinen wohlgesonnen sind.

Checkliste zur Onpage Optimierung

Erste Checkliste für Onpage Optimierung

Content auf die Startseite

Content is King lautet eine alte SEO Regel. Ohne Inhalte in Textform haben Suchmaschinen wenig Futter und somit wenig Anlaß die Seite gut zu ranken. Vorschaltseiten oder Flashseiten haben mit diesem Problem zu kämpfen. Besser das Angebot beschreiben und mit weiteren Links auf die kommenden Seiten intern verlinken.

Keyword in die URL

Im Idealfall ist Ihr Hauptleyword Bestandteil Ihrer URL. Wenn Sie noch keine Webadresse für Ihr Projekt haben, dann versuchen Sie eine freie Adresse zu finden, welche Ihr Keyword enthält.

Keyword in den <title> Tag jeder einzelnen Seite

Ihr Hauptkeywort sollte im Title Tag der Seite stehen. Als erstes. Suchmaschinen werten von links nach rechts aus und gewichten entsprechend.

Keyword in h1-Überschrift und h2-Überschrift platzieren

Ihr wichtigstes Keyword sollte auf der Seite in Form der h1 und h2-Überschrift zu finden sein. Dadurch teilen Sie Suchmaschinen mit, was Ihnen auf der Seite wichtig ist.

Keyword sollte als alt-Attribut zu finden sein

Das Hauptkeyword sollte auch in einem Alt-Attribut bei eingebetteten Bildern zu finden sein.

Keyword im Haupttext

Das wichtigste Keyword soll auch im Haupttext zu finden sein. Aber nicht nur als reine Aufzählung, sondern auch umschrieben durch andere Begriffe. Suchmaschinen sind zunehmend in der Lage, Textzusammenhänge zu verstehen. Siehe vorherigen Artikel dazu.

Keyword im Bilddateinamen

Auch Bilder eignen sich um das Hauptkeyword zu propagieren. Platzieren Sie das Hauptkeywort als Bestandteil eines Bild-Dateinamens

Keyword als Verzeichnisname verwenden

Das Keyword ist auch als Verzeichnisname eine Hilfe. Dadurch wird es auch Suchmaschinen “bekannt” gemacht, da es häufiger vorkommt und eine gewisse Wichtigkeit darstellt.

Doppelten Content vermeiden

Achtzen Sie penibel darauf, dass jede URL Ihrer Webseite eigenen Inhalt besitzt. Gleicher Inhalt auf mehreren Seiten ist eine starke Rankingbremse.

Fazit:

Das Ausnutzen aller dieser Möglichkeiten garantiert natürlich keine Platzierung auf den ersten Plätzen. Es ist lediglich die Grundlage ohne die Top Platzierungen unwahrscheinlich sind. Auch gibt es sicher noch mehr Möglichkeiten Onpage zu optimieren. Wichtig für das Ranking sind natürlich auch Backlinks. Hierzu finden sich viele Artikel im Blog.

Viele Keywords helfen viel? Oder was ist LSO?

In den meisten Ratschlägen zur Suchmaschinenoptimierung, so auch hier im Blog, gibt es viele gute Tipps, wie man Keywords aussuchen sollte. Auch wird erklärt, dass Keywords in folgenden Strukturen enthalten sein sollten:

  • <title>
  • <h1>
  • <h2>
  • Fließtext
  • auch fett

Das alleine ist nicht ausreichend um optimal ausgestattet zu sein. Auch die prozentualen Anteile des Keywords an restlichen Fließtext sind nicht der Weisheit letzter Schluß.

Google rüstet zunehmend auf um zu “verstehen”, was auf der Webseite geschrieben steht. Daher reicht es nicht mehr aus, einfach irgendeinen belanglosen Text mit dem Keyword zu “garnieren” um von Google ernst genommen zu werden. Google verbessert die Fähigkeit, den Text zu analysieren und zu bewerten. Daher ist es von Bedeutung, in vernünftiger Sprache zu schreiben und nicht immer nur das oder die Keywords zu penetrieren.

Was ist LSO, latent semantische Optimierung?

Bei einer Webseitenoptimierung sollten nicht nur Keywörter, sondern auch damit zusammenhängende andere Begriffe zu finden sein. So sollte auf einer Webseite auf der es um Porzellan geht nicht nur das Keywort “Porzellan” penetriert werden. Auch Begriffe wie Schüssel, Teller, Suppenteller, Kaffeetasse etc. sollten in dem Text vorkommen. Google erkennt rasch “das” Hauptkeywort und prüft, ob dazu auch thematisch passende Begriffe im Text auftauchen. Ist das der Fall, dann wird Google die Seite als relevanter einstufen als Seiten, bei denen die Nebenbegriffe nicht auftauchen.

LSO ist sozusagen eine inhaltliche Optimierung der Webseitentexte. Da die Fähigkeit Nebenbegriffe zu erkennen immer ausgefeilter wird, lohnt es sich als Webseitenbetreiber mit LSO auseinanderzusetzen.

rel=”nofollow” muss weg – lieber noindex verwenden

Zugegeben, die Verwendung des rel=”nofollow” Attributes wird schon lange kontrovers diskutiert. Besonders bei Bloggern gibt es Befürworter und Gegner des rel=”nofollow” Attributes. Aber um diesen Zusammenhang geht es hier nicht. Sondern um den Einsatz dieses Attributes zur Gestaltung der Linkpopularität bei Suchmaschinen.

Was bedeutet rel=”nofollow” eigentlich?

Das Attribut wurde bereits 2005 von Google eingeführt und ermöglichte es, Hyperlinks mit diesem Attribut auszustatten. Hyperlinks welche mit rel=”nofollow” ausgezeichnet wurden, werden von Suchmaschinen nicht weiter verfolgt und bei der Berechnung der Linkpopularität nicht berücksichtigt.

Beispiel normaler Hyperlink im Quelltext:

<a href=”http://www.beispielseite.de/”>Beispielseite</a>

Dieser Link der auf die Seite www.beispielseite.de zeigt, würde vom Google Crawler verfolgt werden, wenn er die Seite besucht, auf der dieser Link zu finden ist.

Beispiel Hyperlink mit rel=”nofollow” im Quelltext:

<a href=”http://www.beispielseite.de/” rel=”nofollow”>Beispielseite</a>

Kommt der Google Crawler auf die Seite mit diesem Link erkennt er den Link, verfolgt ihn aber nicht. Der so maskierte Link wird nicht zur Berechnung der Linkpopularität herangezogen.

Warum setzt man rel=”nofollow” ein?

Neben der Mögllichkeit Spam zu maskieren ergeben sich durch den Einsatz des Attributes die Möglichkeiten, die Linkpopularität zu lenken. So kann man beispielsweise Seiten die nicht im Index stehen müssen maskieren und den Suchmaschinen sagen: “Bitte diese Seite nicht berücksichtigen”. Seiten wie Kontakt, Impressum oder interne Seiten wie warenkorb.php, bezahlen.php usw. können so vor dem Index bewahrt werden. Das Resultat ist oftmals eine Verbesserung des Seitenpageranks. Aus diesem Grunde wurde das Attribut vor allem von Suchmaschinenoptimierern gerne verwendet.

Google berücksichtigt rel=”nofollow” nicht mehr

Obwohl Google das Attribut selbst einführte, berücksichtigt Google das Attribut nicht mehr. Das bedeutet, alle mit rel=”nofollow” maskierten Links werden genau wie alle anderen Links ausgewertet.

Alternative Metatag

Wenn bestimmte Seiten aus dem Index herausgehalten werden sollen, empfiehlt es sich, die Seite selber mit dem Metatag “robots” vor der Indexierung zu bewahren

Beispiel Metatag mit noindex

<meta name=”robots” content=”noindex” />

Durch diese Metatagauszeichnung wird die ganze Seite nicht indexiert. Daher ist es nicht zwingend notwendig bei allen Links auf diese Seite etwas machen zu müssen. Bei extremen Pagerankmodellierungen ist das eventuell notwendig, aber dazu sind dann andere Linkmaskierungen erforderlich über die ich jetzt nicht näher eingehen möchte.

Fazit:

rel=”nofollow” ist Vergangeheit, lieber <meta name=”robots” content=”noindex” /> verwenden.

Weg mit dem “keywords” Meta-Tag – Google unterstützt ihn nicht (mehr)

Auf dem Webmasterblog von Google steht klar zu lesen, dass Google den “keywords” Meta-Tag nicht (mehr) für das Ranking von Suchergebnissen berücksichtigt.

Zitat:

Frage: “Verwendet Google jemals das “keywords”-Meta-Tag beim Ranking der Suchergebnisse?”

Antwort: “In einem Wort: Nein”

Also, alle Webmaster, Webdesigner, Hobbybastler, SEOs und Hobbyseos – jetzt herrscht Klarheit. Da das Meta-Tag von SEOs inflationär missbraucht wurde um die Suchergebnisse zu beeinflussen, hat Google die einzig richtige Konsequenz gezogen und verbannt es aus den Rankingkriterien.

Viele haben das schon lange gesagt, geglaubt hat es kaum jemand. Fast alle neue Seiten sind voll mit Keywords. Wer sich überzeugen möchte, dem empfehle ich den nachfolgenden, kurzen Film dazu:

Die sichersten Rankingbremsen vermeiden

Nachdem ich im vorangegangenen Artikel die wichtigen Faktoren für ein positives Ranking aufgeführt habe, kommen wir hier nun zum Gegenteil. Mögen die Punkte als Warnung dienen und alle, die diese oder ähnliche Methoden angewendet haben, wieder auf den Pfad der Tugend zurückführen.

Aktuelle, negative Rankingfaktoren und die Auswirkung auf die Platzierung in Suchmaschinen

Cloaking mit bösartigem Inhalt

Unter Cloaking versteht man, den Suchmaschinencrawlern andere Inhalte zu zeigen als dem Benutzer. Das alleine sorgt bei allen gängigen Suchmaschinen für harte Abstrafen. Durch Cloaking wird eine optimierte Seite dem Crawler vorgeführt und dem Anwender andere Inhalte. Wenn diese Inhalte jetzt noch bösartiger Natur sind, Malware, Trojaner etc. dann ist das nahezu die Garantie für den Abschuss nach ganz hinten.

Linkkauf von bekannten Linkverkäufern

Google hat oft genug vor Linkkäufen gewarnt. Wer seine Backlinks mit gekauften Links erhöhen will, muss damit rechnen, im Ranking abgestraft zu werden. Google ist, laut eigenen Angaben, in der Lage, die meisten professionellen Linkverkäufer zu identifizieren. Damit können Linkkäufer ebenso identifiziert und deren Seiten nach hinten durchgereicht werden. Also besser einen Backlinkaufbau ohne gekaufte Links betreiben.

Links von der eigenen Seite auf Spamseiten

Wird von der eigenen Seite auf bekannte Spamseiten verlinkt, so sinken die Platzierungen so schnell wie eine Bleiente im Teich. Google akzeptiert keine Spamlinks, da dies dem Bestreben nach nutzvollen Suchergebnissen für Googleanwender widerspricht. Besonders problematisch ist dieser Punkt, wenn auf der Webseite Spamlinks untergebracht sind von denen der Seitenbetreiber nichts weiss. Das kann durch Sicherheitslücken auf dem Webserver oder durch andere Manipulationen von Spammern tatsächlich passieren. Wenn das eigenen Ranking einbricht, sollte man unter anderem den Quellcode aller Seiten prüfen, ob sich dort Spamlinks eingeschlichen haben, diese entfernen und anschliessend Google mitteilen, das kein Spam mehr auf der Seite ist. Meistens verbessern sich dann die Platzierungen wieder.

Server bzw. Seite nicht erreichbar

Wenn der Server, bzw. die Domäne nicht gut erreichbar ist, dann wird Google das, ebenso bei nicht erreichbaren, intern verlinkten Seiten, mit Abschlägen im Index belegen. Google möchte, dass seine Anwender die Ergebnisse nutzen können und Seiten die nicht gut erreichbar sind, werden daher nicht gewünscht und nach hinten durchgereicht. Es lohnt sich also seinen Server bzw. seine Seiten zu prüfen ob sie schnell verfügbar sind. Wenn nicht den Hostinganbieter wechseln. Lieber einen Umzug in Kauf nehmen als durch technische Probleme bedingte schlechte Platzierungen.

Backlinks, Keywords, Verlinkung – was ist wichtig für das Ranking?

Backlinks, Keywords, Verlinkung – was ist denn nun wirklich wichtig um bessere Rankings in den Suchmaschinen zu erzielen?

Die Betreiber der bekannten Webseite SEOmoz haben eine Umfrage zu diesem Thema gestartet. Dabei haben 70 der weltbesten SEOs Ihre Einschätzung zu verschiedenen Rankingfaktoren und deren Wichtigkeit abgegeben. Nachfolgend eine Zusammenfassung der wichtigsten Punkte.

Aktuelle, positive Rankingfaktoren und die Auswirkung auf die Platzierung in Suchmaschinen

Keyword im Title Tag

Das Keyword im Title Tag ist mach wie vor eines der wichtigsten, wenn nicht sogar die wichtigste Maßnahme um gute Platzierungen in den Suchergebnislisten erreichen zu können. Christine Churchill sagte: “Wenn Du nur für eine einzige Maßnahme Zeit hast, dann nutze die Zeit um gute Seitentitel zu formulieren.”

Linktext bei eingehenden Links

Einen Backlink auf die eigene Seite zu bekommen ist eine gute Sache. Aber richtig wertvoll wird er nur dann, wenn der Linktext aus mehr als dem Domänennamen oder dem Wort “Webseite” besteht. Das Hauptkeyword im Linktext macht einen Backlink erst richtig wertvoll.

Linkpopularität der eigenen Seite

Die Popularität der eigenen Seite, gemessen an der Zahl und der Qualität der Backlinks, haben große Auswirkungen auf die Platzierungen in den Suchergebnislisten. Webseiten mit vielen Backlinks aus unterschiedlichen Quellen, mit guten Linktexten haben klare Platzierungsvorteile.

Das Alter der Webseite

Hierbei ist nicht das Datum der Domänenregistrierung gemeint, sondern das Datum an dem die Seite das erste Mal mit relevantem Content im Suchmaschinenindex aufgetaucht ist. Um Spam zu verhindern und die Qualität der Suchergebnisse hoch zu halten, ist das Alter ein gewichtiges Kriterium. Webseiten, die lange mit relevantem Inhalt im Googleindex stehen, werden besser platziert als neue Seiten.

Im zweiten Teil der Zusammenfassung wird die Topliste der schlimmsten Fehler zusammengefasst.

Linkkauf um Backlinks zu bekommen?

Webmaster fragen sich oft: “Wo kriege ich neue Backlinks her?”. Es hat sich herumgesprochen, dass Backlinks dem Ranking der eigenen Seite gut bekommen. Viele beginnen dann mit wilden Eintragsorgien in allen möglichen Webkatalogen, Artikelverzeichnissen und so weiter. Aber auch diese Möglichkeiten sind irgendwann erschöpft, das Ranking immer noch nicht befriedigend. Was tun?

Links kaufen um das Ranking zu verbessern?

Das ist die entscheidende Frage. Die Antwort darauf ist ganz einfach:

Linkkauf um Backlinks zu bekommen? weiterlesen

Backlinks – woher kriege ich Backlinks?

Backlinks sind ein wichtiges Thema in der Suchmaschinenotimierung. Google bemisst die “Wertigkeit” einer Seite und damit auch die Position in den Suchergebnissen an vielen Faktoren. Einer davon sind die sogenannten Backlinks.

Was nützen Backlinks

Googles Crawler durchsuchen das Internet und finden irgendwann Ihre Seite. Die Seite hat ein bestimmtes Thema, beispielsweise “Backlinkaufbau”. Im Internet gibt es noch viele Seiten zum Thema “Backlinkaufbau” und Google versucht, die Seite mit der größten Relevanz ausfindig zu machen. Dadurch werden in den Suchergebnissen nur die besten Seiten auf den vorderen Plätzen angezeigt.

Wie kann Google feststellen, welche Seite die größte Relevanz besitzt?

Neben vielen anderen Dingen sind das eben diese Backlinks. Google geht davon aus, das bei vielen Links auf eine Seite diese für viele Menschen wichtig ist, sonst würde nicht darauf verlinkt werden. Also sind viele Links auf Ihre Seite ein Indiz, daß die Seite, beispielsweise zum Thema “Backlinkaufbau” wichtig ist. Also wird diese Seite mit vielen Links wichtiger eingestuft als eine Seite mit weniger Links. Kurz gesagt: Backlinks verbessern Ihre Position in den Suchergebissen.

Woher kriege ich Backlinks?

Viele Backlinks bekommen Sie, wenn entsprechend gute Inhalte auf Ihrer Seite zu finden sind. Gibt es etwas lohnendes, verlinken Webmaster von alleine.

Weiterhin kann man die Seite in Verzeichnisse eintragen. (Mal nach Linkverzeichnis, Webverzeichnis, Branchenverzeichnis) etc. suchen. Dabei sollte man drauf achten, dass das Verzeichnis mindestens einen Pagerank von 2 oder höher hat. (Wertigkeit von Links ist dabei Thema)

Berichten Sie. Suchen Sie sich relevante Plattformen (Zeitungen, Blogs, Infoportale) und bieten Sie gute und relevante Informationen an. Die Veröffentlichung wird in aller Regel mit einem Link “belohnt”

Suchen Sie zu Ihrem Thema passende Foren und Blogs und schreiben Sie sinnvolle Beiträge, die zu Ihrem Thema passen. Auch hierbei werden oft Backlinks “spendiert”.

Beauftragen Sie eine vertrauenswürdige Agentur mit dem Linkaufbau. Es gibt viele schwarze Schafe in der Branche der Suchmaschinenoptimierer (wie bei fast allen Branchen) und man muss sich die Mühe machen eine seriöse Agentur zu finden. (Größe und plakative Werbung sind nicht immer ein Indiz). Das kostet natürlich Geld aber Sie bekommen eine gute, wirkungsvolle Backlinkstruktur die Ihr Ranking positiv veeinflusst.

Zehn Tricks zur Suchmaschinenoptimierung (Nr. 4)

Die ersten Tricks zur Suchmaschinenoptimerung ausprobiert? Wenn nicht, dann aber los. Hier kommt ein weiterer Trick, der beim Problem der dynamischen URLs Verbesserung bringen kann.

Sprechende URLs verwenden

Vor allem bei Seiten mit dynamischem Content werden oftmals erst bei der Benutzung (zur Laufzeit) die URL Namen erzeugt. Diese URLs können dann beispielsweise so aussehen:

www.domainname.de/seitenname.php?id=555&b=22&b=1771&sessid=1122334455

Wenn diese URLs von Google Crawler entdeckt werden, finden sich diese Seiten im Index. Das Problem fängt an, wenn der Google Crawler ein weiteres Mal zu Besuch kommt. Danach steht dann beispielsweise folgende Seite im Index:

www.domainname.de/seitenname.php?id=555&b=22&a=1371&sessid=1462553875

Was fällt auf? Eigentlich die gleiche Seite (seitenname.php) aber durch die zur Laufzeit erzeugten “Anhängsel” eine andere URL. Google bekommt so mehrfach den gleichen Content unter verschiedenen URLs in den Index. Diesen Duplicate Content würdigt Google durch eine Herabstufung der Relevanz bei Suchergebnissen.

Also, unbedingt darauf achten, dass auch bei dynamischen Seiten immer nur eine URL erzeugt wird. Dann gibt es diesbezüglich auch kein Problem mit Duplicate Content.

Wie bekommt man “gute” URLs

Um die dynamischen URLs mit dem “Anhängsel” zu “normalen” URLS zu machen unterstützt uns der Webserver Apache. (meistverwendeter Server). Dieser hat ein ladbares Modul mit dem Namen mod_rewrite. Dieses Modul ist in der Lage, URLs bei Anforderung “umzuschreiben” und dann erst auszuliefern. Um bei unserem Beispiel zu bleiben: Aus der URL …

www.domainname.de/seitenname.php?id=555&b=22&b=1771&sessid=1122334455

macht das mod_rewrite Modul:

www.domainname.de/seitenname.php

Es wird also genau das erreicht, was benötigt wird um Google eine URL zu liefern.

Eine Einführung in die Verwendung des mod_rewrite Moduls finden Sie hier.

Wer weitere Unterstützung zum Thema sucht, kann diese im deutschen modrewrite Forum finden.

Es lohnt sich, sich damit zu beschäftigen. Wer dynamische URLs verwendet, kann durch die Verwendung von mod_rewrite, deutlich besser platziert werden. Bitte bei der Verwendung Vorsicht walten lassen und vorher immer ein Backup machen.