Redesign für das Blog

Liebe Leser,

nach mehreren Jahren ist der Zeitpunkt gekommen, an dem ich ein neues Outfit für das Blog haben möchte. Das neue Theme ist ausgewählt und es ist bereits implementiert. Es werden noch Anpassungen und Schönheitskorrekturen kommen, bis alles ist, wie es soll.

Für eventuelle Beeinträchtigungen bitte ich vorab um Entschuldigung.

rel=”nofollow” muss weg – lieber noindex verwenden

Zugegeben, die Verwendung des rel=”nofollow” Attributes wird schon lange kontrovers diskutiert. Besonders bei Bloggern gibt es Befürworter und Gegner des rel=”nofollow” Attributes. Aber um diesen Zusammenhang geht es hier nicht. Sondern um den Einsatz dieses Attributes zur Gestaltung der Linkpopularität bei Suchmaschinen.

Was bedeutet rel=”nofollow” eigentlich?

Das Attribut wurde bereits 2005 von Google eingeführt und ermöglichte es, Hyperlinks mit diesem Attribut auszustatten. Hyperlinks welche mit rel=”nofollow” ausgezeichnet wurden, werden von Suchmaschinen nicht weiter verfolgt und bei der Berechnung der Linkpopularität nicht berücksichtigt.

Beispiel normaler Hyperlink im Quelltext:

<a href=”http://www.beispielseite.de/”>Beispielseite</a>

Dieser Link der auf die Seite www.beispielseite.de zeigt, würde vom Google Crawler verfolgt werden, wenn er die Seite besucht, auf der dieser Link zu finden ist.

Beispiel Hyperlink mit rel=”nofollow” im Quelltext:

<a href=”http://www.beispielseite.de/” rel=”nofollow”>Beispielseite</a>

Kommt der Google Crawler auf die Seite mit diesem Link erkennt er den Link, verfolgt ihn aber nicht. Der so maskierte Link wird nicht zur Berechnung der Linkpopularität herangezogen.

Warum setzt man rel=”nofollow” ein?

Neben der Mögllichkeit Spam zu maskieren ergeben sich durch den Einsatz des Attributes die Möglichkeiten, die Linkpopularität zu lenken. So kann man beispielsweise Seiten die nicht im Index stehen müssen maskieren und den Suchmaschinen sagen: “Bitte diese Seite nicht berücksichtigen”. Seiten wie Kontakt, Impressum oder interne Seiten wie warenkorb.php, bezahlen.php usw. können so vor dem Index bewahrt werden. Das Resultat ist oftmals eine Verbesserung des Seitenpageranks. Aus diesem Grunde wurde das Attribut vor allem von Suchmaschinenoptimierern gerne verwendet.

Google berücksichtigt rel=”nofollow” nicht mehr

Obwohl Google das Attribut selbst einführte, berücksichtigt Google das Attribut nicht mehr. Das bedeutet, alle mit rel=”nofollow” maskierten Links werden genau wie alle anderen Links ausgewertet.

Alternative Metatag

Wenn bestimmte Seiten aus dem Index herausgehalten werden sollen, empfiehlt es sich, die Seite selber mit dem Metatag “robots” vor der Indexierung zu bewahren

Beispiel Metatag mit noindex

<meta name=”robots” content=”noindex” />

Durch diese Metatagauszeichnung wird die ganze Seite nicht indexiert. Daher ist es nicht zwingend notwendig bei allen Links auf diese Seite etwas machen zu müssen. Bei extremen Pagerankmodellierungen ist das eventuell notwendig, aber dazu sind dann andere Linkmaskierungen erforderlich über die ich jetzt nicht näher eingehen möchte.

Fazit:

rel=”nofollow” ist Vergangeheit, lieber <meta name=”robots” content=”noindex” /> verwenden.

Hier gibt es Backlinks

Backlinks gesucht? Heute habe ich einen wunderbaren Tipp für Sie:

Das Lesezeichen- und Artikelverzeichnis Public Bookmark ermöglicht es, sich nach Registrierung die eigenen Bookmarks zu speichern. Dies nicht nur für die Hauptseite Ihrer Webseite, wie es oft der Fall ist, sondern auch für Ihre Unterseiten. Dadurch können Sie insbesondere Ihren tiefen Seiten einen Backlink bescheren.

Das ganze Verzeichnis ist dofollow – jeder Link wird weitergegeben. Unerwünscht sind Erotiklinks und Links die gegen geltendes Recht verstossen.

Link zu Ihren neuen Backlinks:

www.public-bookmark.com

Weg mit dem “keywords” Meta-Tag – Google unterstützt ihn nicht (mehr)

Auf dem Webmasterblog von Google steht klar zu lesen, dass Google den “keywords” Meta-Tag nicht (mehr) für das Ranking von Suchergebnissen berücksichtigt.

Zitat:

Frage: “Verwendet Google jemals das “keywords”-Meta-Tag beim Ranking der Suchergebnisse?”

Antwort: “In einem Wort: Nein”

Also, alle Webmaster, Webdesigner, Hobbybastler, SEOs und Hobbyseos – jetzt herrscht Klarheit. Da das Meta-Tag von SEOs inflationär missbraucht wurde um die Suchergebnisse zu beeinflussen, hat Google die einzig richtige Konsequenz gezogen und verbannt es aus den Rankingkriterien.

Viele haben das schon lange gesagt, geglaubt hat es kaum jemand. Fast alle neue Seiten sind voll mit Keywords. Wer sich überzeugen möchte, dem empfehle ich den nachfolgenden, kurzen Film dazu:

Die sichersten Rankingbremsen vermeiden

Nachdem ich im vorangegangenen Artikel die wichtigen Faktoren für ein positives Ranking aufgeführt habe, kommen wir hier nun zum Gegenteil. Mögen die Punkte als Warnung dienen und alle, die diese oder ähnliche Methoden angewendet haben, wieder auf den Pfad der Tugend zurückführen.

Aktuelle, negative Rankingfaktoren und die Auswirkung auf die Platzierung in Suchmaschinen

Cloaking mit bösartigem Inhalt

Unter Cloaking versteht man, den Suchmaschinencrawlern andere Inhalte zu zeigen als dem Benutzer. Das alleine sorgt bei allen gängigen Suchmaschinen für harte Abstrafen. Durch Cloaking wird eine optimierte Seite dem Crawler vorgeführt und dem Anwender andere Inhalte. Wenn diese Inhalte jetzt noch bösartiger Natur sind, Malware, Trojaner etc. dann ist das nahezu die Garantie für den Abschuss nach ganz hinten.

Linkkauf von bekannten Linkverkäufern

Google hat oft genug vor Linkkäufen gewarnt. Wer seine Backlinks mit gekauften Links erhöhen will, muss damit rechnen, im Ranking abgestraft zu werden. Google ist, laut eigenen Angaben, in der Lage, die meisten professionellen Linkverkäufer zu identifizieren. Damit können Linkkäufer ebenso identifiziert und deren Seiten nach hinten durchgereicht werden. Also besser einen Backlinkaufbau ohne gekaufte Links betreiben.

Links von der eigenen Seite auf Spamseiten

Wird von der eigenen Seite auf bekannte Spamseiten verlinkt, so sinken die Platzierungen so schnell wie eine Bleiente im Teich. Google akzeptiert keine Spamlinks, da dies dem Bestreben nach nutzvollen Suchergebnissen für Googleanwender widerspricht. Besonders problematisch ist dieser Punkt, wenn auf der Webseite Spamlinks untergebracht sind von denen der Seitenbetreiber nichts weiss. Das kann durch Sicherheitslücken auf dem Webserver oder durch andere Manipulationen von Spammern tatsächlich passieren. Wenn das eigenen Ranking einbricht, sollte man unter anderem den Quellcode aller Seiten prüfen, ob sich dort Spamlinks eingeschlichen haben, diese entfernen und anschliessend Google mitteilen, das kein Spam mehr auf der Seite ist. Meistens verbessern sich dann die Platzierungen wieder.

Server bzw. Seite nicht erreichbar

Wenn der Server, bzw. die Domäne nicht gut erreichbar ist, dann wird Google das, ebenso bei nicht erreichbaren, intern verlinkten Seiten, mit Abschlägen im Index belegen. Google möchte, dass seine Anwender die Ergebnisse nutzen können und Seiten die nicht gut erreichbar sind, werden daher nicht gewünscht und nach hinten durchgereicht. Es lohnt sich also seinen Server bzw. seine Seiten zu prüfen ob sie schnell verfügbar sind. Wenn nicht den Hostinganbieter wechseln. Lieber einen Umzug in Kauf nehmen als durch technische Probleme bedingte schlechte Platzierungen.

Backlinks, Keywords, Verlinkung – was ist wichtig für das Ranking?

Backlinks, Keywords, Verlinkung – was ist denn nun wirklich wichtig um bessere Rankings in den Suchmaschinen zu erzielen?

Die Betreiber der bekannten Webseite SEOmoz haben eine Umfrage zu diesem Thema gestartet. Dabei haben 70 der weltbesten SEOs Ihre Einschätzung zu verschiedenen Rankingfaktoren und deren Wichtigkeit abgegeben. Nachfolgend eine Zusammenfassung der wichtigsten Punkte.

Aktuelle, positive Rankingfaktoren und die Auswirkung auf die Platzierung in Suchmaschinen

Keyword im Title Tag

Das Keyword im Title Tag ist mach wie vor eines der wichtigsten, wenn nicht sogar die wichtigste Maßnahme um gute Platzierungen in den Suchergebnislisten erreichen zu können. Christine Churchill sagte: “Wenn Du nur für eine einzige Maßnahme Zeit hast, dann nutze die Zeit um gute Seitentitel zu formulieren.”

Linktext bei eingehenden Links

Einen Backlink auf die eigene Seite zu bekommen ist eine gute Sache. Aber richtig wertvoll wird er nur dann, wenn der Linktext aus mehr als dem Domänennamen oder dem Wort “Webseite” besteht. Das Hauptkeyword im Linktext macht einen Backlink erst richtig wertvoll.

Linkpopularität der eigenen Seite

Die Popularität der eigenen Seite, gemessen an der Zahl und der Qualität der Backlinks, haben große Auswirkungen auf die Platzierungen in den Suchergebnislisten. Webseiten mit vielen Backlinks aus unterschiedlichen Quellen, mit guten Linktexten haben klare Platzierungsvorteile.

Das Alter der Webseite

Hierbei ist nicht das Datum der Domänenregistrierung gemeint, sondern das Datum an dem die Seite das erste Mal mit relevantem Content im Suchmaschinenindex aufgetaucht ist. Um Spam zu verhindern und die Qualität der Suchergebnisse hoch zu halten, ist das Alter ein gewichtiges Kriterium. Webseiten, die lange mit relevantem Inhalt im Googleindex stehen, werden besser platziert als neue Seiten.

Im zweiten Teil der Zusammenfassung wird die Topliste der schlimmsten Fehler zusammengefasst.

PageRank Update – was passiert da?

Aus aktuellem Anlass, Google hat gerade ein PageRank Update durchgeführt, möchte ich kurz erläutern, was es damit auf sich hat.

Der PageRank (Hier steht die Erläuterung was der Pagerank ist) wird von Google pausenlos ermittelt. Er dient unter anderem als Grundlage der Reihenfolge in den Suchergebnisseiten. Google publiziert den PageRank in regelmässigen Abständen, meist 3 Monate, nach außen. Mit entsprechenden Werkzeugen kann man sich den PageRank anzeigen lassen oder auf Webseiten mit der Möglichkeit dazu, abfragen.

Hier kann man den PageRank abfragen:

PageRank Abfrage mit der SISTRIX Toolbox

Interessant ist ein PageRank Update immer, da man verfolgen kann, welche Gewichtung bestimmte Seiten im Google Index haben. Auch bei eigenen Seiten ist es spannend zu sehen, ob die Wichtigkeit zugenommen hat oder nicht. (Auf die Suchergebnisslisten hat das nicht unbedingt Einfluss.)

Bei diesem PageRank Update gab es echte Verlierer, beispielsweise: zdf.de, ard.de, sueddeutsche.de, fallen von PageRank 8 auf PR7 ab.

Am besten ist es, nach einem PageRank Update einige Zeit zu warten oder einfach ein paar Mal seine Seiten zu prüfen. Da Google seine Informationen in unterschiedlichen Rechenzentren speichert (DataCenter), kann es sein, dass es ein wenig dauert bis der aktuelle PageRank überall angekommen ist. Auch sind die Tools oft überlastet, wenn ein Update stattgefunden hat.

Bemerkenswert bei diesem PageRank Update war, dass Google bereits nach zwei Monaten das Update gemacht hat, statt nach den üblichen drei Monaten. Warten wir ab, was kommt. Es bleibt, wie immer, spannend im Googleuniversum.

WolframAlpha – Nicht suchen, sondern finden.

Seit dem heutigen Montag ist Wolfram Alpha der Testphase entwachsen und online. Viel wurde im Vorfeld darüber geschrieben und spekuliert. Am häufigsten wurde WolframAlpha als Googlekiller bezeichnet. Diese Aussage ist nicht haltbar. Die grundlegenden Ansätze sind zu verschieden. Während Google nach Eingabe eines Suchbegriffs eine Vielzahl an Seiten aus dem World Wide Web auflistet, bietet WolframAlpha genau eine Antwort.

Hier klicken um WolframAlpha zu testen

Bitte beachten: WolframAlpha ist derzeit nur in englischer Sprache sinnvoll zu nutzen.

Beispiele für die Funktionsweise von WolframAlpha:

Hier einige Beispiele, die mit WolframAlpha sehr gute Ergebnisse erzielen:

Mathematische Formeln lösen und darstellen mit WolframAlpha. Da hinter WolframAlpha der Erfinder des Programmes Mathematica steht, ist es nicht verwunderlich, dass Mathematik ausgesprochen gut mit WolframAlpha unterstützt wird.

Aktuelle und historische Wetterdaten sowie meteorologische Erklärungen. Eine Füllgrube an statistischen Informationen für alle Meteorologen. Durch die ausgefeilten Algorithmen lässt sich beispielsweise das Wetter am Tag des Attentats auf John F. Kennedy ermitteln. Einfach mal versuchen …

Aktuelle und historische Börsendaten für ein Unternehmen oder im Vergleich. WolframAlpha greift auf eine rieseige Datenbasis zurück und ist eine Füllgrube für Wirtschaftswissenschaftler, welche Marktbewegungen in verschiedenen Aspekten beleuchten wollen.

Informationen zum Web und über den Computer. Spannende Informationen liefert WolframAlpha wenn man Domänennamen oder IP Adressen eingibt. Auch Vergleiche zwischen Domänen sind möglich.

Weitere Beispiele kann man sich auf der ausführlichen Beispielseite von WolframAlpha ansehen.

Wie funktioniert Wolfram Alpha?

Im Vergleich zu Google durchsucht Wolfram Alpha nicht das Internet sondern erhält seine Datenbasis von den Mitarbeitern. Derzeit läuft Wolfram Alpha auf ca. 10000 Servern und hät eine riesige Fülle an Informationen bereit, die zur Auswertung verwendet werden können. Aus diesen Daten berechnet Wolfram Alpha die Antwort um Fragen zu beantworten. Nach Angaben von Stephen Wolfram wurden bisher ca. 20 Milliarden Datenpunkte in das System eingepflegt um Fragen zu beantworten.

Die Frage nach dem Sinn des Lebens kann Wolfram Alpha damit sicher nicht beantworten. Aber alles was sich in Graphen ausdrücken lässt soll durch Wolfram Alpha beantwortet werden können.

Derzeit arbeiten etwa 200 Personen an Wolfram Alpha. Alle diese Mitarbeiter sind Spezialisten aus den entsprechenden Fachgebieten. Diese sichten Daten und pflegen diese in das System ein. Echtzeitdaten werden von Datenquellen eingepflegt, wie beispielsweise Börsenkurse, Wetterdaten oder Erdbebenwerte.

Fazit:

WolframAlpha ist eine sehr spannende Entwicklung. Durch den statistischen und mathematischen Hintergrund eignet sich WolframAlpha eher zur wissenschaftlichen Recherche als zur Informationsbeschaffung. Es lohnt sich sicher, das Werkzeug zu testen und im Auge zu behalten. Wenn man sich an die Arbeitsweise gewöhnt hat, wird es von Tag zu Tag nützlicher. Ich jedenfalls bin sehr froh, dass es WolframAlpha gibt. Endlich etwas wirklich neues.

Linkkauf um Backlinks zu bekommen?

Webmaster fragen sich oft: “Wo kriege ich neue Backlinks her?”. Es hat sich herumgesprochen, dass Backlinks dem Ranking der eigenen Seite gut bekommen. Viele beginnen dann mit wilden Eintragsorgien in allen möglichen Webkatalogen, Artikelverzeichnissen und so weiter. Aber auch diese Möglichkeiten sind irgendwann erschöpft, das Ranking immer noch nicht befriedigend. Was tun?

Links kaufen um das Ranking zu verbessern?

Das ist die entscheidende Frage. Die Antwort darauf ist ganz einfach:

Linkkauf um Backlinks zu bekommen? weiterlesen

Backlinks – woher kriege ich Backlinks?

Backlinks sind ein wichtiges Thema in der Suchmaschinenotimierung. Google bemisst die “Wertigkeit” einer Seite und damit auch die Position in den Suchergebnissen an vielen Faktoren. Einer davon sind die sogenannten Backlinks.

Was nützen Backlinks

Googles Crawler durchsuchen das Internet und finden irgendwann Ihre Seite. Die Seite hat ein bestimmtes Thema, beispielsweise “Backlinkaufbau”. Im Internet gibt es noch viele Seiten zum Thema “Backlinkaufbau” und Google versucht, die Seite mit der größten Relevanz ausfindig zu machen. Dadurch werden in den Suchergebnissen nur die besten Seiten auf den vorderen Plätzen angezeigt.

Wie kann Google feststellen, welche Seite die größte Relevanz besitzt?

Neben vielen anderen Dingen sind das eben diese Backlinks. Google geht davon aus, das bei vielen Links auf eine Seite diese für viele Menschen wichtig ist, sonst würde nicht darauf verlinkt werden. Also sind viele Links auf Ihre Seite ein Indiz, daß die Seite, beispielsweise zum Thema “Backlinkaufbau” wichtig ist. Also wird diese Seite mit vielen Links wichtiger eingestuft als eine Seite mit weniger Links. Kurz gesagt: Backlinks verbessern Ihre Position in den Suchergebissen.

Woher kriege ich Backlinks?

Viele Backlinks bekommen Sie, wenn entsprechend gute Inhalte auf Ihrer Seite zu finden sind. Gibt es etwas lohnendes, verlinken Webmaster von alleine.

Weiterhin kann man die Seite in Verzeichnisse eintragen. (Mal nach Linkverzeichnis, Webverzeichnis, Branchenverzeichnis) etc. suchen. Dabei sollte man drauf achten, dass das Verzeichnis mindestens einen Pagerank von 2 oder höher hat. (Wertigkeit von Links ist dabei Thema)

Berichten Sie. Suchen Sie sich relevante Plattformen (Zeitungen, Blogs, Infoportale) und bieten Sie gute und relevante Informationen an. Die Veröffentlichung wird in aller Regel mit einem Link “belohnt”

Suchen Sie zu Ihrem Thema passende Foren und Blogs und schreiben Sie sinnvolle Beiträge, die zu Ihrem Thema passen. Auch hierbei werden oft Backlinks “spendiert”.

Beauftragen Sie eine vertrauenswürdige Agentur mit dem Linkaufbau. Es gibt viele schwarze Schafe in der Branche der Suchmaschinenoptimierer (wie bei fast allen Branchen) und man muss sich die Mühe machen eine seriöse Agentur zu finden. (Größe und plakative Werbung sind nicht immer ein Indiz). Das kostet natürlich Geld aber Sie bekommen eine gute, wirkungsvolle Backlinkstruktur die Ihr Ranking positiv veeinflusst.