Suchmaschinenoptimierung
Suchmaschinenoptimierung (engl.: „Search Engine Optimization“, oder kurz „SEO“) beschreibt eine Optimierung der Website, um die Platzierung in der Auflistung einer Suchmaschine unter bestimmten Stichwörtern zu verbessern.
De Facto ist heutzutage eine Optimierung nur noch in ganz minimalem Umfang durch spezielle HTML-Techniken, wie z. B. Metadaten möglich. Schon allein deswegen sollte man Webseiten nicht für Suchmaschinen schreiben. Suchmaschinen kommen auch so immer wieder vorbei.
Achtung!
Wenn sie Ihren Webauftritt für Menschen gestalten, und sich Menschen dafür interessieren, von sich aus wiederkommen und freiwillig Propaganda (=Links =Ranking) machen, dann werden die Suchmaschinen das im Laufe der Zeit ganz automatisch anerkennen und Ihre Seite entsprechend besser ranken.
--Matthias Scharwies (Diskussion) 06:08, 11. Mär. 2024 (CET)Inhaltsverzeichnis
- 1 Arten und Funktionsweise von Suchmaschinen
- 2 Optimieren eines Webangebots
- 3 Siehe auch
- 4 Weblinks
Arten und Funktionsweise von Suchmaschinen
Unter dem landläufigen Begriff „Suchmaschine“ werden Webangebote verstanden, die dem User helfen sollen, in den „unendlichen Weiten“ des Netzes das zu finden, was er eigentlich sucht.
Dabei ist grundsätzlich zwischen folgenden Arten zu unterscheiden:
- Unter Webverzeichnissen versteht man Datenbanken, in denen Webseiten nach bestimmten Kriterien sortiert sind. Eine Webseite wird in den Katalog aufgenommen, nachdem sie ein Mitarbeiter der Suchmaschine besucht hat. Dazu ist es im allgemeinen nötig, dass der Webseitenbetreiber seine Seite dort anmeldet. Solche manuell betriebenen Angebote spielen heute jedoch keine ernstzunehmende Rolle mehr. Das Internet ist längst viel zu groß, und die vorhandenen Daten ändern sich zu schnell, als dass es noch händisch erfasst werden könnte.
- Heute wird dies automatisiert von sogenannten „Robots“ oder „Spider“ durchgeführt. Ein Robot durchstreift eine Webseite, liest den darin enthaltenen Inhalt ein, und kategorisiert sie anhand der darin enthaltenen Texte. Außerdem sucht er nach weiterführenden Hyperlinks (siehe HTML/Elemente/a und HTML/Elemente/link), und folgt ihnen, um dort seine Arbeit fortzuführen.
Ein Robot liest (fast) ausschließlich den HTML-Code eines Webangebots ein. Dieser Vorgang nennt sich „crawlen“ (to crawl = krabbeln/kriechen). Bilder, Java, Flash, (größtenteils) CSS, usw. werden ignoriert.
Wie funktionieren Robots?
Ein Robot muss den eingelesenen Text in irgendeiner Weise auswerten, um daraus später die bestmöglichen Suchergebnisse zu generieren. Dabei kommen im wesentlichen folgende Methoden zur Anwendung:
Einordnung
Stellen Sie sich vor, Sie geben „Rom“ als Suchkriterium bei einer Suchmaschine ein. Wenn Sie das noch um andere Begriffe ergänzen, helfen Sie der Suchmaschine, zu entscheiden, ob Sie Urlaubsangaben in der Stadt am Tiber wünschen, sich für das antike Rom interessieren, etwas über CD-ROMs wissen wollen, oder „Read-Only-Memory“ meinen. Diese Art von Einordnung muss die Suchmaschine an zwei Enden der Suche treffen: Was wird gesucht, und welche Webseiten passen dazu? In Bezug auf den Nutzer gibt es gelegentlich Spekulationen, inwieweit eine Suchmaschine personenbezogene Daten speichert (das Internet ist kein so anonymer Ort, wie manche denken). Wenn Sie nach „Videos“ suchen, und es erscheinen keine Treffer zu Videobearbeitung, sondern nur zu Schmuddelfilmchen, könnte das zu denken geben...
In diesem Artikel soll es aber um das andere Ende der Suche gehen: Wie entscheidet die Suchmaschine, wovon ein Dokument handelt? Dazu werden folgende Kriterien genutzt:
- Externe Links: Wie hat der Robot die angegebenen externen Links kategorisiert, und wie diejenigen Links, die von Extern auf dieses Dokument verlinken?
- Wortdichte: Welche Worte werden besonders häufig benutzt, besonders am Textanfang?
- Sprache, Rechtschreibung: In welcher Sprache ist das Dokument geschrieben? Kann man Rückschlüsse aufgrund von Rechtschreibfehlern auf die inhaltliche Qualität ziehen?
- Hervorhebungen: Sind bestimmte Wörter oder Sätze hervorgehoben? Dabei zählt vor allen das
title
-Element, Überschriften, semantische Hervorhebungen wieem
,strong
und bei einigen Suchmaschinen auchb
oderi
. - Meta-Angaben: Enthält das Dokument sinnvolle Meta-Angaben, die auch zum sonstigen Inhalt passen?
Ranking
Schließlich beurteilt der Robot die Relevanz einer Seite. Wer nach einem bestimmten Begriff sucht, will diejenigen Seiten an erster Stelle aufgelistet haben, die den am „besten“ passenden Inhalt aufweisen. Bestimmt gibt es viele Reisebeschreibungen der Stadt Rom, aber während sich manche nur über die Qualität des Hotelessens auslassen, gibt es andere, die präzise die Sehenswürdigkeiten der Stadt beschreiben. Je nach Qualität der Seite vergibt die Suchmaschine ein sogenanntes Ranking. Hierzu werden je nach Suchmaschine etwas andere Verfahren eingesetzt, die aber alle ungefähr wie folgt funktionieren:
Das Ranking orientiert sich in erster Linie danach, wieviele andere, externe(!) Seiten auf die zu beurteilende Seite verlinken. Denn wäre eine Seite nicht gut, würden nicht so viele andere Webautoren darauf Bezug nehmen. Je mehr andere Webangebote auf eine Seite verlinken, desto höher das Ranking. Haben die verweisenden Seiten selbst schon ein hohes Ranking, steigt das Ranking der eigenen Seite um so eher. Enthält das verweisene Webangebot mehrere Verweise auf verschiedene externe Seiten, wird das „Mehr“ an Rankingergebnis zwischen den Seiten, auf die verwiesen wird, aufgeteilt.
Auch die unter Einordnung genannten Kriterien fließen mit in das Ranking ein, und noch weitere Kriterien. Zum Beispiel wird eine Seite um so besser bewertet, je länger sie unverändert online ist. All diese Punkte sind aber eher von untergeordneter Bedeutung.
Bei Google nennt sich dieses Verfahren übrigens „Pagerank“ – nach seinem Erfinder und Google-Mitgründer Larry Page. Google vergibt an jede indexierte Seite einen Pagerank zwischen 0 und 10. Eine Seite mit einem Pagerank von 0 ist im Grunde noch niemandem bekannt. Sobald sich die Existenz der Seite erst einmal etwas herumspricht, fängt der Pagerank zu steigen an. Von Stufe zu Stufe wird eine Steigerung dann schwieriger – und zwar exponentiell. Weltweit lassen sich die Seiten mit einem Pagerank von 10 ungefähr an zwei Händen abzählen.
Optimieren eines Webangebots
Ein jeder Webseitenbetreiber glaubt natürlich, seine Seite sei die Beste, die es zu einem bestimmten Thema gibt, also müsse sie auch im Ranking ganz oben stehen. Wie sich aber aus den oben beschriebenen Funktionsweisen eines Robots ergibt, sind die Einflussmöglichkeiten des Seitenbetreibers auf das Ranking eher begrenzt. Und das ist auch gut so. Die Suchmaschinenbetreiber haben ein Interesse daran, Ihre Kunden, sprich; diejenigen, die im Netz etwas suchen, optimal zu bedienen. Und da zählt eben die Qualität der Seiteninhalte. Wenn sie die folgenden Punkte berücksichtigen, können Sie aber das Ranking zumindest ein klein wenig zu Ihren Gunsten beeinflussen.
Content is King!
Achten Sie auf gute und relevante Inhalte. Das fängt mit Rechtschreibung und Grammatik an.
Menschen merken schnell, ob der Text von einem Liebhaber geschrieben oder schnell von der KI ausgeworfen wurde.
Viel HTML, wenig andere Techniken
Valides HTML macht es einem Robot leichter, ein Webdokument zu erfassen. Prüfen Sie dazu Ihre Dokumente auf Validität. Dazu gibt es verschiedene Validatoren.
Verwenden Sie für alles, was inhaltlich irgendwie relevant ist, ausschließlich HTML. Vermeiden Sie, wo möglich, Scriptsprachen oder andere Techniken für Inhalte. Diese Dinge werden von Suchmaschinen schlicht ignoriert.
Selbst mit manchen CSS-Einstellungen sollte man vorsichtig umgehen: Zum Beispiel drücken die in den letzten Jahren modern gewordenen „Tag-Clouds“ üblicherweise durch verschiedene Textgrößen, Farben und/oder zentraler Anordnung der Links aus, welche Links besonders wichtig sind. Diese Effekte werden per CSS erreicht, aber im Quelltext ist die Anordnung der Links eine andere. Das können Robots nicht beurteilen. Für Suchmaschinen ist derjenige Link wichtiger, der im Quelltext zuerst genannt wird.
Oft sagt ein Bild mehr als 1000 Worte. Zumindest einem Menschen – ein Robot kann mit einem Bild nichts anfangen. Sofern Sie Bilder einsetzen, versehen Sie sie mit aussagekräftigen und treffenden alt
-Attributen. Und da, wo Sie Bilder einsetzen, die einfach nur Text enthalten, sollten Sie erwägen, ob nicht auch Text, vielleicht nett formatiert, eingesetzt werden kann. Wo immer Sie externe Ressourcen einbinden (sehr pauschal: an href
- oder src
-Attributen erkennbar), können Sie auch über aussagekräftige title
-Attribute nachdenken.
Hervorhebungen
Geben Sie Ihren Webdokumenten möglichst „sprechende“ Namen. Schon der Name hilft Suchmaschinen, die Seite einzuordnen. Deswegen sind auch Query Strings kritisch zu sehen: Mit example.com/index.html?p=105
kann man naturgemäß weniger anfangen als mit example.com/index.html?p=informationen
. Noch besser wäre example.com/informationen.html
, weil man sich nicht darauf verlassen sollte, dass alle Robots mit Query Strings zurechtkommen.
Formulieren Sie den gesamten Text so, dass die wichtigsten Begriffe zu Beginn des Textes, idealerweise auch in Überschriften, vorkommen. Je weiter hinten im Fließtext bestimmte Begriffe verwendet werden, als desto unbedeutender werden sie von Robots eingeordnet. Die wichtigsten Begriffe sollten mit em oder strong (weniger gut: b
oder i
) hervorgehoben werden. Auch ansonsten sollten HTML-Elemente für das verwendet werden, wofür sie da sind.
Angaben im Kopfbereich einer Seite
Wählen Sie einen guten, aussagekräftigen Text im title-Element. Dessen Inhalt ist allen Suchmaschinen ganz besonders wichtig.
Weit überbewertet werden dagegen Metatags. Mit Metatags wurde von vielen Webseitenbetreibern in der Vergangenheit oft so viel Unfug betrieben, dass sie heute kaum noch eine Bedeutung haben.
Metadaten zur Datenpflege
Wenn mehrere Personen an einem HTML-Projekt arbeiten, kann es sinnvoll werden, Metadaten einzufügen, die den am Projekt beteiligten Personen weitere Informationen zum aktuellen Dokument zur Verfügung stellen.
Durch diese Angabe wird der Autor des Dokuments ausgewiesen. Des Weiteren wird in einer standardisierten Form ein Datum angegeben.
Falls die Autorenangabe auch dem Leser des Webdokuments zur Verfügung stehen soll, ist das link-Element die bessere Wahl. Da ein menschlicher Leser üblicherweise nicht den Quellcode einer Seite betrachtet, wird er diese Angabe sonst nicht finden. Vielen Lesern dürfte nicht einmal bewusst sein, dass es so etwas wie „Quellcode“ überhaupt gibt bzw. wie man ihn aufruft. Diese Form von Metadaten ergeben also nur dann einen Sinn, wenn sich diejenigen, die sie benötigen, auf einen einheitlichen Standard geeinigt haben. Idealerweise nutzen sie dann auch Software, die mit diesen Angaben umgehen kann. Dann kann ein solches Vorgehen sehr hilfreich sein.
Metadaten für Suchmaschinen
Es ist möglich, Metaangaben zu machen, die Suchmaschinen bei ihrer Arbeit unterstützen sollen.
Genau wie bei Metadaten zur Datenpflege gilt auch bei Metadaten für Suchmaschinen: Solche Angaben ergeben nur dann einen Sinn, wenn sich beide Seiten auf einen einheitlichen Standard einigen. Der Zusammenhang „Suchmaschine“ und „unterstützen“ wirkt aber offensichtlich auf die Fantasie zahlreicher Menschen unglaublich anregend. Immer wieder finden sich zum Teil abenteuerliche Metatags, die das Suchmaschinenranking verbessern oder die Suchmaschinen in sonst einer Weise beeinflussen sollen.
Im folgenden werden Metatags beschrieben, die im allgemeinen von den gängigen Suchmaschinen verstanden und genutzt werden. Das schließt nicht aus, dass es einzelne Suchmaschinen gibt, die auch noch das ein oder andere sonstige Metatag akzeptieren.
Verwenden Sie für Metadaten HTML-Attribute mit itemprop-Mikrodaten, die Elemente mit Begrifflichkeiten nach schema.org auszeichnen.
Beschreibung
Mit der Angabe description
können Sie eine Kurzbeschreibung des Seiteninhalts angeben.
Aufgrund der oben erwähnten missbräuchlichen und inflationären Verwendung wird diese Angabe für Suchmaschinen weitgehend ignoriert.
Allerdings nutzt beispielsweise Google die Kurzbeschreibung als eine Quelle (vgl. Search Console-Hilfe: Seitentitel und Snippets überprüfen), um die Beschreibung in den Suchergebnissen herzustellen. Es ist also sinnvoll, diese Meta-Angabe in der Startseite zu notieren und dabei redaktionell genauso sorgfältig zu sein wie bei dem Text, der im Browser-Fenster angezeigt wird. Fassen Sie den Inhalt dabei so knapp wie möglich zusammen. Der Text sollte nicht mehr als ca. 250 Zeichen beinhalten; längere Texte werden von den Suchmaschinen gekürzt.
Stichwörter
Mit keywords
bestimmen Sie Stichwörter für ein Suchprogramm. Ein Anwender, der in der Suchdatenbank des Suchprogramms nach einem dieser Stichwörter sucht, soll die aktuelle HTML-Datei bevorzugt als Suchtreffer angezeigt bekommen, da das Stichwort in dieser Datei ein zentrales Thema ist (keywords = Schlüsselwörter). Trennen Sie die einzelnen Schlüsselwörter durch Kommata. Ein Schlüsselwort kann durchaus aus zwei oder mehreren Einzelwörtern bestehen. Halbe oder ganze Sätze gehören hier allerdings nicht hin, denn dafür gibt es den Beschreibungstext, den Sie bei name="description"
notieren können. Umgekehrt ist es sinnvoll, zusammengesetzte Wörter in den keywords
zu zerlegen.
Mehrsprachige Angaben
Sie können mehrere gleichartige Meta-Angaben notieren und dabei zwischen verschiedenen Sprachen trennen. Insbesondere Stichwörter und Kurzbeschreibungen des Inhalts können Sie mehrsprachig angeben.
Im Beispiel werden die gleichen Stichwörter in den Sprachen Deutsch, US-Englisch, Britisch-Englisch und Französisch definiert. Dabei wird das Attribut lang
benutzt, um die Sprache anzugeben. Als Angabe ist ein Sprachkürzel erlaubt, z. B. de für deutsch, en für englisch, fr für französisch, it für italienisch oder es für spanisch.
Um Nicht-Auslesen bitten
Wenn Sie eine HTML-Datei zwar im Web anbieten, aber trotzdem verhindern möchten, dass die Datei über öffentliche Suchdienste auffindbar sein soll, können Sie eine entsprechende Anweisung als Meta-Information für Suchprogramme notieren.
Achtung!
Mit <meta name="robots" content="noindex">
bitten Sie ein Suchprogramm, Inhalte aus der HTML-Datei nicht an seine Suchdatenbank zu übermitteln (robots = Suchprogramme, noindex = keine Indizierung).
Mit <meta name="robots" content="nofollow">
bitten Sie ein Suchprogramm, Hyperlinks, die in diesem Dokument vorhanden sind, nicht zu folgen (nofollow = nicht folgen). Inhalte aus diesem Dokument darf es jedoch an seine Suchdatenbank übermitteln. Diese beiden Angaben können Sie auch so wie im obigen Beispiel kombinieren.
Leseempfehlung: Robots.txt
Profile und Schemata für frei definierbare Metadaten
Wie schon erwähnt, besteht über die hier genannten Metadaten hinaus ein unglaublicher Wildwuchs weiterer Angaben. Das W3-Konsortium beabsichtigte, Dritten die Möglichkeit einzuräumen, feste Profile für Metadaten zu erarbeiten, auf die sich dann ein HTML-Dokument beziehen kann. Allerdings hat sich das in der Praxis nicht durchgesetzt. Im Gegenteil: Versuche, die in diese Richtung gestartet wurden, führten nur zu noch mehr Wildwuchs.
Wenn Sie sich auf ein Profil fest definierter Metadaten beziehen wollen, können sie im head
-Element des Dokuments einen eindeutigen URI angeben, der anzeigt, wo das Profil zu finden ist. Sie können ein eigenes Profil erstellen, oder sich, wie das folgende Beispiel, auf ein bestehendes Profil beziehen. Das Beispiel bezieht sich auf die Dublin Core Metadata Initiative, die ein solches Profil erstellt hat.
head
-element obsolet.Andererseits verlangen Programme wie Google Scholar eine Einbindung zur besseren Indizierbarkeit wissenschaftlicher Veröffentlichungen.
<head profile="http://dublincore.org/documents/dcq-html/">
<title>Dublin Core</title>
<link rel="schema.DC" href="http://purl.org/dc/elements/1.1/" />
<link rel="schema.DCTERMS" href="http://purl.org/dc/terms/" />
<meta name="DC.publisher" content="Matthias Scharwies" />
<meta name="DC.subject" content="Dublin Core Metadaten-Elemente, Anwendungen" />
<meta name="DC.creator" content="Matthias Scharwies" />
<meta name="DCTERMS.rightsHolder" content="Selfhtml e.v." />
</head>
Im head
-Element des Dokuments wird die URI von Dublin Core angegeben, auf dessen Profil sich die Auszeichnung bezieht.
Die folgenden name-Attribute verwenden nun standardisierte, von Suchmaschinen und Bibliotheken auswertbare Begriffe nach Dublin Core.
<meta name="DC.format" scheme="DCTERMS.IMT" content="text/html" />
<meta name="DC.type" scheme="DCTERMS.DCMIType" content="Text" />
<meta name="DCTERMS.license" scheme="DCTERMS.URI" content="http://www.gnu.org/copyleft/fdl.html" />
<meta name="DCTERMS.modified" scheme="DCTERMS.W3CDTF" content="2016-10-10" />
Diese Meta-Elemente enthalten auch noch scheme
-Attribute, die anzeigen sollen, dass der Inhalt des content
-Attributs selbst einem bestimmten Schema folgt. scheme
ist also selbst wieder eine Metaangabe, und zwar in Bezug auf content
. Dazu muss scheme
selbst wieder im Profil beschrieben sein.
Über die unter Metatags beschriebenen Metaangaben hinaus gibt es noch weitere, die das Verhalten von Robots beeinflussen.
<meta name="robots" content="noindex"/>
Anstelle von robots
können Sie auch googlebot
verwenden, wenn die Angaben nur für Google gelten sollen.
Die meisten Robots verstehen folgende Angaben für content
:
noindex
verhindert, dass die Seite indiziert wird (also eigentlich das Gegenteil dessen, was Suchmaschinenoptimierung eigentlich will).nofollow
verhindert, dass eine Suchmaschine den im Dokument angegebenen Links folgt.noodp
verhindert, dass eine Suchmaschine die Beschreibung aus dem Open Directory Project anzeigt.nosnippet
verhindert, dass in den Suchergebnissen eine Beschreibung der Seite in Form eines Textauszugs (Snippet) erzeugt wird.noarchive
verhindert, dass bei den Suchergebnissen ein „im Cache“-Link angezeigt wird.unavailable_after: 25-May-2010 15:00:00 EST
entfernt eine Seite nach einem bestimmten Termin aus den Suchergebnissen (sinnvoll für temporäre Seiten). Das Datum wird dabei so wie hier gezeigt angegeben; Google verweist in seiner Beschreibung dazu auf RFC 850.
Sie können mehrere dieser Angaben zugleich mit Kommata getrennt nutzen. Natürlich sollte nicht nosnippet
und noodp
zugleich verwendet werden. All diese Angaben sind aber nichts als freundliche Bitten an die Suchmaschinen. Sie haben keinen Anspruch darauf, dass sich alle Robots daran halten.
Logische Beziehungen festlegen
Mit den folgenden Attributwerten für rel können die hypertextuellen Abhängigkeiten einer HTML-Datei dargestellt werden, etwa die vorherige und nächste Seite, die übergeordnete Seite usw. Suchdienste oder Software-Programme können dann beispielsweise ganze „Site-Maps“ Ihres Projekts erstellen, also grafische Darstellungen der Seitenstruktur.
Das folgende Beispiel zeigt ein Set solcher logischen Beziehungen:
<link rel="canonical" title="weiterleitung" href="../neue-seite.html">
Die HTML-Spezifikation führt folgende logischen Beziehungen auf:
-
alternate
: Bezug zu einer Datei mit dem gleichen Inhalt wie der aktuellen, jedoch in einer anderen Dokumentversion (alternate = alternatives, anderes [Dokument]) -
author
: Gibt einen Link zum Verfasser des aktuellen Dokuments oder Artikels -
help
: Bietet einen Link zur kontextsensitiven Hilfe. -
icon
: Importiert ein Symbol, um das aktuelle Dokument darzustellen. -
license
: Gibt an, dass der Hauptinhalt des aktuellen Dokuments von der Copyright-Lizenz abgedeckt ist, die durch das referenzierte Dokument beschrieben wird. -
next
: Gibt an, dass das aktuelle Dokument Teil einer Serie ist und dass das nächste Dokument in der Serie das referenzierte Dokument ist. -
prefetch
: Gibt an, dass die Zielressource präventiv zwischengespeichert werden soll. -
prev
: Gibt an, dass das aktuelle Dokument ein Teil einer Serie ist und dass das vorherige Dokument in der Serie das referenzierte Dokument ist. -
search
: Gibt einen Link zu einer Ressource, die verwendet werden kann, um durch das aktuelle Dokument und die damit verbundenen Seiten zu durchsuchen. -
stylesheet
: Importiert ein Stylesheet.
Es ist ausdrücklich erlaubt, weitere Werte zu definieren. Natürlich sollte man hier aber nicht seiner Fantasie freien Lauf lassen – schließlich müssen die Angaben ja von einer Software verstanden werden. Das trifft auf folgende Angaben zu:
kanonische Links
Gerade bei größeren Projekten gibt es immer wieder Webseiten, die unter mehreren URL erreicht werden. Beispielsweise sind sie neben ihrer durch das CMS erzeugten URL unter einem sprechenden Link erreichbar oder ein Shopsystem liefert dieselbe Seite unter mehreren URLs, etwa mit verschiedenen Parametern aus. Mithilfe eines kanonischen Links (kanonisch = der Regel entsprechend) können Sie den Suchmaschinen mitteilen, welches die richtige Seite ist.
Suchmaschinen, die kanonische Links unterstützen, werden in ihren Ergebnisseiten nur diejenige Seite aufführen, die Sie festgelegt haben. Geben Sie dazu in den Seiten, die nicht indiziert werden sollen, den Pfad zur Primärressource an. Google empfiehlt die Verwendung absoluter Pfade.[1]
<link rel="canonical" href="https://example.com/content.html">
In diesem Wiki liefern etwa die Seiten meta und HTML/Elemente/meta praktisch dieselben Inhalte, wobei meta eine Wiki-interne Weiterleitung darstellt. Im Kopf der Seite meta findet man deshalb <link rel="canonical" href="/wiki/HTML/Elemente/meta" />
.
Das Attribut wurde von Suchmaschinenbetreibern wie Google im Jahr 2009 eingeführt, um es ihren Bots und Webcrawlern zu erleichtern, die Primärressource sicher zu erkennen. Das W3C hat bereits in der Spezifikation von HTML 4.01 das rel-Attribut ausdrücklich für die Nutzung durch Suchmaschinen vorgesehen.[2] Deshalb ist auch der Wert „canonical“ durch das W3C nicht spezifiziert worden.
Webangebot bekanntmachen
Gehen Sie „Klinken putzen“: Schreiben Sie Betreiber anderer Webangebote an, die sich für Ihre Seiten interessieren könnten, und machen Sie sie auf Ihre Seiten aufmerksam. Wenn Sie Glück haben, werden Ihre Seiten dort verlinkt. Vergessen Sie aber nicht, dass Sie keinen Anspruch auf Verlinkung haben. Und möglicherweise bekommen Sie ja auch in anderer Art und Weise hilfreiches Feedback.
Hyperlinks können aber auch mit dem Attribut rel="nofollow"
versehen werden, mit dem Suchmaschinen gebeten werden, den Link nicht in die Berechnung des Rankings einzubeziehen:
Auf der
<a href="http://zweifelhafte-seite.example.com/" rel="nofollow">tollen Seite</a>
finden Sie weitere Infos zum Thema - oder auch nicht.
Wenn ein externer Webmaster Sie so verlinkt, haben Sie in Bezug auf das Ranking erst mal noch nichts gewonnen (obwohl Sie so noch immer mehr Besucher auf Ihre Seite bekommen dürften). Dieses Attribut wird von Forensoftware häufig automatisch angefügt – es wird sie also kaum weiterbringen, wenn Sie etliche Foren aufsuchen und dort überall Links zu Ihrem Webangebot eintragen. Außerdem wird so ein Verhalten oft als Spam aufgefasst. So könnten Sie also leicht Ihren Ruf runinieren.
Siehe auch
Weblinks
- ↑ support.google.com: Kanonische URLs verwenden
- ↑ W3C: HTML 4.01 12.3.3