HTML/Tutorials/Links/Hypertext

Aus SELFHTML-Wiki
< HTML‎ | Tutorials‎ | Links
Wechseln zu: Navigation, Suche

Hypertext bedeutet in etwa so viel wie Übertext. Gemeint ist jedoch das Hypermedium als das den konkreten Text und seine Medien übergreifende Medium. Hypertext bleibt dabei ein abstraktes Konzept, da es keine konkrete Summe aller involvierten Texte in Hypertext geben kann.

Hinweis:
Bei diesem Text handelt es sich um eine eher philosophische Annäherung an das Thema. Er ist für das Verständnis der folgenden Kapitel nicht unbedingt notwendig und kann daher auch übersprungen werden.
Eine vollständige Version des Originals von Stefan Münz kann hier eingesehen werden:

Hypertext - ein uraltes Bedürfnis

Seit der Mensch seine Gedanken auf Medien schrieb, trug er in sich das Bedürfnis nach Ordnung und Struktur. Als das Geschriebene umfassend und an Orten gesammelt wurde, hatte er das Bedürfnis nach einer Überschrift, oder damals noch Unterschrift, dem Kolophon[1], sowie einer Zusammenfassung. Frühe Bücher trugen eine Zusammenfassung auf dem Buchdeckel.

Als die Werke umfassender wurden, kam das Bedürfnis dazu, die Seiten zu zählen und auf bestimmte andere Seiten zu verweisen. Spätere Redaktoren schrieben in Werke hinein. Sie schrieben Randnotizen und erfanden die Fußnoten. Texte wurden in Kapitel unterteilt. Die Kapitel wurden in Form eines Inhaltsverzeichnisses am Anfang des Werks genannt. Die aktuelle Kapitelüberschrift wurde auf jeder Seite am oberen Seitenrand aufgeführt. Man musste nur lose durch ein Buch blättern, um ein Kapitel zu finden. Bessere Bücher hatten ein Leinenband eingewoben als persönliches Lesezeichen, das die Eselsohren vermeiden sollte. Man begann, Text zu unterstreichen, und nur die Konvention konnte entscheiden, ob das unterstrichene nun makelig oder wichtig war.

Noch heute greift der Junior zum Leuchtmarker, um ihm wichtiges in der Bibliotheksleihgabe zu markieren. Noch heute verwenden wir die Instrumente der alten Druckmedien, die Konventionen schufen, die wir selbst in elektronischen Texten nicht missen wollen.

Wissen war nichts isoliertes, sondern jedes Schriftstück wurde in einem Kontext geschrieben und verfasst. Immer mehr wurde es zum Bedürfnis, zusammenhängende Schriftstücke zu referenzieren, Indizes und Kataloge zu erstellen. Bibliotheken publizierten Kataloge, die selbst eine Literaturgattung darstellten. Später tauschten die Bibliotheken ihre Kataloge gegenseitig aus.

Diese Kataloge wurden, nach verschiedenen Rubriken sortiert, schnell dermaßen umfangreich, dass sowohl ihre Erstellung, Verwaltung und Zugänglichkeit zu einer Wissenschaft wurden.

Vom Urtext zum Quelltext

Früher bestand die einzige Möglichkeit, einen Text zu verbreiten, darin, den Text unzählige Male zu kopieren. Der Text, der den späteren Versionen Pate stand, galt als Urtext. Mit der Druckerpresse wurde der Vorgang der Vervielfachung einfacher. Aber es trat etwas anderes hinzu: Der Text musste geplant werden. Der Urtext war nun nicht das erst gedruckte Exemplar, sondern der Text, der dem Drucksetzer vorlag. Dies mochte ein Stapel Papiere sein, dessen Paginierung kaum etwas mit dem späteren Druckerzeugnis zu tun hatte. Wo früher in Scriptorien Initialen kunstvoll einzeln gemalt wurden, setze der Setzer seinen großen Stempel ein. Der Urtext, nun Manuskript genannt, enthielt lediglich eine Notiz dazu, dass hier ein solcher Stempel erwünscht war.

Auch als die Manuskripte auf Schreibmaschinen gesetzt wurden, war die Ordnung in diesen Manuskripte freier, provisorischer und offen für jegliche Ergänzungen während der Erstellung der Manuskripte. Der Platz für Bilder wurde reserviert und die zu verwendenden Bilder, sofern bereits vorhanden, gesondert archiviert. Statt direkt Seitenreferenzen zu notieren, dienten Abschnittsüberschriften und Arbeitsglossare dem Autor zur Navigation durch den Papierkrieg. Die Drucklegung als Schriftsatz würde schließlich diese Referenzen in ihre endgültige Form verwandeln.

Es schälte sich eine Entwicklung heraus. Wo früher der Urtext stand, war später das Manuskript als ein ausgearbeiteter Vorlagentext mit vielen Anweisungen zuständig. Heute sprechen wir von Quelltext, wenn wir elektronischen Text mit Anweisungen erstellen, um Programme anzuweisen, Dinge in einer bestimmten Weise zu interpretieren und Platzhalter mit den realen Dingen zu befüllen.

Hypertext ist geprägt von der Unterscheidung von Quelltext als dem Text, der diese Markierungen enthält, und seiner Nutzanwendung in Form einer interaktiven Ansicht oder einer Druckversion.

Doch während in der Tradition der Urtext oder das Manuskript ein Unikat darstellt, dient in der modernen elektronischen Landschaft der Quelltext als das zu verbreitende Material, während die Interpretation des Quelltextes durch Programmatische Interpreter spontan geschieht.

Vordenker des heutigen Hypertext

Seit Texte elektronisch gespeichert wurden, sahen Visionäre nicht nur die vernetzten Möglichkeiten auf elektronischer Ebene, sondern gleichsam den Mehrwert.

Vanevar Bush (Memex)

Vanevar Bushs Artikel As We May Think erschien 1939, noch vor der Entwicklung des Computers [2]. Der Artikel wurde 1945 publiziert und hatte die Revolutionierung der Verfügbarkeit der in seiner Zeit verbreiteten Mikrofilme zum Thema. Bush ärgerte sich besonders darüber, dass Texte hierarchisch indexiert wurden, also nur an einem Ort indexiert waren und letztlich nur ein Weg zum Ziel führte. Er schlug ein nach Assoziationen und Stichwörtern funktionierendes Suchsystem vor.

Er dachte an ein Gerät, Memex genannt, das in Mikrofilmen nach Mikrocodes scannte. Die Codes sollten nach personalisierten Stichwort-Indizes suchen, welche in einer Karte vorgestanzt waren.

Im heutigen Hypertext sind Bushs Anliegen realisiert durch Keywords als Metainformation, durch entsprechende Suchen in serverseitigen Implementationen sowie durch die eigentlichen Suchdienste, welche Dokumente nach Stichworten erlauben. Browser-Bookmarks erlauben das speichern von Adressen und erlauben heute ebenfalls das Taggen der Favoriten mit Stichworten.

Douglas Engelbart (NLS und Augment)

Engelbart entwickelte in den 60er-Jahren am Augmentation Research Center (ARC) ein System, das die gleichzeitige Bearbeitung durch mehrere User an einem Time-Sharing-System am Stanford Research Institute (SRI) erlauben sollte.[3] Dabei wurden innovative Techniken unter anderem erfunden:

  • Die Maus
  • Die Groupware
  • In-File Objekt-Adressierung und Verlinkung
  • integriertes Hypermedia-Mail-System
  • Dokument-Versions-Kontrolle
  • und vieles mehr...

Ein Teil der Softwareentwicklung kreiste um ein Hypertext-Journal, das als Groupware gestaltet war. Betrieben wurde dieses Journal an der ARC-Community an der Stanford University. Die Leistungsfähigkeit des Konzeptes wurde 1968 an der Mother of all Demos vorgeführt.

Das NLS wurde später zu Augment umbenannt und an Tymshare verkauft.

Ein wesentliches Defizit des Konzeptes war das Fehlen eines Pointing-Devices mit Klickfunktion. Das Konzept war zu sehr auf die Eingabe von Kommando-Codes gestützt, was die Erlernbarkeit des Systems erschwerte.

Ted Nelson (Xanadu)

Die Begriffe Hypertext und Hypermedia werden Ted Nelson zugeschrieben, der in den 60er-Jahren Xanadu als Software und Hypertext-Plattform entwickelte. Dieses beinhaltet:

  • Versionskontrolle
  • Rechtesystem
  • Jeder User wird identifiziert
  • Gebühren-Modell bei Online-Zugriffen auf Daten im Xanadu-Netzwerk
  • Trennung von Document-Location und physikalischem Speicherort

Xanadu hat Aspekte des heutigen WWW vorweggenommen, wie etwa ein Gebühren-Modell für den Datenzugriff. Nicht erstaunlich, war doch Xanadu auch als kommerzielles System konzipiert.

Im Unterschied zum WWW, dessen Zugriffsmodell grundsätzlich offen ist, identifiziert Xanadu auch jeden User, was heute im Internet auf der Architekturebene abgelehnt wird. Die Versionskontrolle, in Xanadu fester Bestand, ist im WWW nur auf Applikationsebene implementiert. In Xanadu sind Applikation und Netzwerk eine Einheit. Im WWW herrscht die Trennung von Netz und Applikationen. Vermittelnd tritt das HTTP-Protokoll als wichtigstes Protokoll hinzu.

Die langen Wehen zum WWW

Bis Ende 60er-Jahre waren alle grundlegenden Eigenschaften von Hypertext formuliert. Es dauerte aber bis in die 90er-Jahre, dass Hypertext und Internet verheiratet wurden. Der Grund lag in den Hardware-Preisen, welche die Verbreitung von PCs in dem normalen Verbraucher-Segment behinderten. Auch musste zuerst so etwas wie ein Internet aus dem Verbund vereinzelter Netze entstehen.

1990 war es schließlich soweit und Tim Berners Lee propagierte das WorldWideWeb (WWW), das Hypertext im Internet über einen Browser verfügbar machen sollte. Er selbst schrieb dazu drei Kernkomponenten:

  • eine Adressierungssyntax für URIs, damals noch Universal Document Identifier genannt
  • eine Hypertext-Markup-Sprache (HTML)
  • ein Hypertext-Transport-Protokoll (HTTP)

Das WWW sah lediglich unidirektionale Links vor und unterschied sich damit von den meisten anderen Hypertext-Systemen. Dieser in mancher Sicht auch mangelhaften Strategie verdanken wir heute die starke Linkdichte im Internet, aber auch den schnellen Zuwachs an broken Links sowie den Zwang zur Linkpflege in Dokumenten und auf Serverseite die Notwendigkeit, eine einmal publizierte Adresse nicht willkürlich auf eine andere Ressource zu vergeben oder Ressourcen auf andere Adressen zu verschieben ohne Weiterleitungen zu hinterlassen.

Hauptartikel: Grundlagen/Entstehung des Internet

Vom Hyperlink zum Hyperspace

Hypertext beantwortet viele Bedürfnisse, aber ein Bedürfnis war schon immer zentral, seit Texte elektronisch gespeichert wurden.

  1. Ich muss wissen, dass es einen Text oder eine Mediendatei wie Bild oder Film gibt, um sie erreichen zu können.
  2. Ein Mechanismus soll eine referenzierte Ressource einfach verfügbar machen.
  3. Einen wirklichen Hypertext-Mehrwert erhalte ich aber erst dann, wenn ich solche Ressourcen inmitten eines anderen Dokuments einbetten kann.

Hyperlinking

Hyperlinking meint Mechanismen, welche einzelne Dokumente durch Automatismen zu einem vergrößerten Hypertext-Raum verbinden, durch welchen man sich bewegen kann. Diese Dokumente umfassen nicht nur Texte, sondern verbinden diese mit Grafik, Animation und Video. Dabei besteht aber die Gefahr, dass die traditionellen Grenzen isolierter Dokumente (das einzelne Buch, die einzelne Filmrolle, die einzelne CD) verschwinden und der durchgehende Lesefluss gestört wird, bis man sich im Hyperraum verliert (Lost in Hyperspace[4]).

Fazit

Erfassung und Verwaltung von Hypertext

Es gibt für das WWW keinen Automatismus, der Dokumente automatisch im Hyperspace anmeldet.

In der Anfangszeit des Webs standen Webauftritte vor der Aufgabe, die Adresse ihrer Seite per Mail oder die Aufnahme in Linklisten bekannt zu machen. Webanbieter spezialisierten sich auf die Katalogisierung thematisch nützlicher Seiten; ebenso wurden Printprodukte mit Linklisten angeboten. Da es aber für das WWW keine technische oder gesetzliche Hemmnis gibt einmal bekannte Adressen dauerhaft zu verwenden, führte dies zu toten Links oder, wenn die URL neu vergeben wurde, anderen als den gewünschten Inhalten. Hier sind sowohl Webseitenbetreiber in der Pflicht ihre Adressen beizubehalten (Cool URIs don't change!), als auch die Betreiber von Linklisten, diese zu pflegen.

Suchdienste durchforsten mit Crawlern angemeldete oder gefundene Adressen und nehmen die dortigen Adressen in spezifische Verzeichnisse auf und indizieren deren Inhalte. Die Katalogisierung von Text und Medien stellt heute die wichtigste Infrastruktur dar, damit der Hyperspace nicht Adressspezifisch, sondern nach Suchstichworten erkundet werden kann.

Auch wenn die Algorithmen letztendlich geheim sind, spielt aber neben der möglichst häufigen Referenzierung durch andere Webseiten der eigentliche Inhalt eine größere Rolle. Problematisch erscheinen hier die undurchsichtigen Kriterien für das Ranking einzelner Seiten in den Suchergebnissen.

Hauptartikel: Grundlagen/Wem gehört das Internet?

Beim heutigen Überangebot an Inhalten in vielen Segmenten stellt nicht mehr das Finden einer Adresse das Problem dar, sondern die richtige Formulierung einer Suchanfrage, die auch durch einen geeigneten Inhalt belohnt.

Konventionen

Heute haben sich einige Konventionen entwickelt:

Menüs und Navigationen

Heutige Webauftritte bestehen nicht mehr aus einigen wenigen Einzelseiten, sondern wurden im Laufe der Zeit immer umfangreicher. Dabei wurde es immer wichtiger, dem Besucher die vorhandenen Seiten übersichtlich zu präsentieren.

Hauptartikel: Navigation/Konzepte

Hypertext

Mit dem Größenwachstum vieler Webseiten wurde es wichtig zwischen Links zu anderen Anbietern und solchen innerhalb der Domain zu unterscheiden. Heute hat sich durchgesetzt, sich im Fließtext auf interne Links zu beschränken und externe Links am Ende in einem eigenen Bereich anzuordnen. Dabei sollten externe Links auch als solche gekennzeichnet werden.

Hauptartikel: externe Links kennzeichnen


  1. Wikipedia: Kolophon
  2. As we May Think (Vanevar Bush in The Atlantic Monthly)
  3. Wikipedia: NLS-System
  4. Wikipedia: Lost in Hyperspace