Grundlagen/Hypertext

Aus SELFHTML-Wiki
Wechseln zu: Navigation, Suche

Inhaltsverzeichnis

[Bearbeiten] Hypertext als Idee

Begriffserklärung: Hypertext bedeutet in etwa so viel wie Übertext. Gemeint ist jedoch das Hypermedium als das den konkreten Text und seine Medien übergreifende Medium. Hypertext bleibt dabei ein abstraktes Konzept, da es keine konkrete Summe aller involvierter Texte in Hypertext geben kann.


[Bearbeiten] Hypertext - ein uraltes Bedürfnis

Seit der Mensch seine Gedanken auf Medien schrieb, trug er in sich das Bedürfnis nach Ordnung und Struktur. Als das Geschriebene umfassend und an Orten gesammelt wurde, hatte er das Bedürfnis nach einer Überschrift, oder damals noch Unterschrift, dem Kollophon, sowie einer Zusammenfassung. Frühe Bücher trugen eine Zusammenfassung auf dem Buchdeckel.

Als die Werke umfassender wurden, kam das Bedürfnis dazu, die Seiten zu zählen und auf bestimmte andere Seiten zu verweisen. Spätere Redaktoren schrieben in Werke hinein. Sie schrieben Randnotizen und erfanden die Fußnoten. Texte wurden in Kapitel unterteilt. Die Kapitel wurden in Form eines Inhaltsverzeichnisses am Anfang des Werks genannt. Die aktuelle Kapitelüberschrift wurde auf jeder Seite am oberen Seitenrand aufgeführt. Man musste nur lose durch ein Buch blättern, um ein Kapitel zu finden. Bessere Bücher hatten ein Leinenband eingewoben als persönliches Lesezeichen, das die Eselsohren vermeiden sollte. Man begann, Text zu unterstreichen, und nur die Konvention konnte entscheiden, ob das unterstrichene nun makelig oder wichtig war.

Noch heute greift der Junior zum Leuchtmarker, um ihm wichtiges in der Bibliotheksleihgabe zu markieren. Noch heute verwenden wir die Instrumente der alten Druckmedien, die Konventionen schufen, die wir selbst in elektronischen Texten nicht missen wollen.

Wissen war nichts isoliertes, sondern jedes Schriftstück wurde in einem Kontext geschrieben und verfasst. Immer mehr wurde es zum Bedürfnis, zusammenhängende Schriftstücke zu referenzieren, Indizes und Kataloge zu erstellen. Bibliotheken publizierten Kataloge, die selbst eine Literaturgattung darstellten. Später tauschten die Bibliotheken ihre Kataloge gegenseitig aus.

Diese Kataloge wurden, nach verschiedenen Rubriken sortiert, schnell dermaßen umfangreich, dass sowohl ihre Erstellung, Verwaltung und Zugänglichkeit zu einer Wissenschaft wurden.

[Bearbeiten] Vom Urtext zum Quelltext

Früher bestand die einzige Möglichkeit, einen Text zu verbreiten, darin, den Text unzählige Male zu kopieren. Der Text, der den späteren Versionen Pate stand, galt als Urtext. Mit der Druckerpresse wurde der Vorgang der Vervielfachung einfacher. Aber es trat etwas anderes hinzu: Der Text musste geplant werden. Der Urtext war nun nicht das erst gedruckte Exemplar, sondern der Text, der dem Drucksetzer vorlag. Dies mochte ein Stapel Papiere sein, dessen Paginierung kaum etwas mit dem späteren Druckerzeugnis zu tun hatte. Wo früher in Scriptorien Initialen kunstvoll einzeln gemalt wurden, setze der Setzer seinen großen Stempel ein. Der Urtext, nun Manuskript genannt, enthielt lediglich eine Notiz dazu, dass hier ein solcher Stempel erwünscht war.

Auch als die Manuskripte auf Schreibmaschinen gesetzt wurden, war die Ordnung in diesen Manuskripte freier, provisorischer und offen für jegliche Ergänzungen während der Erstellung der Manuskripte. Der Platz für Bilder wurde reserviert und die zu verwendenden Bilder, sofern bereits vorhanden, gesondert archiviert. Statt direkt Seitenreferenzen zu notieren, dienten Abschnittsüberschriften und Arbeitsglossare dem Autor zur Navigation durch den Papierkrieg. Die Drucklegung als Schriftsatz würde schließlich diese Referenzen in ihre endgültige Form verwandeln.

Es schälte sich eine Entwicklung heraus. Wo früher der Urtext stand, war später das Manuskript als ein ausgearbeiteter Vorlagentext mit vielen Anweisungen zuständig. Heute sprechen wir von Quelltext, wenn wir elektronischen Text mit Anweisungen erstellen, um Programme anzuweisen, Dinge in einer bestimmten Weise zu interpretieren und Platzhalter mit den realen Dingen zu befüllen.

Hypertext ist geprägt von der Unterscheidung von Quelltext als dem Text, der diese Markierungen enthält, und seiner Nutzanwendung in Form einer interaktiven Ansicht oder einer Druckversion.

Doch während in der Tradition der Urtext oder das Manuskript ein Unikat darstellt, dient in der modernen elektronischen Landschaft der Quelltext als das zu verbreitende Material, während die Interpretation des Quelltextes durch Programmatische Interpreter spontan geschieht.

[Bearbeiten] Vordenker des heutigen Hypertext

Seit Texte elektronisch gespeichert wurden, sahen Visionäre nicht nur die vernetzen Möglichkeiten auf elektronischer Ebene, sondern gleichsam den Mehrwert.

[Bearbeiten] Vanevar Bush (Memex)

Vanevar Bushs Artikel As We May Think erschien 1939, noch vor der Entwicklung des Computers [1]. Der Artikel wurde 1945 publiziert und hatte die Revolutionierung der Verfügbarkeit der in seiner Zeit verbreiteten Mikrofilme zum Thema. Bush ärgerte sich besonders darüber, dass Texte hierarchisch indexiert wurden, also nur an einem Ort indexiert waren und letztlich nur ein Weg zum Ziel führte. Er schlug ein nach Assoziationen und Stichwörtern funktionierendes Suchsystem vor.

Er dachte an ein Gerät, Memex genannt, das in Mikrofilmen nach Mikrocodes scannte. Die Codes sollten nach personalisierten Stichwort-Indizes suchen, welche in einer Karte vorgestanzt waren.

Im heutigen Hypertext sind Bushs Anliegen realisiert durch Keywords als Metainformation, durch entsprechende Suchen in serverseitigen Implementationen sowie durch die eigentlichen Suchdienste, welche Dokumente nach Stichworten erlauben. Browser-Bookmarks erlauben das speichern von Adressen und erlauben heute ebenfalls das Taggen der Favoriten mit Stichworten.

[Bearbeiten] Douglas Engelbart (NLS und Augment)

http://en.wikipedia.org/wiki/NLS_%28computer_system%29

Engelbart entwickelte in den 60er-Jahren am Augmentation Research Center (ARC) ein System, das die gleichzeitige Bearbeitung durch mehrere User an einem Time-Sharing-System am Stanford Research Institute (SRI) erlauben sollte. Dabei wurden innovative Techniken unter anderem erfunden:

  • Die Maus
  • Die Groupware
  • In-File Objekt-Adressierung und Verlinkung
  • integriertes Hypermedia-Mail-System
  • Dokument-Versions-Kontrolle
  • und vieles mehr...

Ein Teil der Softwareentwicklung kreiste um ein Hypertext-Journal, das als Groupware gestaltet war. Betrieben wurde dieses Journal an der ARC-Community an der Stanford University. Die Leistungsfähigkeit des Konzeptes wurde 1968 an der Mother of all Demos vorgeführt. (Demo ansehen: video.google.com ...) Das NLS wurde später zu Augment umbenannt und an Tymshare verkauft.

Ein wesentliches Defizit des Konzeptes war das Fehlen eines Pointing-Devices mit Klickfunktion. Das Konzept war zu sehr auf die Eingabe von Kommando-Codes gestützt, was die Erlernbarkeit des Systems erschwerte.

[Bearbeiten] Ted Nelson (Xanadu)

Die Begriffe Hypertext und Hypermedia werden Ted Nelson zugeschrieben, der in den 60er-Jahren Xanadu als Software und Hypertext-Plattform entwickelte. Dieses beinhaltet:

  • Versionskontrolle
  • Rechtesystem
  • Jeder User wird identifiziert
  • Gebühren-Modell bei Online-Zugriffen auf Daten im Xanadu-Netzwerk
  • Trennung von Document-Location und physikalischem Speicherort

Xanadu hat Aspekte des heutigen WWW vorweggenommen, wie etwa ein Gebühren-Modell für den Datenzugriff. Nicht erstaunlich, war doch Xanadu auch als kommerzielles System konzipiert.

Im Unterschied zum WWW, dessen Zugriffsmodell grundsätzlich offen ist, identifiziert Xanadu auch jeden User, was heute im Internet auf der Architekturebene abgelehnt wird. Die Versionskontrolle, in Xanadu fester Bestand, ist im WWW nur auf Applikationsebene implementiert. In Xanadu sind Applikation und Netzwerk eine Einheit. Im WWW herrscht die Trennung von Netz und Applikationen. Vermittelnd tritt das HTTP-Protokoll als wichtigstes Protokoll hinzu.

[Bearbeiten] Die langen Wehen zum WWW

Bis Ende 60er-Jahre waren alle grundlegenden Eigenschaften von Hypertext formuliert. Es dauerte aber bis in die 90er-Jahre, dass Hypertext und Internet verheiratet wurden. Der Grund lag in den Hardware-Preisen, welche die Verbreitung von PCs in dem normalen Verbraucher-Segment behinderten. Auch musste zuerst so etwas wie ein Internet aus dem Verbund vereinzelter Netze entstehen.

1990 war es schließlich soweit und Tim Berners Lee propagierte das WorldWideWeb (WWW), das Hypertext im Internet über einen Browser verfügbar machen sollte. Er selbst schrieb dazu drei Kernkomponenten:

  • eine Adressierungssyntax für URIs, damals noch Universal Document Identifier genannt
  • eine Hypertext-Markup-Sprache
  • ein Hypertext-Transport-Protokoll

Das WWW sah lediglich unidirektionale Links vor und unterschied sich damit von den meisten anderen Hypertext-Systemen. Dieser in mancher Sicht auch mangelhaften Strategie verdanken wir heute die starke Linkdichte im Internet, aber auch den schnellen Zuwachs an broken Links sowie den Zwang zur Linkpflege in Dokumenten und auf Serverseite die Notwendigkeit, eine einmal publizierte Adresse nicht willkürlich auf eine andere Ressource zu vergeben oder Ressourcen auf andere Adressen zu verschieben ohne Weiterleitungen zu hinterlassen.

[Bearbeiten] Vom Hyperlink zum Hyperspace

Hypertext beantwortet viele Bedürfnisse, aber ein Bedürfnis war schon immer zentral, seit Texte elektronisch gespeichert wurden.

  1. Ich muss wissen, dass es einen Text gibt, um ihn erreichen zu können.
  2. Ein Mechanismus soll eine referenzierte Ressource einfach verfügbar machen.
  3. Einen wirklichen Hypertext-Mehrwert erhalte ich aber erst dann, wenn ich solche Ressourcen inmitten eines anderen Dokuments einbetten kann.

[Bearbeiten] Hyperlinking

Hyperlinking meint Mechanismen, welche einzelne Dokumente durch Automatismen zu einem vergrößerten Hypertext-Raum verbinden durch welchen man sich bewegen kann, bis man sich verloren im Hyperraum (Lost in Hyperspace) vorkommt. Dabei verschwinden die traditionellen Grenzen isolierter Dokumente (das einzelne Buch, die einzelne Filmrolle, die einzelne CD) weil dieser Hyperspace durch ein einziges leistungsfähiges Medium, heute der Browser, navigiert wird.

[Bearbeiten] Von vielen Medien zu einem Hypermedium

Informationen wurden traditionell in sehr verschiedenen Formaten gespeichert durch sehr verschiedene Geräte wiedergegeben. Zwischen diesen Geräten gab es kaum eine Beziehung oder Verbindung. Erst in seiner elektronischen Form, der Digitalisierung oder Chiffrierung wurde Information in ein und demselben Medium verwertbar.

Der Weg zu einer Hypertextsprache für viele Medientypen ist zwar lange und wohl nie fertig zu führen, aber die Vorzüge von Hypertext haben wichtige Fortschritte in der Verbindung von Text zu Grafik und Animation geführt. Grafik kann als eine Anzahl Bildpunkte oder als eine Hierarchie von geometrischen Figuren dargestellt werden. In ihrer letzteren Form lassen sich diese Formen einzeln beschreiben und animieren. Als SVG-Dokument werden die Grenzen zwischen Text und Grafik ganz überbrückt, wodurch Bild- und Textdokument ganz verschmelzen können.

[Bearbeiten] Die einzelne Dateiquelle

Die Idee, dass Text nur einmal definiert aber beliebig oft eingebunden werden kann, hat zwei schlagende Argumente. Der Text braucht nur an einem Ort zentral gespeichert zu werden. Wenn alle Verwendungen dieses Textes durch diesen Quelltext gesteuert sind, so muss lediglich ein Text geändert werden, um alle verwendeten Instanzen zu aktualisieren.

Dieser Idee stehen jedoch folgende Schwierigkeiten im Wege:

  • Wenn die Quelle zerstört wird, oder unerreichbar wird, ist der Text insgesamt nicht mehr verfügbar. Auf welche Version soll dann zurückgegriffen werden?
  • Wer hat Zugriff auf dieses zentrale Textstück? Oder wodurch berechtigt sich das Vertrauen, dass eine Definition einmalig an einem Ort vorgenommen werden darf?
  • Ein Zitat ist eine Kopie einer Quelle, zum Zweck, dass dieses nicht gegen das Einverständnis des Verwenders verändert werden kann.

[Bearbeiten] Kontext-Neutralität

Hypertext besteht aus Einheiten. Während man die aktuelle Ansicht als Dokument bezeichnen kann, können seine Teile aus Elementen der verschiedensten Medientypen bestehen. Damit diese Elemente im Hypertext flexibel und mannigfaltig verwendet werden können, dürfen die Elemente gegenüber dem einbindenden oder referenzierenden Kontext keine bestimmten Anforderungen voraussetzen. Sie müssen viel mehr selbsterklärende Einheiten sein.

Erläuterndes Beispiel: Die Hauptsprache eines aus Text bestehenden Elements sollte nicht im einbindenden Dokument vorausgesetzt werden, sondern sollte durch das Element selbst deklariert werden.

Historisch betrachtet erfüllten die Elemente bei vielen Hypertext-Softwareprodukten die Erfordernis der Kontextneutralität nicht, da ihr Inhaltstyp bereits ein bestimmtes Format aufwies. Im WWW als der heute dominierenden Hypertext-Plattform besteht keine Format-Voraussetzung. Das HTTP-Protokoll definiert jedoch den MIME-Typ als maßgebenden Content-Typ, welcher bestimmt, ob und wie ein Browser ein solches Hypertext-Element in der Ansicht integrieren kann.

Im WWW wird ein Hypertext-Element als Ressource bezeichnet. Das Wort findet sich unter anderem in den Begriffen URI und URL wieder. Der Begriff Dokument wird bei Text-Ressourcen auf den im Browser dargestellten Inhalt angewendet.

[Bearbeiten] Hypertext verwischt Grenzen und Umfang

Ein Buch stellt eine geschlossene Einheit dar. Hypertext im Gegensatz sprengt diese Grenzen und macht sie oft auch unerkenntlich. Dadurch entstehen Fragen: Wodurch erkenne ich, dass die folgende Seite Teil des gleichen Autoren-Raums ist, also ein gemeinsames Editorial auf diese anzuwenden sei?

Die Grenzen müssen durch verschiedene Methoden neu definiert werden.

Im WWW hat es sich durchgesetzt:

  • eine Corporate-Identity, eine Einheit stiftende Gestaltungsrichtlinie, herauszuarbeiten
  • Navigationselemente, die das interne Angebot betreffen, gesondert und prominent aufzuführen.
  • Links zu externen Seiten speziell zu kennzeichnen, und solche entweder als Kontextlinks oder nur in speziellen Sektionen oder Seiten zuzulassen
  • die WWW-Domäne als eine Grenze zu definieren und Client-seitig den dynamischen Informationsaustausch über diese Grenze durch Scripte zu unterbinden

Ein anderes Problem stellt die Erfassung des Umfangs dar. Bei größeren Sites im WWW kann der Bestand nicht mehr umfassend dargestellt werden. Verschiedene Navigationstechniken und Formen der hierarchischen oder seriellen Informationsvermittlung, oft verbunden mit Suchfunktionen sind gefragt.

[Bearbeiten] Erfassung und Verwaltung von Hypertext

Es gibt für das WWW keinen Automatismus, der Dokumente automatisch im Hyperspace anmeldet. Die Propagierung geschieht im WWW vielmehr durch Verwendung der Adressen in Hypertext-Dokumenten und durch spezielle Dienste, die bereits propagierte Adressen navigieren und deren Inhalt indexieren. Anderseits gibt es aber für das WWW auch keine technische oder gesetzliche Hemmnis, einmal bekannte Adressen zu verwenden und so eine Ressource zu referenzieren.

Die Verwendung geschieht in heutigen Browsern primär durch die Verwendung von Adressen in Hypertext-Dokumenten, sowie durch Browsing-Tools wie die Bookmarks und die History. Bookmarks sind dabei persönliche Lesezeichen, die im Browser integriert sind. Da der Browser jedoch diese Bookmarks nicht publiziert, treten hier öffentliche Bookmarkdienste hinzu, welche es dem Leser erlauben, Leseempfehlungen im öffentlichen Raum zu definieren.

Suchdienste indexieren Hypertext-Elemente indem sie angemeldete oder gefunde Adressen navigieren und die dortigen Adressen in spezifische Verzeichnisse aufnehmen sowie die Inhalte katalogisieren. Hierbei haben sich Dienste nach Medientypen spezialisiert. Bilder werden anders indexiert als etwa Texte. Die Katalogisierung von Text stellt heute die wichtigste Infrastruktur dar, damit der Hyperspace nicht Adressspezifisch, sondern nach Suchstichworten erkundet werden kann.

Beim heutigen Überangebot an Inhalten in vielen Segmenten stellt nicht mehr das Finden einer Adresse das Problem dar, sondern die richtige Formulierung einer Suchanfrage, die auch durch einen geeigneten Inhalt belohnt.


[Bearbeiten] Die bis heute erreichten Ziele

Seit Einführung der WWW-Kernkomponenten wurde das WWW die praktisch dominierende Hypertext-Architektur. Die Gründe dazu sind:

  • Die Server-Client Architektur erlaubt es schnell, vielen Lesern auf Dokumente zuzugreifen.
  • Die einseitigen Links erlauben ein unkompliziertes Verfahren, damit der Hypertext-Raum schnell wachsen kann.
  • Browser wurden schnell populär und zu der beliebten Software, welche heute dank Plugins in den meisten Situationen als ein Viewer ausreichen.
  • Mit dem W3C wurde eine Behörde geschaffen, welche die vielen Entwicklungen in einen gemeinsamen Standard einfließen ließ, und Dokumentation betrieb. Authoring wurde dadurch erlernbar.

Anders als von Berners Lee erhofft, gab es im WWW aber auch eine Akzentverschiebung, nicht immer zum Besseren.

  • Das WWW wurde schnell als Plattform für die Werbung und als ein günstiges Trittbrett in den internationalen Markt entdeckt.
  • Dem freien WWW gegenüber steht die Kommerzialisierung. Der Buchhandel sieht im WWW lediglich ein anderes Marktsegment.
  • Das WWW wurde allgemein zur Bühne für exzentrische oder egozentrische Auftritte, die mit der ursprünglichen Informationsvernetzung nicht mehr viel gemein haben.
  • Es wird überproportional viel Aufwand getrieben, eigene Adressen zu propagieren, während die Vernetzung externer Inhalte vernachlässigt wird.
  • Hypertext im WWW stellt ein Sicherheitsrisiko dar bietet ein enormes Missbrauchspotential. Software muss permanent gegen Sicherheitslücken überprüft werden.


[Bearbeiten] Heute verbliebene Anliegen

[Bearbeiten] Technologien

Damit der Technologie-Wasserkopf eingeschränkt wird, müssen Technologien vereinheitlicht werden. Immer wieder kommt es aber zu parallelen Technologien. So konkurrierten lange XHTML und HTML. Im Bereich der Animation konkurrieren mit Flash und Silverlight zwei proprietäre Technologien. Es sieht zudem nicht so aus, dass in nächster Zeit eine einfache Integration von Movies in Hypertext gelingen wird.

Das WWW krankt an einem Technologiewasserkopf. Wenn man Inhalte im WWW unterteilt nach Infrastruktur (Dokumentationen, Standards, Beispiele, lernmaterialen, Tests) und Nutzinhalten (Inhalten, die nichts mit WWW-Technologien zu tun haben), so fällt die Präsenz der ersteren markant auf. Dies ist ein Anzeichen, dass das WWW schwer zu lernen ist und dass die Nutzung von Hypertext nicht das Versprechen, die Texterstellung zu rationalisieren, gehalten hat.

Zwar gibt es keinen Zwang, Hypertext-Dokumente zu modernisieren, und die Darstellung älterer Dokumente ist dank der Abwärtskompatibilität der Sprachen weitgehend garantiert. Die Modernisierung dieser Inhalte ist aber aufwändig.

[Bearbeiten] Privatsphäre und Sicherheit

Das Internet kennt keine eingebaute Inhaltskontrolle. Es beinhaltet deshalb ein hohes Schadenspotential. Dies gilt auch für das WWW.

HTTP überträgt Inhalte unverschlüsselt. Sowohl das angeforderte Dokument als auch dessen Inhalt ist auf der Transportstrecke sichtbar. Zwar steht mit HTTPS eine verschlüsselte Form der Übertragung zur Verfügung. Die Implementation ist jedoch meist mit Kosten für den Serverbetreiber verbunden. im WWW herrscht heute noch weitgehend ungeschützter Verkehr.

Das Internet und dadurch auch das WWW ist in vieler Hinsicht anfällig auf Sicherheitslücken. Dazu gehören

  • Ausspähen von Passwörtern auf dem Browser oder Transportweg
  • Drive-by-Downloads
  • Anfälligkeit des im Internet grundlegenden DNS-Systems (DNS-Spoofing)

Das WWW erfordert, dass involvierte Software schnell gegen Sicherheitslücken abgesichert wird. Lücken in Kerntechnologien wie dem DNS lassen sich aber überhaupt nicht schnell fixen.

[Bearbeiten] Inhalte

Hypertext verbindet Inhalte über Autoritätsgrenzen hinweg. Copyright-Anliegen werden öfters vernachlässigt. Es fehlen Mechanismen, welche unerwünschtes Einbinden von Ressourcen verhindern.

Im WWW sind in den letzten Jahren mit Desktop und Mobile zwei sehr verschiedene Usersegmente zusammengewachsen. Neues Bewusstsein ist bei Autoren gefragt, damit Inhalte geräteunabhängig präsentiert werden.

Barrierefreiheit bedeutet unter anderem, dass es für jede grafische Komponente ein Textäquivalent geben muss. Während die Grafik als externe Ressource angefordert wird, muss aber derzeit das Textäquivalent im aufrufenden Dokument definiert werden. Hier zeigt sich eine schwerwiegende Lücke in der Hypertext-Definition des WWW.

[Bearbeiten] WWW als Kulturraum

Das WWW hat heute traditionelle Medien wie Radio, Fernsehen, Film und Musik in den Schatten gestellt. Das WWW erscheint als das Hypermedium schlechthin. Gegenüber den traditionellen Medien bietet das WWW Inhalte auf Abruf, statt Inhalte nach Programm. Der Mensch kann dadurch seine Zeit freier gestalten.

Die Allzeit-Verfügbarkeit hat jedoch auch seine Schatten, namentlich Suchtphänomene. Der Mensch ist zunehmend auch isoliert, trotz der Chaträume, Foren und diversen Partnertreffs im Web. Denn es geht dir direkte Interaktion zwischen Menschen verloren. Insgesamt haben traditionelle soziale Treffpunkte stark gegenüber dem WWW an Wert verloren, obwohl diese bezüglich Interaktion weit mehr zu bieten haben und lokal meist eine viel größere Relevanz haben. Jobsuche oder Freizeitplanung findet heute immer weniger über lokale Treffpunkte statt. Im Internet sucht jeder seine eigene Community. Dadurch entgeht er leichter den Anforderungen einer vielschichtigen Gesellschaft. Der Zugang zum WWW ist immer weniger auf die hauseigene Leitung allein beschränkt. WLAN-Hotspots können während der Reise genutzt werden. Bei Hotels gehören sie zum guten Ruf. Dadurch kommuniziert der Mensch auch fern von zu Hause immer mehr nur über die Kanäle des Webs. In diesen Boom reihen sich die Angebote für Mobiles nahtlos ein. Dienste wie Twitter verbinden Desktop- und Mobile-Anwender zu einem einzigen User-Segment.

Hypertext verspricht, aus jedem einen Publisher zu machen. Der Internetprovider spendiert meist schon einen kleinen Webspace. mag dieser nicht genügen, so bietet sich das Web 2.0 als schnell verfügbare Plattform an. Das WWW hat traditionelle Hürden zum Publisher abgebaut. Der heute Schreiber muss sich zwar durch Dokumentationen quälen. Aber immer weniger Qualitätskontrollen verhindern die weltweite Verfügbarkeit noch so banaler Inhalte.


[Bearbeiten] Hypertext und sein Ende

Hypertext fördert die Vernetzung und Verfügbarkeit von Inhalten, sofern sie irgendwo auf einem öffentlich erreichbaren Server vorhanden sind. Die Mechanismen von Hypertext sind aber elektronischer Natur und können selbst nicht gespeichert werden. Hypertext selbst entzieht sich der traditionellen Datensicherung. Man kann Hypertext nicht auf Stein meisseln. Der ganze Mehrwert von Hypertext existiert nur durch und für eine Technologie-Infrastruktur. Wenn diese Infrastruktur ausfällt, sind alle Inhalte, die Hypertext voraussetzen, unzugänglich.

Immer mehr Inhalte werden direkt und ausschließlich im Hyperspace erstellt und sind nicht in einem anderen Kontext gesichert. Texte, die im Hyperspace nach dessen typischen relationalen Regeln partioniert sind, lassen sich schwer wieder in eine serielle Ordnung bringen.

Zwar sind viele Nutzinhalte im Hyperspace kurzfristiger Natur, und oft ist eine längerfristige Speicherung im Grunde unerwünscht. Dies gilt aber nicht für Texte, die auf Nachhaltigkeit hin verfasst wurden, wie etwa eine Dokumentation. Gerade im Hinblick auf die Nachhaltigkeit sollte man Inhalte auch für andere Medienstrukturen organisieren.

Beispiel: Das längerfristige Ziel der SELFHTML-Wiki liegt in der Gewinnung von Inhalten die wiederum in Buchform präsentiert werden kann. Dadurch ist es notwendig, einen seriellen Pfad durch die Hypertext-Elemente zu definieren, wobei der Bestand evaluiert werden muss. Während im Hypertext Inhalte jeglicher Qualitätsstufe ineinander verwoben sein dürfen, müssen für eine Medienkonversion entsprechende Qualitätsprüfungen nachvollzogen werden. Der redaktionelle Mehraufwand traditionellen Publishings ist im Hypertext eben nur aufgeschoben, aber nicht aufgehoben.

[Bearbeiten] Hypertext-Technologien und Sprachen

Es gibt die einzige Hypertext-technologie, welche alle Aspekte abdeckt nicht. An der Implementation und Abwicklung von Hypertext sind meist mehrere Technologien beteiligt.

Hypertext-Technologien haben mehrere Komponenten. Generell trifft man heute auf der Dokumentebene fast nur Hypertext-Technologien an, die aus den Paaren einer Hypertext-Sprache und ihrem zugehörigen Parser bzw. Interpreter bestehen. Hypertext-Sprachen gibt es in vielen verschiedenen Formen und mit verschiedenen Namen bezeichnet. Man kann die Sprachen grob in zwei Familien einteilen:

  • Transport- oder Verkehrsprotokolle
  • Inhaltssprachen

Gemeinsam ist diesen Sprachen und Protokollen, dass sie in einer verbal verständlichen Form definiert und eingesetzt werden.

Protokolle allein haben als Besonderheit Statuscodes, welche die Bedeutung eines Ausdrucks für die lesende Maschine auf das essentielle verkürzt. Dennoch folgen diesen Codes oft relevante Inhalte.

Protokoll
eine Liste, welche angibt, wie die Nachricht zu interpretieren ist, meist als ein Verhandlungsprotokoll zwischen Server und Client
Beispiele: HTTP
Markup
ein Textabschnitt wird markiert, typischerweise sind sowohl Anfang wie Ende markiert.
Beispiele: SGML, HTML, XHTML
Code als Markup
Der Code ist durchaus als Markup zu begreifen, wird aber als Code bezeichnet.
Beispiel: BB-Code
Code als Code
Bestimmte Tags bzw. Zeichenfolgen bewirken eine spezielle Behandlung der anschließenden Zeile oder des nächsten Wortes.
Beispiele: einfacher Wiki-Code, Perldoc-Code

Es gibt einige Sprache, Protokolle oder Filenamen, im Namen hinweisen, dass sie zentral für Hypertext-Behandlung sind.

  • HTML als die Markup-Sprache für den Hypertext
  • HTTP als das Transport-Protokoll für Hypertext-Elemente
  • htaccess als eine (ursprünglich von Apache, heute aber allgemeine) Server-Datei, um den Zugriff auf hypertext-Ressourcen zu steuern


[Bearbeiten] Grundlegende Bedürfnisse

Hypertext-Sprachen haben verschiedene Bedürfnissen zu erfüllen

  • die Erstellung von Text zu rationalisieren
  • die Anwendungen häufiger Formatierungen z.B. für Überschriften, Zitate oder hervorgehobenen Text zu vereinfachen
  • die Anwendungen inhaltstypischer Formatierungen z.B. für Werksangaben oder Autorennamen zu systematisieren
  • die Aktualisierung von Zählungen z.B. in nummerierten Listen zu automatisieren
  • die Zusammenführung zu Verzeichnissen zu automatisieren
  • interaktive Sprungmarken und Ziele zu deklarieren
  • bei vektorisierter Grafik die Grafikbeschreibungen zu markieren
  • generell Datentypen zu katalogisieren, ohne sie aus ihrem Kontext zu entfernen

Die Bedürfnisse werden in der Regel auf mehrere komplementäre Sprachen verteilt. Im modernen Webdesign übernimmt HTML die Klassifizierung der Inhalte, während CSS die Darstellung dieser Klassen systematisiert.

[Bearbeiten] Hypertext-Sprache und Syntax

Eine Hypertext-Sprache braucht eine Syntax, das heißt, eine normierte Beschreibung der Schreibweise, um hypertextuelle Funktionalität zu erzeugen. Die Syntax kann dabei verschiedenen Bedürfnissen entgegen kommen, andere wiederum vernachlässigen.

[Bearbeiten] Beispiel: Wiki-Syntax

Eine Syntax ist ein System, das gelernt werden muss. In bestimmten Umgebungen, sollen die Lernschritte möglichst gering sein. Eine komplizierte Syntax und weit verzweigte Sprache erzeugt eine flache Lernkurve und erschwert den Gebrauch. Wenn das Ziel besteht, Autoren möglichst schnell zur Anwendung von Syntax zu verleiten, so muss die Syntax assoziativ aufgebaut sein.

Die Wiki-Syntax spricht Autoren unterschiedlicher Kenntnis an. Wiki-Syntax hat zum Ziel, die grundlegende Textstrukturierung mit einem Minimalaufwand zu ermöglichen, wobei die Syntax möglichst nahe an traditionellen Formatierungsindizien liegen sollen.

Beispiel: Wiki-Code
===Eine Überschrift=== *ein ungeordneter Listenpunkt *ein ungeordneter Listenpunkt #erster Listenpunkt #zweiter Listenpunkt #dritter Listenpunkt
Der obige Wiki-Code wird zu:
Eine Überschrift
  • ein ungeordneter Listenpunkt
  • ein ungeordneter Listenpunkt
  1. erster Listenpunkt
  2. zweiter Listenpunkt
  3. dritter Listenpunkt

Wiki-Code hat auch Nachteile. Die Syntax verschlingt eine Unmenge an Zeichen und eine Maskierung dieser Zeichen, um die damit verbundene Funktionalität zu vermeiden, wird komplex.

Wiki-Code eignet sich nicht als eine allgemeine Hypertext-Syntax, denn die Syntax ist bereits auf einen Inhalt und eine typische Anwendungsumgebung mit seinen Richtlinien optimiert.

[Bearbeiten] Beispiel: XML-Syntax

Ein gänzlich anderes Konzept beschreibt eine allgemeine strenge Syntax, wobei die Hypertext-Elemente vorab speziell deklariert werden. Daraus lässt sich eine allgemeine Hypertext-Sprache ableiten, welche nicht auf eine bestimmte Anwendung spezifiziert ist.

XML gehört zu den strengen Hypertext-Sprachen. Dabei definiert XML nur eine allgemeine Syntax, welche aber dokumenttypisch durch weitere Regeln ergänzt werden müssen. XML gehört also zu den erweiterbaren Markup-Sprachen, deshalb heißt sie auch extensible markup language.

Beispiel
<?xml version="1.0"?> <!DOCTYPE AddressBook SYSTEM "http://www.example.org/xmlvorlagen/addressbook.dtd"> <addressbook type="example" addressbookdate="2009-01-07" lastupdate="2009-12-02" > <entry entrydate="2009-01-07" lastupdate="2009-12-02" > <lastname>Muster</lastname> <firstname>Peter</firstname> <address>Sackgasse 12</adress> <location>Beispielhausen</location> <zip>01-657</zip> <country>Fantasy</country> <telephone>+0099 999 99 99</telephone> <mobile>+0099 999 99 99</mobile> <email>peter.muster@example.org</email> <homepage>http://p-muster.example.org</homepage> <note>Dies ist ein Beispiel</note> </entry> </addressbook>
Die Syntax beginnt mit der typischen Präambel, welche dem Interpreter erklärt, welche XML-Syntax-Version vorliegt.
Die Doctype-Angabe führt zu einem Dokument, dass die weitere Syntax erklärt.

Prägende Merkmale der XML-Syntax sind:

  • Die Syntax ist streng.
  • Die Syntax geht sparsam mit dem Zeichenvorrat aus. Nur wenige Zeichen müssen maskiert werden.
  • Sie erfordert einen Baum von XML-Elementen.
  • Ein Document kann syntaktisch überprüft werden.
  • Eine Glossar:DTD erklärt, welchen Regeln die angewendeten Elemente und Attribute folgen muss. Das Document ist deshalb auch dokumenttypisch validierbar.
  • Die Elemente verweisen auf den Inhaltstyp.

[Bearbeiten] Generelle Syntax-Eigenschaften

Hypertext wird von Menschen von Hand oder oft auch mit speziellen Editoren erstellt. Interpretiert wird der Quelltext aber durch Maschinen. Dadurch muss die Syntax sowohl den Bedürfnissen von Menschen als auch von Maschinen entgegen kommen.

Im obigen XML-Beispiel ist dies insofern erfüllt als die Syntax streng ist und somit ein maschineller Interpreter, Parser genannt, vor einer einfacheren Aufgabe steht den Quelltext zu verstehen. Die in der DTD dort deklarierten Regeln für erlaubte Elemente und deren Beziehung kann der Parser beiziehen, um den Quelltext zusätzlich zu validieren. Ein Mensch muss bei einer einfachen aber strengen Syntax weniger allgemeine Regeln kennen. Indem die Elementnamen auf den geforderten Inhaltstyp verweisen, bekommt der Autor eine Idee der Semantik.

Jede Syntax braucht markante Zeichen. Je mehr Zeichen für die Syntax relevant sind, um so komplexer oder aufwändiger wird die Maskierung dieser Zeichen, Zeichenmaskierung meint eine Regel, die Ersatzschreibweisen für Zeichen beschreibt, um die syntaktische Interpretation der Zeichen zu vermeiden.

Eine Syntax, welche ein Element explizit mit Startpunkt und Endpunkt markiert, kann einen hierarchischen Elementbaum erzeugen. Sie erlaubt damit komplexe baumartige Datenstrukturen.

Viele Anwendungen definieren und speichern ihre eigenen Dokumentformate in einem Textformat. Sie bieten oft auch Import- und Export-Schnittstellen für andere Dokumentformate. Es hat sich gezeigt, dass Filter zwischen Sprachen gleicher Syntax am einfachsten zu erstellen sind. Sprachen mit komplexer Syntax stellen notwendigerweise auch solchen Filtern Hürden in den Weg.

Ein besonderer Vorzug einer allgemeinen Syntax gegenüber der dokumenttypischen Beschreibung zeigt sich in XML. Dort kann inmitten eines Dokumenttyps der XML-Code eines anderen Dokumenttyps eingebettet werden. Dadurch können in ein und demselben Dokument verschiedene Sprachen transportiert werden, für die aber gilt, dass sie nach gleichen syntaktischen Regeln geparst werden können. Typische Anwendungen sind heute die XML-Dokumente, die sowohl XHTML, MathML (für mathematische Beschreibungen) und SVG (Vektografik-Sprache) vereinigen.

Die Definition einer neuen proprietären Hypertext-Syntax macht heutzutage wenig Sinn, da mit jeder Syntax Dokumentation und Verinnerlichung durch alle Anwender betroffen ist. Deshalb konzentriert sich heutzutage die Entwicklung der Syntax auf Haupteinsatzgebiete wie HTML5 oder eine Sprache wird durch Erweiterung der XML-Syntax definiert.

Meine Werkzeuge
Namensräume

Varianten
Aktionen
Übersicht
Schnell‑Index
Mitmachen
Werkzeuge
Spenden
SELFHTML