Grundlagen/Basis-Standards im Internet

Aus SELFHTML-Wiki
Wechseln zu: Navigation, Suche

[Bearbeiten] Client-Server-Technologie

Für die einzelnen Internetdienste wie WWW, E-Mail, FTP usw. muss auf einem Host-Rechner, der anderen Rechnern diese Dienste anbieten will, eine entsprechende Server-Software laufen. Ein Host-Rechner kann einen Internet-Dienst nur anbieten, wenn eine entsprechende Server-Software auf dem Rechner aktiv ist, wenn der Rechner "online" ist und wenn keine schützende Software (Firewall) den Zugriff von außen verhindert bzw. einschränkt.

Server sind Programme, die permanent darauf warten, dass eine Anfrage eintrifft, die ihren Dienst betreffen. So wartet etwa ein Web-Server darauf, dass Anfragen eintreffen, die Web-Seiten auf dem Server-Rechner abrufen wollen.

Clients sind dagegen Software-Programme, die typischerweise Daten von Servern anfordern. Ihr Browser ist beispielsweise ein Client. Wenn Sie etwa auf einen Verweis klicken, der zu einer HTTP-Adresse führt, startet der Browser, also der Client, eine Anfrage an den entsprechenden Server auf dem entfernten Host-Rechner. Der Server wertet die Anfrage aus und sendet die gewünschten Daten. Um die Kommunikation zwischen Clients und Servern zu regeln, gibt es entsprechende Protokolle. Client-Server-Kommunikation im Web etwa regelt das HTTP-Protokoll. Ein solches Protokoll läuft oberhalb des TCP/IP-Protokolls ab.

Dass ein Client Daten anfordert und ein Server die Daten sendet, ist der Normalfall. Es gibt jedoch auch "Ausnahmen". So kann ein Client nicht nur Daten anfordern, sondern auch Daten an einen Server schicken: zum Beispiel, wenn Sie per FTP eine Datei auf den Server-Rechner hochladen, wenn Sie eine E-Mail versenden oder im Web ein Formular ausfüllen und abschicken. Bei diesen Fällen redet man auch von Client-Push ("Client drängt dem Server Daten auf").

Ein anderer Ausnahmefall ist es, wenn der Server zuerst aktiv wird und dem Client etwas ohne dessen Anforderung zuschickt. Das nennt man Server-Push ("Server drängt dem Client Daten auf"). Einige Technologien wollten diesen Ausnahmefall vor einigen Jahren mittels den so genannten Push-Technologien zu einer Regel erheben. Man kann jedoch von Glück sagen, dass sie sich nicht durchsetzten. Das Internet ist eben nicht Fernsehen, sondern ein Medium, das von der Aktivität der Anwender lebt, nicht von deren Konsumbeflissenheit.

[Bearbeiten] Routing und Gateways

Im Internet als dem Netz der Netze ist es zunächst nur innerhalb des eigenen Subnetzes möglich, Daten direkt von einer IP-Adresse zu einer anderen zu schicken. In allen anderen Fällen, wenn die Daten an eine andere Netzwerknummer geschickt werden sollen, treten Rechner auf den Plan, die den Verkehr zwischen den Netzen regeln. Solche Rechner werden als Gateways bezeichnet. Diese Rechner leiten Daten von Host-Rechnern aus dem eigenen Subnetz an Gateways in anderen Subnetzen weiter und ankommende Daten von Gateways anderer Subnetze an die darin adressierten Host-Rechner im eigenen Subnetz. Ohne Gateways gäbe es gar kein Internet.

Das Weiterleiten der Daten zwischen Subnetzen wird als Routing bezeichnet. Die Beschreibung der möglichen Routen vom eigenen Netzwerk zu anderen Netzwerken sind in Routing-Tabellen auf den Gateway-Rechnern festgehalten.

Zu den Aufgaben eines Gateways gehört auch, eine Alternativ-Route zu finden, wenn die übliche Route nicht funktioniert, etwa weil bei der entsprechenden Leitung eine Störung oder ein Datenstau aufgetreten ist. Gateways senden sich ständig Testpakete zu, um das Funktionieren der Verbindung zu testen und für Datentransfers "verkehrsarme" Wege zu finden.

Wenn also im Internet ein Datentransfer stattfindet, ist keinesfalls von vorneherein klar, welchen Weg die Daten nehmen. Sogar einzelne Pakete einer einzigen Sendung können völlig unterschiedliche Wege nehmen. Wenn Sie beispielsweise von Deutschland aus eine Web-Seite aufrufen, die auf einem Rechner in den USA liegt, kann es sein, dass die Hälfte der Seite über den Atlantik kommt und die andere über den Pazifik, bevor Ihr Web-Browser sie anzeigen kann. Weder Sie noch Ihr Browser bekommen davon etwas mit.

[Bearbeiten] Selbstorganisation im Internet

In Anbetracht der Teilnehmerzahl im Internet ist der Verwaltungsaufwand im Netz vergleichsweise klein. Die meisten Endanwender wissen nicht einmal, dass es solche Verwaltungsstellen überhaupt gibt.

Eine gesetzgeberische Institution, wie es sie etwa innerhalb des Verfassungsbereichs eines Staates gibt, gibt es im Internet als weltweitem Verbund nicht. Der Versuch, die ICANN-Behörde als oberste Vergabestelle für Domains und IPs zu etablieren, hat viel Staub aufgewirbelt, aber die Befürchtungen, dass da eine zentralistische Internet-Diktatur entsteht, haben sich bislang nicht bestätigt. Viele Bereiche im Internet beruhen faktisch auf Selbstorganisation.

Bei Diensten wie E-Mail galt beispielsweise lange Zeit das stille Abkommen, dass jeder beteiligte Gateway alle E-Mails weiterleitete, auch wenn weder Sender noch Empfänger dem eigenen Subnetz angehörten. In der Anfangszeit des Internets konnten nämlich noch nicht alle angeschlossenen Server jederzeit jeden anderen Server direkt erreichen, diese Weiterleitung galt als eine Art freundlicher Nachbarschaftshilfe. Die Kosten trug der weiterleitende Netzbetreiber, der aber seinerseits von der Weiterleitung anderer Server auch für die eigenen E-Mails profitierte. Heutzutage ist das unkontrollierte Weiterleiten beliebiger E-Mails zu einem ernsten Ärgernis geworden, weil Spammer diesen Mechanismus zur Verbreitung ihrer unerwünschten Werbebotschaften missbrauchen. Da mittlerweile jeder Mailserver direkt jeden anderen Mailserver erreichen kann, ist es zum Glück überflüssig geworden, die E-Mails auf diese Weise über mehrere Stationen weiterleiten zu müssen.

Die Funktionsfähigkeit des Internets basiert also auf der Bereitschaft der Beteiligten, keine Pfennigfuchserei zu betreiben! Großzügigkeit hat das Internet geschaffen, und Kleingeisterei ist der größte Feind der Internet-Idee.

Das Usenet, also der größte Teil der Newsgroups, organisiert sich sogar vollständig selbst, weshalb leidenschaftliche Anhänger dieses System gerne als real existierendes Beispiel für Herrschaftsfreiheit anführen. Die "Verwaltung" findet im Usenet in speziellen Newsgroups statt (solchen, die mit news. beginnen). Dort können beispielsweise Vorschläge für neue Gruppen eingebracht werden, und in Abstimmungen wird darüber entschieden, ob eine Gruppe eingerichtet oder abgeschafft wird.

Offizielle Anlaufstellen gibt es für die Vergabe von Netzwerkadressen (IP) und für Namensadressen (DNS). Für die Vergabe von IP-Adressen innerhalb eines Netzwerks ist der jeweilige Netzbetreiber verantwortlich. Dazu kommen Organisationen, die sich um Standards innerhalb des Internets kümmern.

Die Kosten für die Datenübertragungen im Internet tragen die Betreiber der Subnetze. Diese Kosten pflanzen sich nach unten fort zu Providern innerhalb der Subnetze bis hin zu Endanwendern, die über Provider Zugang zum Internet haben oder Internet-Services wie eigene Web-Seiten nutzen.

Die folgende Liste enthält einige Verweise zu den wichtigsten internationalen und nationalen Organisationen im Internet:

  • Internet Assigned Numbers Authority (IANA) Zentrale Koordinationsstelle für Internet-Protokolle und die Vergabe von IP-Adressräumen an regionale Verwaltungen (z.B. ARIN (Nordamerika), RIPE (Europa), APNIC (Asien))
  • Internet Engineering Task Force (IETF) Internationale Gemeinschaft von kommerziellen und nichtkommerziellen Aktiven im Internet mit dem Ziel, technische Standards im Internet vorzuschlagen.
  • Internet Society Internationale Organisation für die Kooperation und Koordination von Technologien und Anwendungen im Internet
  • W3-Konsortium (W3C) Organisation, die speziell die Weiterentwicklung technischer Standards des World Wide Web koordiniert, etwa HTML oder das HTTP-Protokoll.

Vor allem jene Organisationen, die sich um die technische Weiterentwicklung im Internet kümmern, werden zunehmend von großen Software-Firmen bestürmt, da diese Firmen ein Interesse daran haben, ihren Software-Produkten und hauseigenen Standards bei Server-Technologien, Programmiersprachen usw. zum Status weltweiter Internet-Standards zu verhelfen. Ob und wie weit es gelingt, im Internet angesichts des entstehenden Milliardenmarkts neue, firmenunabhängige Standards durchzusetzen, die so erfolgreich werden wie HTML oder HTTP, muss die Zukunft zeigen. Derzeit sieht es gar nicht schlecht aus. Die meisten Computerkonzerne haben begriffen, dass firmenunabhängige Standards ihnen selber letztlich auch mehr bringen. Und der Druck aufgeklärter Anwender, die keine Lust mehr haben, wegen allem und jedem eine neue, proprietäre Software kaufen zu müssen, die nach ein paar Jahren wieder "out" ist und vom Markt verschwindet, wächst ebenfalls.

Meine Werkzeuge
Namensräume

Varianten
Aktionen
Übersicht
Schnell‑Index
Mitmachen
Werkzeuge
Spenden
SELFHTML