Was ist das Internet?

author image -
January 2, 1996
a featured image

aus “Die Netzrevolution - auf dem Weg in die Weltgesellschaft”, Rost (Hrsg.), 1996, Frankfurt/ Main: Eichborn-Verlag, 230 Seiten

Das Internet - unendliche Weiten. Seit einigen Jahren kreuzen Millionen Bürger durch das Netz, um neue Dienste zu entdecken, neue Möglichkeiten und neue Informationen, die andere Menschen für sie geschaffen haben. Cyberspace - der gemeinsame Informationsraum der Menschheit - ist in gewisser Weise genau das Gegenteil des Weltraums.

Im Weltraum, einer Umgebung, die dem irdischen Leben so fremd ist, wie nur irgend möglich, können wir Dinge finden, sie niemals zuvor ein Mensch (und wahrscheinlich auch sonst niemand) gesehen hat. Wir können an Orte kommen, die niemals zuvor betreten worden sind, um dann dort das Unerwartete und das Fremdartige zu entdecken. Der Weltraum ist die “final frontier”, die letzte Grenze, die nicht überschritten werden kann, sondern die wir nur vor uns her schieben können. Der Weltraum, das ist das physikalische Universum, die fremdartige Außenwelt, in der wir leben.

Cyberspace ist ebenfalls ein ganzes Universum, aber eines, das nach ganz anderen Regeln funktioniert. Im Gegensatz zum Weltraum, wo wir das Fremde und Nicht-Menschliche zu finden erwarten, können wir im Netz nur Artefakte menschlichen Denkens und Schaffens finden. Das heißt nicht, daß uns diese Artefakte nicht genauso fremdartig erscheinen können, wie die einer Alien-Kultur…

Wir können im Netz nur das finden, was andere vor uns hineingestellt haben und wir können im Cyberspace nur dahin gehen, wo andere schon vor uns gewesen sind und den “Raum”, den wir betreten wollen, für uns geschaffen haben. Oder wir können selber neue Räume schaffen, ganze Welten, wenn wir wollen, in denen sich dann andere Bewohner des Netzraumes tummeln können. Denn so ist das Netz entstanden: Am Anfang war im Netz nur die große, unbewohnte Leere. Dann kam der Mensch und sprach - keinen einzelnen Satz, sondern viele hunderttausend Zeilen Quelltext und Dokumente in den unterschiedlichsten Sprachen und Programmiersprachen. Das Resultat ist das Netz, wie der Weltraum eine “final frontier”.

Im Unterschied zum Weltraum, der trotz Vakuums eine materielle Welt ist, ist das Netz eine rein virtuelle Welt - eine Welt der Bilder, der Ideen und der Abstraktionen. Trotzdem hat der Informationsraum natürlich einen Bezug zur wirklichen Welt. Er ist nicht nur eine Bilderwelt, sondern auch ein Bild der Welt, geschaffen nach unserem Bilde. Wenn uns Bilder im Cyberspace nicht gefallen, dann ist dies deswegen so, weil uns die Welt nicht gefällt, die abgebildet wird.

Die Genesis des Cyberspace

Das Internet, ein weltweites Netzwerk aus Rechnern und Übertragungswegen der unterschiedlichsten Hersteller, bekommt seit ungefähr drei Jahren erhöhte Aufmerksamkeit in den Medien. Aber eigentlich ist es viel älter: Das ARPANET, ein Vorläufer des heutigen Internet, entstand schon 1969. Damals begann man damit, die Rechzenzentren amerikanischer Forschungszentren miteinander zu vernetzen, um Hard- und Softwareressourcen verteilt nutzen zu können. Anfang der 1980er Jahre wurde das alte ARPANET in zwei Netze aufgeteilt, ARPANET und Milnet. Das Gesamtnetzwerk bekam zunächst den Namen DARPA Internet, der später durch Verkürzung zu “Dem Internet” wurde. In der Frühzeit des Internet war der Zugang zu diesem Netz auf militärische Nutzung, Forschung und Lehre beschränkt und kommerzielle Nutzung war verboten.

Trotz dieser Einschränkungen war Internet ein größerer Erfolg als geplant und vorausgesehen. Weitere Netze, die zum Teil unabhängig vom DARPA Internet entstanden und meistens zu Forschungszwecken dienten, schlossen sich über mehr oder weniger indirekte Methoden an das Internet an. Um den Bedarf nach akademischer Kommunikation zu kanalisieren und besser decken zu können, entstand in den USA 1986 das National Sciene Foundation Network (NSFNET), das bis 1990 das ARPANET als Forschungsnetzwerk ersetzte. Zugleich begann das Internet auch immer mehr, über die nationalen Grenzen der USA hinauszuwachsen und sich schließlich weltweit auszudehnen.

In 1992 rückte das Internet wieder in das Rampenlicht, diesmal als Bestandteil der “National Information Infrastructure” im Rahmen des Wahlkampfes von Bill Clinton und Al Gore. Dies war zugleich der Beginn der Öffnung des Internet, die es ermöglicht, das Netz auch zu anderen als Forschungszwecken zu nutzen. Heute, drei Jahre später, wird das Netz durch die unterschiedlichsten Firmen bereits auf vielfältige Weise genutzt, auch wenn die meisten Formen dieser Nutzung noch experimentell sind.

Warum ist das Internet so erfolgreich?

Rechnernetze gibt es viele und zu den unterschiedlichsten Zwecken. So sind die Rechner in den meisten Büros über ein Ethernet-Kabel miteinander verbunden, Außenstellen kommunizieren mit der Zentrale über Datex-P oder Datex-J und wir selbst nutzen Telefonnetze weltweit, um miteinander zu reden oder Dokumente zu faxen. Gegen Ende des zwanzigsten Jahrhunderts ist es kein Problem mehr, irgendwelche Geräte miteinander zu vernetzen, denn wir haben buchstäblich Dutzende Methoden, um das zu tun.

Und sie sind alle unterschiedlich.

Das Internet basiert auf der Idee eines Meta-Netzwerkes. Es dient nicht dazu, Rechner miteinander zu vernetzen. Es gibt keine Internet-Steckkarten, keine Internet-Netzwerkkabel und keine Internet-Anschlüsse. Stattdessen verwendet Internet immer vorhandene Netzwerktechniken, um vorhandene Rechnernetze untereinander zu vernetzen.

Es setzt voraus, daß schon irgendeine Form von nutzbarem Anschluß vorhanden ist und benutzt diesen dann, um ein lokales Netz in das weltumspannende Geflecht des Internet einzugliedern. Und da alle Hardware schon vorhanden ist, wird lediglich Software gebraucht, um diese Hardware die Sprache des Internet, das Internetwork Protocol (IP), zu lehren.

Da das Internet die unterschiedlichsten Netzwerke als Träger benutzen kann, wird im Internetwork Protocol ein großer Aufwand getrieben, die Unterschiede zwischen diesen Netzen für die Software und den Anwender, der sie letztendlich verwenden soll, zu verwischen. Als Internet-Anwender merkt man nichts davon, daß eine Netzwerkverbindung über ein halbes Dutzend unterschiedliche Netzwerke mit unterschiedlichen Eigenschaften geleitet wird. Jedes dieser Netzwerke hat seine ganz besonderen Eigenheiten wie besondere Formen der Adressierung, eine andere maximale Größe für Datenpakete oder eine andere Art, den Weg eines Datenpaketes durch das Netz festzulegen. Der Anwender braucht sich mit solchen Dingen nicht zu befassen, IP kümmert sich darum. So entsteht eine neue Abstraktionsebene: Weg vom konkreten Kabel, hin zu einer Netzwerkwolke, in der jeder mit jedem direkt Verbindung aufnehmen kann, wenn er möchte.

Eine andere Idee ist beim Internet ebenfalls neu: Bisher waren Rechnernetze immer so aufgebaut, daß man ein durchgehendes Kabel von einem Startrechner zum Zielrechner haben mußte. Internet führt in der Rechnerwelt das Prinzip des Individualverkehrs ein: Zwar existieren zwischen vielen Orten Netzwerkverbindungen wie Straßen in der wirklichen Welt, aber genau wie in der wirklichen Welt ist nicht jeder Ort mit jedem anderen direkt verbunden.

Daten werden jetzt nicht als ein durchgehender Datenstrom auf die Reise geschickt, sondern in kleinen Paketen, die dann wie Autos auf richtigen Straßen ihren Weg zum Ziel finden müssen. Und so wie jedes Auto seinen Weg unabhängig von den anderen Fahrzeugen vor und hinter ihm findet, so läuft auch jedes Datenpaket im Internet auf seinem eigenen Weg unabhängig von den anderen Datenpaketen. Eine bestimmte Datenverbindung kann dabei, wenn sie im Netz günstig liegt, von Datenpaketen mit den unterschiedlichsten Zielen gemeinsam genutzt werden. Das Bild von der Datenautobahn trägt hier viel weiter, als man auf den ersten Blick vermuten würde.

Vom Verhalten im Datenverkehr

Das Internet ist ein Netzwerk mit Geschichte. Es ist - von den allerersten Anfängen an gerechnet - über 25 Jahre alt. Im Verständnis von Informatikern wird ein solcher Zeitraum ähnlich betrachtet, wie bei normalen Menschen die frühe Kreidezeit. Den größten Teil dieser Zeit haben dabei Menschen mit akademischem Hintergrund das Netz und die Umgangsformen im Netz geprägt.

Die ursprünglichen Nutzer des Internet waren die Forscher, die das Netz gebaut haben. Sie haben es gebaut, um besser verstehen zu können, wie große Netzwerke von Computern funktionieren, die aus vielen Komponenten sehr unterschiedlicher Hersteller funktionieren. Man wollte untersuchen, wie sich Rechnernetze verhalten, wenn ihnen Überlastung, Störungen und die anderen, täglichen kleinen Problemchen den Betrieb beeinflussen. Doch aus dem reinen Forschungsgegenstand wurde für diese Menschen und die anderen in ihrem Umfeld schon bald ein unverzichtbares Mittel für ihre Arbeit und auch eine Methode, ihre Arbeit zu publizieren.

Vor diesem Hintergrund sind auch die Gebräuche und Kulturen im Internet entstanden. Ein wichtiger Gedanke ist zum Beispiel der Gedanke der Gegenseitigkeit: Für viele Benutzer sind die Dienste des Netzes und die Menschen, die ihnen dort draußen geholfen haben, ohne daß sie sich jemals begegnet sind, ein wichtiger Bestandteil ihrer Arbeit oder sogar ihrer Freizeit gewesen. Es ist üblich, sich bei “dem Netz” für die erhaltene Hilfe zu bedanken. Dieses Dankeschön besteht normalerweise darin, daß man irgendetwas für das Netz tut, zum Beispiel ein eigenes Programm zum Kopieren freigibt, einen Hilfetext schreibt oder ein anderes Angebot macht, das das Netz zu einem besseren und interessanteren Platz macht. Es kommt nicht darauf an, daß erhaltene Hilfe und Dankeschön in irgendeinem Verhältnis stehen oder etwas miteinander zu tun haben, sondern es kommt nur darauf an, irgendetwas zu tun. Dadurch, daß dies jeder tut, der Nutzen von der Gemeinschaft des Netzes hat, wird das Netz einfach wertvoller für alle.

Dieser Gedanke der Gegenseitigkeit und der Gemeinsamkeit zieht sich durch alle Ebenen des Netzes: Auf den unteren Ebenen des Netzes hilft man sich, indem man gegenseitig IP-Päckchen oder E-Mail weiterleitet, auf den höheren Ebenen der Interaktion stellt man die Ergebnisse seiner Arbeit zur Verfügung oder macht Hilfsprogramme und Werkzeuge verfügbar, die man im Laufe der Zeit entwickelt hat.

Ebenso tief verwurzelt ist die Idee der Rücksichtnahme: Jemand, der sich mit der Entwicklung von Netzwerktechniken beschäftigt, hat eine gute Vorstellung von dem Aufwand, den das Senden einer Mail oder das Laden eines großen Programmpaketes für alle beteiligten Komponenten des Netzes bedeutet. Er wird versuchen, durch sein Verhalten die Netzlast zu verringern: Er wird versuchen, ein benötigtes Programmpaket erst auf einem deutschen Server bekommen, bevor er einen aufwendigen USA-Transfer anstößt oder er wird fragen, ob der Empfänger eine bestimmtes größeres Dokument haben möchte (und in welchem Datenformat), anstatt es unaufgefordert zu versenden.

Und der dritte grundlegende Gedanke ist der der Freiheit von Information: Jeder darf im Netz alles anbieten. Diese Idee schlägt sich schon im Design der Diskussionsforen oder gar des Netzes selber nieder. Es gibt im Internet keine zentrale Netzwerkkoordination, die regulierend eingreifen kann und es gibt in den Diskussionsforen des USENET keinen Redakteur, der Veröffentlichungen in irgendeiner Form bewerten oder selektieren würde. Trotzdem herrschen im Netz keine chaotischen Zustände: Probleme werden durch die Erzeugung von sozialem Druck und durch die Vermittlung von Wissen um die Konsequenzen des eigenen Handelns gelöst, anstatt eine übergeordnete Kontrollinstanz zu bemühen.

Jemand, der zum Beispiel im Netz wiederholt defekte oder themenfremde Artikel in bestimmten Diskussionsgruppen im USENET veröffentlicht und dadurch den normalen Betrieb stört, wird von den anderen Diskussionsteilnehmern normalerweise durch eine private Nachricht darauf hingewiesen und ihm wird korrektes Verhalten erklärt oder ihm werden passendere Diskussionsgruppen empfohlen. Das ist einerseits konstruktives Verhalten, indem Alternativen vorgeschlagen werden, andererseits aber auch eine Strafe. Denn in einer Diskussionsgruppe, in der man vielen tausend Teilnehmern auf die Nerven fallen kann, kann schon die Verarbeitung der entsprechend vielen Ermahnung, die man bekommt, ein technisches Problem darstellen. Wer aufgrund seines unerwünschten Verhaltens auffällt, bekommt bald so viele hunderte oder tausende Nachrichten, daß er kaum noch Netzkapazität übrig hat, um zu stören.

Natürlich ist es nicht praktikabel, die akzeptablen Normen des Verhaltens jedesmal neu auszuhandeln. Daher hat man sich im Netz schon bald auf einen kleinsten gemeinsamen Nenner guten Verhaltens geeinigt und diesen in einem Text niedergelegt. Dieser Text, die “Network Etiquette” oder “Netiquette”, sagt eigentlich nichts besonderes aus: Jeder mit einem Funken gesundem Menschenverstand und ein wenig Wissen um die technischen Möglichkeiten und Zusammenhänge kann diese Regeln als vernünftig einsehen. Oder doch wenigstens einsehen, daß man für gewisse Dinge einfach irgendeine einheitliche Regel haben muß und daß man sich nun eben auf genau diese geeinigt hat. Insofern ist das USENET ein wunderbares Beispiel für die hypothetische Urgesellschaft, die die Philosophen immer so gerne bemühen, wenn sie den “Gesellschaftsvertrag” erklären wollen: Im Netz hat man sich in genau dieser Situation befunden und dieses Modell einmal durchgezogen.

Es gibt keine Exekutive im Netz, die die Einhaltung der Netiquette in irgendeiner Form überwachen würde und es gibt auch keine Legislative, die genau bemessene Strafen für Verstöße festsetzt. Jeder kann sich nach Belieben danebenbenehmen und ohne Strafe davonkommen, wenn er sein Verhalten vor dem Rest der Meute rechtfertigen kann und sein Verhalten in diesem speziellen Fall als tolerierbar angesehen wird. Auf der anderen Seite kann man aber auch schon für geringe Auffälligkeiten böse Briefe oder Massenmails bekommen, wenn man im Umgang mit seinem Publikum ungeschickt ist oder einfach seinen bösen Willen demonstriert. Trotzdem funktioniert dieses System im großen und ganzen nicht wesentlich besser oder schlechter, als das was offiziell in der Wirklichen Welt in Betrieb.

Was kann das Internet?

Als das Internet vornehmlich als Medium für akademische Kommunikation genutzt wurde, kam es nicht sehr darauf an, daß die Dienste mit einer hübschen oder leicht erlernbaren Oberfläche zur Verfügung gestellt wurden. Aus dieser Zeit stammen die meistens per Kommandozeile bedienbaren Programme, die die Basisdienste des Internet liefern. Diese Basisdienste sind Mail, das Versenden von elektronischen Briefen, News, das Versenden von öffentlichen Artikeln und FTP, die Übertragung und Veröffentlichung von Programmen und anderen Dateien.

Mittels elektronischer Post ist es möglich, Briefe oder längere Texte an einen Gesprächspartner zu versenden, der irgendwo anders im Netz angeschlossen ist. Die Zustellung der Mail erfolgt dabei, soweit technisch möglich, sofort. Ursprünglich war es dabei nur möglich, reine ASCII-Texte ohne besondere Formatierungen, Zeichensätze oder Bilder zu versenden - sogar das Verschicken von Nachrichten mit Umlauten funktionierte in der Regel nicht. Deswegen mußte man Programmdateien oder Dokumente aus Textverarbeitungen oder anderen Programmen vor dem Versand erst in eine spezielle Textform umcodieren. In dieser Form nimmt eine solche Datei zwar mehr Platz ein als vorher, enthält aber lediglich Zeichen, die auch in normalen Texte vorkommen. Auf diese Weise konnte die Datei auch per Mail verschickt werden. Der Empfänger mußte die empfangene Nachricht dann abspeichern und mit einem passenden Decodierprogramm wieder in eine Datei verwandeln.

Moderne Programme zur Handhabung von elektronic mail verwenden ein erweitertes Verfahren zum Verschicken von Nachrichten - MIME. Die Abkürzung steht für Multipurpose (oder Multimedia) Internet Mail Enhancements, also für multimediale Nachrichten. Wenn sowohl der Absender der Nachricht als auch der Empfänger Programme verwenden, die den MIME-Standard beherrschen, lassen sich aus unterschiedlichen Zeichensätzen, Bildern und Dateien zusammengesetzte Nachrichten verschicken, ohne daß man den umständlichen Weg der Codierung gehen muß. Zwar werden die Nachrichten noch immer für die Übermittlung in ein spezielles Format umgewandelt, aber dies geschicht automatisch und ohne daß Sender oder Empfänger etwas davon merken. Die folgende Abbildung zeigt eine solche Nachricht.

MIME-fähiges Mailprogramm unter Nextstep. Die gezeigte Nachricht enthält beigefügt das dritte Kapitel eines Buches und eine Sounddatei, die beide als Icon dargestellt werden können. Die Dateien können durch Mausklick geöffnet werden oder mit der Maus in einen Ordner auf der Festplatte fallengelassen werden.

Viele Personen erreichen: Listen und Diskussionsgruppen

Mails müssen nicht an einen einzelnen Empfänger zugestellt werden. Es ist möglich, Verteiler einzurichten und so eine Mail an einen ganzen Empfängerkreis zuzustellen. Oft kommt es vor, daß jemand auf seinem Rechner einen Verteiler von Personen mit gemeinsamen Interessen einrichtet und diesen dann für die allgemeine Benutzung freigibt. Eine Nachricht an einen solchen Verteiler geht dann an alle auf dem Verteiler eingeschriebenen Personen - die auf diese Nachricht dann wiederum mit einer Kopie an den Verteiler antworten.

Im Internet nennt man so einen Verteiler eine Mailing-List. Oft wird er gar nicht von einer Person manuell gewartet, sondern von einem Roboter gewartet, der natürlich ebenfalls per Mail erreichbar ist. Wenn man auf eine solche Mailing-List gesetzt werden möchte, sendet man eine Mail mit einem speziellen Kommando im Nachrichtentext (“subscribe” für “bestellen”) an diesen Roboter, woraufhin dieser einen in den Listenverteiler aufnimmt und einem auch gleich die Anleitungen und Hilfstexte für diese spezielle Liste zustellt. Solche Roboter haben meistens noch weitere Funktionen. Immer vorhanden ist ein Kommando zum Abbestellen der Liste und zum Anfordern von Hilfstexten. Weitere Kommandos, die bei fast allen automatischen Listen vorhanden sind, dienen zur Abfrage eines Archivs vorangegangener Nachrichten und um festzustellen, welche anderen Teilnehmer auf der Liste eingeschrieben sind. Einige sehr hoch entwickelte Listenroboter bieten zudem die Möglichkeit, sich die Nachrichten der Liste nicht sofort einzeln zusenden zu lassen, sondern einmal pro Tag eine Zusammenfassung (“Digest” genannt) zu bekommen. Für jemanden, der die Diskussionen dort eher lesend verfolgen möchte, ist dies die bequemere Möglichkeit.

Um an einer Mailing-List teilzunehmen, muß man selbst aktiv werden, d.h. eine Bestellung an den richtigen Wartungsroboter senden. Die Themen einer Liste sind meistens sehr genau definiert und relativ speziell. Außerdem fungiert derjenige Mensch, der die Liste ins Leben gerufen hat, meistens auch als Moderator der Diskussion. Das führt dazu, daß das Niveau der Diskussion auf einer solchen Liste in der Regel sehr hoch ist, während der Verkehr auf der Liste sich einigermaßen im Rahmen hält. Die Größe des Leserkreises einer Mailing-List kann sehr unterschiedlich sein: Manche Listen haben nur ein knappes halbes Dutzend Leser, andere haben weit über tausend eingeschriebene Empfänger. Ebenso variabel ist die Anzahl der Nachrichten, die man auf der Liste erwarten kann: Manche Listen sind über Monate hinweg tot und man hat schon vergessen, daß man sich dort auf den Verteiler hat setzen lassen. Andere Listen dagegen produzieren so viele Nachrichten, daß man sich ein spezielles Filterwerkzeug für den Posteingang wünscht, um diese Nachrichten automatisch in ein gesondertes Eingangsfach umsortieren zu lassen (Selbstverständlich gibt es solche Werkzeuge in Massen).

Die logische Weiterentwicklung von Mailing-Lists sind die USENET News. Die News sind ein System von vielen tausend, thematisch gegliederten und öffentlichen Diskussionsforen, in denen jeder Benutzer Nachrichten veröffentlichen kann, wenn er möchte. Anders als bei Mailinglisten sind Nachrichten in den News nicht an einen bestimmten Empfänger oder Verteiler gerichtet, sondern werden wie ein Leserbrief in einer Zeitung ungerichtet verteilt. Jeder, der die entsprechende Diskussionsgruppe anbestellt hat, kann die Nachricht lesen und darauf antworten. Die Antwort erfolgt entweder privat in einer Mail an den ursprünglichen Ersteller der Nachricht oder öffentlich in der Diskussionsgruppe, damit weitere Leser dazu Stellung nehmen können, wenn sie es wünschen. Tatsächlich kann man sich USENET News vorstellen wie eine Zeitung, die nur aus Leserbriefen besteht und die keinen Redakteur hat, der daraus eine Auswahl trifft - alles wird veröffentlicht.

Die Informationsflut: Kampf gegen das “Rauschen” des Netzes

Alles wird veröffentlicht - das bedeutet auch, daß man in den News in jeder Diskussionsgruppe mit einem gewissen “Rauschen” leben muß kann. Zwar sind die Gruppen thematisch untergliedert und der Name der Gruppe gibt auch Hinweise, worum es in dieser Diskussionsgruppe geht, aber trotzdem wird man in jeder Gruppe Texte finden, die dort nicht hingehören oder die einfach nicht interessant sind. Die Programme, die zum Lesen der News verwendet werden, müssen darauf Rücksicht nehmen: Sie müssen dem Leser Möglichkeiten geben, schnell und zielsicher diejenigen Artikel aus der Masse des Angebotes zu fischen, die ihn interessieren, ohne daß er mit für ihn nicht weiter interessanten Nachrichten Zeit verschwendet.

News sind wesentlich öffentlicher als Mailing-Lists: Die Leserschaft großer Gruppen rechnet sich nicht in Hunderten oder Tausenden, sondern bei den populären Gruppen bis knapp in den Millionenbereich. Ebenso ist in beliebten Gruppen das Nachrichtenaufkommen viel höher als in Mailing-Listen: Die am stärksten benutzte Gruppe des USENET hat im Juli 1995 23601 Artikel an ihre Leser befördert. Das sind 760 Nachrichten pro Tag! Nun ist besagte Gruppe, eine Tauschbörse für Sammelkarten und -bildchen, ein Extremfall und nicht einmal für andere belebte Gruppen repräsentativ. In normalen Diskussionsgruppen kann man mit 30 bis 150 Artikeln am Tag rechnen.

Trotzdem zeigt sich hier: Im Internet ist es nicht das Problem, an die gewünschten Informationen zu kommen, sondern ungewünschte Informationen nicht zu bekommen. Mit der Kommerzialisierung des Internet und der extremen Zunahme der Benutzerzahlen wird dies mehr als deutlich: In allen 8000 Gruppen des USENET beobachtet man seit einiger Zeit eine deutliche Zunahme von Artikeln, die parallel in sehr vielen Diskussionsforen veröffentlich werden und die in keinem dieser Foren eigentlich einen Platz haben. Eine solche Massenveröffentlichung hat im englischen USENET den passenden Namen “Spam” (“Sülze” wie in “jemanden zusülzen”) bekommen. Die Leserschaft im Netz beginnt erst jetzt damit, darauf zu reagieren und eine Art Bürgerwehr einzurichten (“public spam control”), deren Aufgabe es ist, solche Artikel zu löschen und die Gruppen so benutzbar zu halten.

Aber “spam” ist nur eines der Probleme von News und noch dazu eines, das technisch halbwegs in den Griff zu bekommen ist. Eine andere Art von typischen Artikeln erschwert das Lesen der News zusätzlich: Das Netz wächst zur Zeit so stark, daß täglich viele tausende Benutzer neu in das Netz kommen. Sie kennen die technischen Möglichkeiten des Netzes nicht und sie kennen die Regeln des Zusammenlebens im Netz nicht, die einen bestimmten Einsatz dieser Technik vorschreiben. Besonders auffällig in diesem Zusammenhang sind Online-Dienste wie America Online (AOL), Prodigy und Compuserve, die zum Teil Millionen Benutzer auf einmal mit unzureichender Ausbildung auf das Internet und die USENET-Diskussionsgruppen losgelassen haben.

So scheint den AOL-Mitgliedern zum Beispiel der Unterschied zwischen öffentlicher Antwort und privater Mail nicht geläufig zu sein: Wann immer jemand im Netz Daten zur Abholung anbietet, zieht sich hinter dieser Ankündigung ein Ratten-, nein Lemmingschwanz von zwei oder drei Dutzend Artikeln hinterher. Alle tragen die Absenderadresse von America Online und bestehen aus einer kompletten Wiederholung des Originaltextes, unter den fein saeuberlich die Worte “ME TOO” gesetzt worden sind. Eine derartige Reaktion ist inzwischen so typisch fuer AOL-Benutzer, daß ganze Witzsammlungen darüber existieren.

Das alles sind typische Probleme für ein Medium, dessen Teilnehmerzahl sich regulär in den letzten sechs Jahren alle neun Monate verdoppelt hat und das in Schüben (nämlich immer dann, wenn ein weiterer Online-Dienst mit einer knappen Million Benutzern und mehr sich auf das Internet schaltet) noch wesentlich schneller wächst. Wie kann man es schaffen, solche Massen von neuen Anwendern im Netz auszubilden und ihnen die Besonderheiten und Umgangsformen des Netzes beizubringen? Und das möglichst noch, ohne den normalen, produktiven Betrieb zu stören?

Häufig gestellte Fragen

Ein Mittel zur Ausbildung sind die Listen mit häufig gestellten Fragen. Die Teilnehmer an einer Newsgroup - egal welcher - beobachten im Laufe der Zeit unweigerlich, daß gewisse Fragen zu einem Thema immer wieder erneut auftauchen. Meisten sind dies auch noch Fragen, bei denen bei vielen Diskussionsteilnehmern ein gesundes Halbwissen besteht, sodaß dieselbe Diskussion alle halbe Jahr erneut losbricht. Um diese Wiederholungen zu vermeiden und wenigstens für einen etwas geregelten Diskussionsablauf in einer Newsgroup zu sorgen, erarbeiten sich die Teilnehmer der Newsgroup aus Notwehr meistens einen Katalog der “frequently asked questions” (abgekürzt: FAQ), der häufig gestellten Fragen und der Antworten dazu.

Dieser Text kann sehr unterschiedlich in der Länge und im Gehalt sein, aber meistens kommen durch die versammelte Wissensmenge einer Diskussionsgruppe und die anhaltende Verbesserung dieses Textes wirklich unentbehrliche Sammlungen zustande. Eine solche FAQ beschäftigt sich vor allen Dingen mit den praktischen Aspekten eines Themas und enthält meistens auch noch sehr komplette Sammlungen von Verweisen auf weitere Quellen. Wenn in der Diskussionsgruppe besondere Regeln gelten oder sich gar eine besondere Subkultur oder ein Slang entwickelt haben, wird dies in der FAQ ebenfalls dokumentiert. Solche Texte werden dann periodisch, meistens einmal im Monat, überarbeitet und dann in der entsprechenden Diskussionsgruppe veröffentlicht, um Neulinge auf den aktuellen Wissensstand der Gruppe zu bringen und sie mit den Besonderheiten der Gruppe vertraut zu machen.

Außerdem geht von jedem dieser Texte eine Kopie in die Gruppe mit dem Namen news.answers. In dieser Gruppe findet keine Diskussion statt. Stattdessen handelt es sich um einen Kanal, der alle FAQ-Texte, die im USENET veröffentlicht werden, bündelt und zur Archivierung bereitstellt. Wie man sich leicht vorstellen kann, kommen dabei gewaltige Datenmengen zusammen. Diese werden zum einen in öffentlich zugänglichen Archiven verfügbar gemacht (wie man da herankommt, steht selbstverständlich in einer FAQ…) oder auf vielen Internet CD-ROMs zusammen mit den Programmen zum Internet-Zugriff verbreitet.

Leider hilft das Bereitstellen von Lesestoff im Zeitalter des Fernsehens und der graphischen Benutzeroberflächen nur noch begrenzt. Und so kommt es, daß man im USENET immer häufiger Dialoge der Form “Wie kann ich …?” “RTFM! RTFFAQ!” beobachten kann.

Zwar sind News und Mail die optisch weniger ansprechenden Dienste des Internet, aber sie sind für den erfahrenen Netzanwender immer noch das primäre Mittel der Kommunikation, denn hier findet er nicht vorgefertigte Texte und Seiten zum Anklicken, sondern wirkliche Gesprächpartner mit ähnlichen Interessen und Problemen wie er selbst. Diese können ihm helfen, die Fragen und Probleme zu klären, die er bei seiner täglichen Arbeit hat - und das müssen beileibe keine Probleme sein, die mit Computern oder Technik zu tun haben.

Polydirektionalität: Verschwörung der Verbraucher?

Aber News und Mail als textbasierte Anwendungen sind nicht das Mittel, mit dem man kommerzielles Interesse am Netz weckt. Etwas, das das teuer von einer Werbeagentur eingekaufte Firmenlogo nicht darstellen kann und keine Hochglanzprospektabbildungen von Firmenprodukten zum Kunden schaffen kann, ist für eine Firma nicht brauchbar. Dazu kommt noch ein anderer Nachteil von News und Mail, der Firmen abschreckt: Firmen haben ein Interesse daran, mit ihren Kunden zu reden. Gute Firmen haben auch ein Interesse daran, daß Kunden mit ihnen reden können. Aber kaum eine Firma hat Interesse daran, daß Kunden ein Medium haben, untereinander über die Firma zu reden. Aber genau das ist in den Newsgroups oder Mailinglisten der Fall. Hier bildet sich eine Öffentlichkeit über eine Firma und deren Produkte, die sehr zahlreich und überregional ausgedehnt sein kann, die die Firma aber nicht direkt kontrollieren kann. Ein solches Medium nennt man polydirektional, weil hier eine Kommunikation zwischen vielen stattfinden kann. Der Umgang mit solchen polydirektionalen Medien ist für jemanden, der hier bestimmte Interessen verfolgt, sehr viel schwieriger als ein einer stärker kontrollierten Umgebung.

Ein sehr schönes Beispiel für die Probleme, die sich aus der Polydirektionalität für eine Firma ergeben können, stellt der sogenannte Pentium-FDIV-Fehler dar: Hier hatte sich eine solche unerwünschte Öffentlichkeit gebildet, als der berühmte Divisionsfehler im FDIV-Befehl des Pentium-Chips der Firma Intel entdeckt wurde. Die Mathematiker und Informatiker, die neue Erkenntnisse über den Fehler und seine Auswirkungen herausfanden, veröffentlichten Ihre Entdeckungen in den USENET News. Dort kam es auch sofort zu Diskussionen von besorgten Anwendern, die ihren defekten Pentium-Prozessor von Intel kostenlos getauscht haben wollten. Intel selbst weigerte sich und behauptete, der Fehler sei für die Mehrzahl der Anwender überhaupt nicht spürbar und ein Austausch sei deswegen nicht notwendig. Die Anwender schlossen sich aufgrund dieser Firmenpolitik im Netz zu einer Interessengemeinschaft zusammen und forderten gemeinschaftlich kostenlosen Austausch. Intel wurde letztendlich durch den im USENET erzeugten Druck dazu gezwungen, eine solche kostenlose Umtauschaktion einzuleiten. Die Pentium-Affäre hat aber noch andere, weiter reichende Auswirkungen auf die Firmenpolitik gehabt: Intel verfolgt inzwischen eine viel offenere Politik im Umgang mit Fehlern in ihren Prozessoren, in der Hoffnung, daß ein Kunde, der schon vorher weiß, welche Fehler das Produkt hat, sich nicht mehr beschweren kann. Im Nachhinein betrachtet fahren Firma und Kunden mit der neuen Politik viel besser als mit der alten, aber diese Lektion zu lernen war für die Firma Intel ein sehr schmerzhafter und nicht ganz billiger Prozeß.

WWW: WeltWeite Werbung?

Für das durchschnittliche Managment einer Firma ist ein polydirektionales Medium also nicht das, was wirklich gewünscht wird. Man möchte stattdessen lieber eine bidirektionale Kommunikation haben: Der Kunde soll jederzeit Produktinformationen über die Firma bekommen können und der Kunde soll sich Rat und Hilfe suchend an den Support der Firma wenden, anstatt sich in irgendwelchen Interessengruppen herumzutreiben. News und Mail leisten dies nicht. Etwas Neues mußte her und dieses Neue wurde mehr aus Zufall geschaffen. Physiker wollten eine Methode haben, ihre Forschungsinformationen im Netz der Netzgemeinde zu präsentieren. Da Zahlenreihen von Meßdaten aber von den meisten Leuten als ästhetisch unbefriedigend angesehen werden, muße eine Methode gefunden werden, Text und Graphik zu integrieren und mit einer ansprechenden Benutzungsoberfläche zu versehen. Es entstand das World Wide Web.

Wie alle genialen Ideen besteht auch WWW im Prinzip sehr einfachen Zutaten: Da ist zum einen eine einfache Seitenbeschreibungssprache, die es mit einem Mal erlaubt, nicht nur einfachen ASCII-Text zu übertragen, sondern auch die optisch ansprechende Gestaltung von Texten und sogar die Einbindung von Bildern, Tönen und Animationen zuläßt. Statt durch trockene und gleichförmige Zeichenströme eingeengt zu sein, hat der Autor eines Dokumentes nun auf einmal die Möglichkeit, seine Aussage mit allen Mitteln modernen Designs aufzubereiten. Dazu hat man einen Mechanismus geschaffen, der es erlaubt auf andere Texte, Dateien und Bilder zu verweisen. Ein Dokument steht nicht mehr alleine, sondern ist in einen Kontext eingebunden, der noch dazu mit einem einfachen Mausklick abgefragt werden. kann. Auf diese Weise werden alle diese Dokumente zu einem großen Netz, eben dem Web, zusammengebunden. Der Schlüssel zum Netz war für den Anwender aber schließlich die Idee, die Nutzung des World Wide Web und der klassischen Internet-Dienste in einem einzigen Programm, dem Browser, zusammenzufassen und diesen mit einer graphischen Benutzungsoberfläche auszustatten. Statt einer ganzen Horde kommandozeilengeprägter Werkzeuge aus der Computer-Steinzeit ist nur noch ein einziges Programm zu erlernen, das noch dazu über eine zeitgemäße graphische Benutzerführung und Onlinehilfe verfügt.

Die folgende Abbildung zeigt, wie der Abruf einer Informationsseite im Web abläuft: Das Browserprogramm läuft auf dem Rechner des Internet-Benutzers. Dieser äußert durch Mausklicks oder mit der Tastatur seine Wünsche, die vom Browser in eine Serveranfrage übersetzt werden. Über das Internet erreicht die Anfrage einen von vielen Servern im Netz. Der Server liefert auf Grund der Anfrage entweder einen vorbereiteten Text oder er reicht die Anfrage an ein Datenbankprogramm weiter, das auf Grund dieser Anfrage dynamisch ein Antwortdokument erzeugt. In jedem Fall wird die Anwort über das Internet wieder zum Browser zurückgesendet, der sie dem Benutzer graphisch aufbereitet darstellt. In der Abbildung erkennt man, wie aus der ungelenken Seitenbeschreibung, die der Server verwaltet, durch den Browser eine ansprechend aussehende Seite erzeugt wird.

Der Serverrechner stellt mit dem Programm httpd Daten im Netz bereit. Diese Daten liegen entweder als vorbereitete Dateien auf der Festplatte oder werden als Antwort auf eine Anfrage aus einer Datenbank berechnet. Die Darstellung der Daten übernimmt das Clientprogramm netscape. Es wandelt die Steueranweisungen der Seitenbeschreibungssprache HTML (links) in graphische Attribute und Querverbindungen (rechts) um.

Das WWW ist ein bidirektionales Medium: Der Abrufer einer Seite hat die Möglichkeit, sich die Seite anzusehen und - falls der Seitendesigner das vorgesehen hat - an jemanden privat zu antworten. Es ist möglich von einer eigenen Seite aus auf eine fremde Seite zu verweisen, aber es ist nicht möglich, eine fremde Seite um eigene Anmerkungen zu erweitern. Diese letzte Eigenschaft, die aus dem Web ein polydirektionales Medium machen würde, wenn sie vorhanden wäre, ist entscheidend für die kommerzielle Akzeptanz des Mediums: “Polydirektionaltät macht keinen Umsatz”.

Wer sich mit Netzwerken beschäftigt, dem wird dieses Konzept nicht ganz neu vorkommen. Immerhin versucht die Telekom, vormals Bundespost, schon seit Jahren etwas ganz ähnliches mit BTX zu etablieren. Während BTX aber trotz ähnlich bunter Oberflächen nicht so recht aus den Startlöchern kommen wollte, hat das Internet keine Schwierigkeiten damit, seine Teilnehmerzahlen wieder und wieder zu verdoppeln.

Warum ist das World Wide Web für Anwender und Anbieter ein interessanterer Dienst?

Ein sehr wichtiger Unterschied zwischen BTX und dem Internet ist, daß das Internet ein weltweites Netz ist, während BTX ein rein deutsches Netz darstellt, das nur wenige Übergänge zu anderen, ebenfalls nationalen Netzen hat. Ein Problem aller Computernetze ist besonders in der Anfangsphase, daß man bereits Nutzer haben muß, um neue Anbieter werben zu können und daß man bereits interessante Anbieter haben muß, um neue Nutzer für den Dienst interessieren zu können. Im Gegensatz zu BTX hat das Internet dieses Problem von vornherein nicht gehabt, weil die akademische Nutzerschicht einen Basispool von Nutzern als auch eine reiche von experimentellen, interessanten Anwendungen zur Verfügung gestellt hat.

Hinzukommt, daß es für jemanden, der Information bereitstellen möchte, in BTX ein sehr großer Schritt vom Anwender zum Anbieter ist. Seitenerstellung benötigt spezielle Werkzeuge, die gesondert gekauft werden müssen, wenn man seine Seiten nicht bei einer Agentur kommerziell erstellen lassen möchte. Im Internet dagegen genügt es im einfachsten Fall, einen simplen Texteditor zu verwenden, um ansprechende Seiten für das WWW erstellen zu können. Solches Arbeiten ist vielleicht unkomfortabel, aber immerhin kann man so ohne den geringsten Investitionsaufwand ausprobieren, ob und wie man Daten anbieten kann. Die Leichtigkeit des Einstiegs setzt sich später fort: Wenn man in BTX Seiten erstellt hat, muß man in BTX Anbieter werden. Wegen der starken Reglementierung von BTX ist dies administrativ und finanziell ein ziemlich aufwendiger Schritt. Im Internet dagegen bekommt man bei fast allen Internet-Anbietern mit seinem Zugang zum Internet auch einen gewissen Speicherplatz zur Verfügung gestellt, den man nutzen kann, wenn man eigene Daten anbieten möchte. Der Übergang vom reinen Nutzer zum Anbieter von Informationen ist im Internet als quasi nahtlos und damit viel leichter zu vollziehen.

Das Internet ist von je her ein Netz gewesen, dessen Werkzeuge und Programme sich nahtlos die Welt der PCs und deren Anwendungen integrieren. Werkzeuge für die Entwicklung von Seiten im World Wide Web, für den Datentransfer und für den Zugriff auf Information sind in Preis, Bedienung und Ressourcenverbrauch einer solchen Umgebung angemessen. Im Unterschied dazu hat die (damals noch) Bundespost mit BTX zunächst auf einen zentralen Großrechner und einen Haufen dummer Endgeräte gesetzt. Gerade diese Endgeräte, die ihre Abstammung aus dem Bereich der Telefonentwicklung nicht verleugnen konnten, waren ein Hindernis für BTX: Damals übliche Heim-PCs konnten die recht hohen graphischen Anforderungen von BTX nicht vollständig und schon gar nicht schnell realisieren und die klobigen Bundespost-Terminals waren für den Privatgebrauch zu teuer und integrierten sich zum Ausgleich dafür überhaupt nicht in die PC-Umgebung eines Büros.

Der Vergleich der deutschen Entwicklung BTX mit dessen scharfer Trennung zwischen Anwender/Konsument und Anbieter/Produzent und dem amerikanischen Internet mit dem fließenden Übergang zwischen beiden Formen der Netzteilnahme ist das Ergebnis stark unterschiedlicher Vorstellungen davon, wie die Netze von Morgen aussehen sollen: Das amerikanische Modell geht davon aus, daß eine günstige Infrastruktur von Datentransportwegen schon vorhanden ist oder wenigstens für wenig Geld schnell verfügbar gemacht werden kann. Das Schwergewicht der amerikanischen Netzdesigner liegt auf den Anwendungen, die geschaffen werden. Der Unterbau, schnelle Kabel und benötigte Eigenschaften der Netzwerkprotokolle, wird sich dann schon anpassen, wenn es notwendig ist. Auch lassen sich immer mehr Firmen in den USA auf das Abenteuer Polydirektionalität ein. Eine Firmenrepräsentation außerhalb der abgeschirmten Anzeigenwelt des WWW in einer wirklichen Diskussion mit den Kunden und der Kunden untereinander ist sicherlich nicht leicht zu kalkulieren, aber wenn sie gelingt, wird sie sicher positive Rückwirkungen auf die Struktur der Firma haben.

In Deutschland kommt die Debatte nicht so weit. Sie stoppt schon an der Diskussion um die nicht vorhandene Infrastruktur, den fehlenden, günstigen Datentransferdiensten. Zwar wäre die Technolgie zum Aufbau schneller Datennetze auch in Deutschland vorhanden, aber die vollkommen ungesunde Struktur des Telekommunikationswesens in Deutschland mit seinen künstlich hohen Preisen für Telekommunikationsdienstleistungen jeder Art schreckt vor allen Dingen die experimentierfreudigen, aber kapitalschwachen kleinen und mittleren Firmen ab. Diskutiert werden hauptsächlich medienwirksame Großprojekte, die sich um so aufregende Dinge wir interaktives Fernsehen oder Videoshopping drehen und die hauptsächlich als Ausrede für Beschaffung von Übertragungskapazität dienen. Kundeninteresse, das zeigen die bereits angelaufenen Pilotprojekte, ist bei diesen Dingen auf dem Markt der Heimanwender praktisch nicht vorhanden: Video on Demand gibt es bei Video Peter um die Ecke und interaktive TV-Romane kann man schon jetzt bei Nintendo kaufen. Und als kommerzielle Anwendung wird in jedem einzelnen Bericht über diese Pilotprojekte die vielbeschworene Telemedizin bemüht - andere Anwendungen scheinen auch den bemühtesten Werbetextern für diese Zukunft nicht einzufallen. Polydirektionalität, diese ganz entscheidende Eigenschaft des Internet, ist für ein deutsches Managment viel zu aufregend und unter allen Umständen zu vermeiden.

Share
Next Post
Samba