vorheriges KapitelInhaltsverzeichnisStichwortverzeichnisnächstes Kapitel



3

Die Geburt eines Netzwerks: Das Internet

Dieses Kapitel gibt einen Überblick über die frühe Geschichte des Internet. Wenn Sie sie schon kennen, können Sie dieses Kapitel gerne überschlagen.

3.1 Die Anfänge: 1962 bis 1969

Unser Schauplatz sind die frühen 60er Jahre - 1962, um genau zu sein. Jack Kennedy saß im Weißen Haus, die Beatles hatten gerade ihre erste Hit-Single aufgenommen (Love me do) und Christa Speck, eine umwerfende Brünette aus Deutschland, wurde Playmate des Jahres. Das amerikanische Volk genoß eine Ära des Wohlstands. Andernorts jedoch verbreitete sich der Kommunismus und mit ihm kamen Waffen mit schrecklichem Zerstörungspotential.

In der Erwartung eines Atomkriegs beauftragte die Luftwaffe der Vereinigten Staaten eine kleine Gruppe von Forschern mit einer ungeheuren Aufgabe: sie sollten ein Kommunikationsnetzwerk schaffen, das einen nuklearen Angriff überleben könnte. Ihr Konzept war revolutionär: ein Netzwerk, das nicht zentral kontrolliert wurde. Wenn einer (oder 10 oder 100) seiner Knotenpunkte zerstört würden, sollte das System trotzdem weiterlaufen. Dieses Netzwerk (ausschließlich für militärische Zwecke geplant) würde selbst die Apokalypse überleben (wenn auch wir nicht).

Der für die Existenz des Internet Hauptverantwortliche ist Paul Baran. Im Jahr 1962 arbeitete Baran bei der Rand Corporation, der »Denkfabrik«, die mit der Entwicklung dieses Konzepts beauftragt wurde. Baran stellte sich ein Netzwerk vor, in dem alle Rechner miteinander kommunizieren könnten. Dies war ein radikales Konzept, das jegliche Konventionen brach. Baran war sich einfach bewußt, daß zentralisierte Netzwerke zu verwundbar gegen Angriffe waren. In seinem heute berühmten Memorandum On Distributed Communications: I. Introduction to Distributed Communications Network schrieb er:

Das zentralisierte Netzwerk ist offensichtlich verwundbar, da die Zerstörung eines einzelnen zentralen Knotenpunkts ausreicht, um die Kommunikation zwischen den Endgeräten zu zerstören.

Verweis:

Die Rand Corporation hat dieses Memorandum und den Bericht von Baran im World Wide Web zur Verfügung gestellt. Sie finden die Dokumente unter: http://www.rand.org/publications/electronic/.

Baran bezog sich damit auf die Art und Weise, in der die meisten Computernetzwerke verbunden waren. In der alten Zeit verließen sich Netzwerke auf Großrechner. Diese waren große, mächtige Maschinen, die zentrale Informationen beinhalteten. Anwender konnten auf diese Informationen über Terminals zugreifen, die direkt mit dem Großrechner verkabelt waren. Daten reisten vom Terminal durch das Kabel in den Großrechner. Der Großrechner verteilte die Daten dann an andere Terminals. Dies war eine sehr wirksame Methode für ein Netzwerk, konnte aber verheerende Auswirkungen in bezug auf die Sicherheit der Daten haben. Zum Beispiel konnten die Terminals nicht direkt miteinander kommunizieren. Wenn der Großrechner zerstört werden würde, wäre daher das gesamte Netzwerk unbrauchbar. Dies stellte ein erhebliches Risiko für unsere nationalen Netze dar.

Baran hatte eine einfache Lösung: ein Netzwerk, in dem alle Beteiligten untereinander kommunizieren könnten. In vielen Punkten ähnelte dieser Ansatz dem Konzept des nationalen Telefonnetzes. Baran erklärte:

In der Praxis wird eine Mischung aus stern- und spinnwebförmigen Komponenten benutzt, um Kommunikationsnetzwerke zu bilden. Solch ein Netzwerk wird manchmal ein »dezentralisiertes« Netzwerk genannt, da es sich nicht immer nur auf einen einzelnen Punkt verlassen muß.

Barans Ausarbeitung war gründlich, bis hin zu Routing-Konventionen. Er stellte sich ein System vor, in dem Daten ihren eigenen Weg dynamisch bestimmen konnten. Wenn z.B. die Daten an irgendeinem Punkt des Netzwerks auf ein Problem treffen würden, würden sie einen anderen Weg nehmen. Dieses System basierte auf gewissen Regeln. Zum Beispiel würde ein Netzwerkknoten eine Nachricht nur dann akzeptieren, wenn er genügend Speicherplatz zur Verfügung hätte. Wären zu einem Zeitpunkt alle Leitungen besetzt, würde die Nachricht warten, bis ein neuer Weg vorhanden wäre. Auf diese Art und Weise würde das Netzwerk für intelligenten Datenaustausch sorgen. Baran stellte noch andere Aspekte des Netzwerks detailliert dar, u.a.:

Leider waren Barans Ideen ihrer Zeit einen guten Schritt voraus. Das Pentagon setzte wenig Vertrauen in derart radikale Konzepte. Baran lieferte den Offiziellen der Verteidigungsbehörde einen elfbändigen Bericht, der sofort ad acta gelegt wurde. Wie sich herausstellte, verzögerte die Kurzsichtigkeit des Pentagons die Geburt des Internet, aber nicht sehr lang. 1965 wurde das Projekt wieder gestartet. Gelder wurden verteilt, um ein dezentralisiertes Computernetzwerk zu entwikkeln, und im Jahr 1969 wurde dieses Netzwerk Realität. Das System hieß ARPANET.

Für heutige Begriffe war das ARPANET sehr einfach gestrickt. Es vernetzte die Computer von vier amerikanischen Forschungseinrichtungen (das Stanford Research Institute, die University of Utah, die University of California in Los Angeles und die University of California in Santa Barbara).

Einer der Computer war ein DEC PDP-10. Diese alten Monster sind heutzutage eher als Möbelstück denn als Computer zunutze. Ich erwähne den DEC PDP-10 hier jedoch kurz, um eine andere Legende der Computergeschichte erzählen zu können.

Es war ungefähr um diese Zeit, daß ein in Seattle, Washington ansässiges Unternehmen damit begann, Computer-Sharing anzubieten, d.h. sie vermieteten CPU-Zeit an Kunden aus der Wirtschaft, die in der Regel pro Stunde abgerechnet wurde. Das Unternehmen stellte zwei intelligente junge Männer zum Testen von Software ein. Für ihre Dienste erhielten die Jungen freien Netzzugang zu einem PDP-10 (heute würde dies dem freien Zugang zu einem Mailbox-System entsprechen). Zum Leidwesen der Jungen ging das Unternehmen bald Pleite, aber die gemachten Erfahrungen sollten ihr Leben ändern. Zu jener Zeit gingen sie gerade auf das Gymnasium, heute sind sie in den Vierzigern. Na, wissen Sie, von wem hier die Rede ist? Die zwei Jungen waren Bill Gates und Paul Allen.

Für die damalige Zeit allerdings war die Verbindung dieser Computer über das Telefonnetz eine geradezu unglaubliche Leistung. Die anfängliche Euphorie über die Entwicklung des ARPANETs ging allerdings schnell verloren, als die Ingenieure realisierten, daß sie einige ernsthafte Probleme hatten. Ein Problem war folgendes: Sie hatten kein Betriebssystem, das dazu geeignet war, das von Baran anvisierte umfangreiche Netzwerk zu schaffen.

Der Zufall sollte jetzt eine große Rolle spielen. An einem anderen Ort der Vereinigten Staaten entwickelten Forscher zur gleichen Zeit ein obskures Betriebssystem, das die Welt auf ewig ändern sollte. Das Betriebssystem hieß Unix.

3.2 Unix wird geboren: 1969 bis 1973

1969 (im gleichen Jahr, in dem das ARPANET ins Leben gerufen wurde) entwikkelte Ken Thompson von den Bell Labs (zusammen mit Dennis Ritchie und Joseph Ossanna) die erste Version von Unix. Die Software war hausgemacht, von Thompson selbst geschrieben und lief auf einem DEC PDP-7.

Das Unix-System von Thompson trug keine Ähnlichkeit mit dem modernen Unix. Zum Beispiel ist das heutige Unix ein Multi-User-System. (Mit anderen Worten können heute mehrere Anwender gleichzeitig an einer einzigen Unix-Maschine arbeiten.) Im Gegensatz dazu war Thompsons erster Prototyp ein Single-User-System und ein recht rudimentäres dazu. Vielleicht sollte ich den Begriff rudimentär erklären:

Wenn Sie an ein Betriebssystem denken, stellen Sie sich vermutlich ein Programm vor, das grundlegende Utilities, Texteditoren, Hilfedateien, ein Window-System, Netzwerktools etc. beinhaltet. Das ist so, weil heute Endanwendersysteme sehr komplex und benutzerfreundlich sind. Das erste Unix-System entsprach dem überhaupt nicht. Statt dessen beinhaltete es nur die allernötigsten Utilities, um überhaupt laufen zu können. Versetzen Sie sich einen Moment in die Lage von Ken Thompson. Bevor Sie Dutzende der soeben erwähnten komplexen Programme erstellen können, stehen Sie erst einmal vor einer viel praktischeren Aufgabe: Sie müssen das System erst einmal gestartet bekommen (booten).

Thompson schaffte es schließlich tatsächlich, daß sein Unix-System bootete. Bis dahin allerdings traf er auf viele Probleme. Eines davon war, daß die von ihm benutzte Programmiersprache sich nicht sehr gut für diese Aufgabe eignete. Und noch einmal sollte der Zufall eine große Rolle spielen. Etwa zur gleichen Zeit entwickelten andere Forscher von den Bell Labs (Dennis Ritchie und Brian Kernighan) eine neue Programmiersprache namens C.

3.2.1 Die Programmiersprache C

C wird häufig für das Programmieren von Sprach-Compilern und Betriebssystemen benutzt. Ich gehe hier auf C ein, weil es erheblichen Einfluß auf die Entwicklung des Internet hatte.

Heute werden fast alle Applikationen zur Vereinfachung der Kommunikation über das Internet in C geschrieben. In der Tat wurden sowohl das Betriebssystem Unix (das die grundlegende Struktur des Internet formt) als auch TCP/IP (die Protokollfamilie, die den Datenverkehr über das Netz steuert) in C entwickelt. Ohne C wäre das Internet in seiner heutigen Form gar nicht existent.

Die Beliebtheit von C basiert auf mehreren Faktoren:

Allerdings war den Forschern der Bell Labs nur der erste der o.g. Faktoren bewußt, als sie beschlossen, Unix in C neu zu schreiben. Thompson und Ritchie portierten Unix auf einen DEC PDP-11/20 und entwickelten es erheblich weiter. Zwischen 1970 und 1973 wurde Unix komplett neu in C geschrieben. Dies führte zu einer erheblichen Verbesserung und eliminierte viele Fehler des ersten Unix-Systems.

3.3 Die prägenden Jahre des Internet: 1972 bis 1975

Ich komme jetzt kurz von der weiteren Entwicklung von Unix und C ab, da zwischen 1972 und 1975 Fortschritte auf anderen Gebieten gemacht wurden. Diese Fortschritte sollten großen Einfluß darauf haben, wie und warum Unix als Betriebssystem für das Internet gewählt wurde.

Im Jahr 1972 umfaßte das ARPANET etwa 40 Hosts. In diesem Jahr erfand Ray Tomlinson, ein Angestellter von Bolt, Beranek and Newman, Inc., die E-Mail, eine bahnbrechende Entwicklung für die Kommunikation über das Internet.

Tomlinsons Erfindung war wohl die wichtigste Innovation des Jahrzehnts im Computerbereich. E-Mail ermöglichte einfache, effektive und billige Kommunikation. Dies führte zu offenem Gedankenaustausch und länderübergreifender Zusammenarbeit zwischen Wissenschaftlern. Durch die Möglichkeit, eine E-Mail-Nachricht an mehrere Empfänger zu senden, konnten Ideen schneller realisiert werden. Von diesem Zeitpunkt an lebte das Netzwerk.

Eine andere Schlüsselerfindung wurde 1974 gemacht: Vinton Cerf und Robert Khan erfanden das Transmission Control Protocol (TCP). Dieses Protokoll war eine neue Methode, Daten zerstückelt über das Netzwerk zu bewegen und diese Bruchstücke am anderen Ende wieder zusammenzusetzen.

Hinweis:

TCP ist das wichtigste Protokoll, das heute im Internet benutzt wird. Es wurde in den frühen 70er Jahren entwickelt und schließlich in Berkeley Software Distribution's Unix integriert. Seitdem ist es zu einem Internet-Standard geworden. Heute läuft auf fast allen mit dem Internet verbundenen Rechnern irgendeine Form von TCP.

Zum Jahr 1975 war das ARPANET ein vollständig funktionierendes Netzwerk. Die Basisarbeit war getan und nun war es an der Zeit, daß die US-Regierung es für sich in Anspruch nahm. In diesem Jahr wurde die Kontrolle über das ARPANET an die damalige United States Defense Communication Agency (später Defense Information Systems Agency) übergeben.

Eine noch verbleibende Aufgabe war die Auswahl eines offiziellen Betriebssystems für das ARPANET. Die Gründe für die Wahl von Unix waren vielfältig. Im nächsten Abschnitt werde ich diese Gründe ausführlich erklären.

3.3.1 Unix wird reif

Zwischen 1974 und 1980 wurde der Unix-Source-Code an Universitäten im ganzen Land verteilt. Dies war einer der Hauptgründe für den großen Erfolg des Betriebssystems.

Erstens fand die akademische Welt sofort Gefallen an Unix. Daher wurde es in vielen Übungen während des Unterrichts eingesetzt. Dies hatte einen direkten Einfluß auf die Wirtschaft. Mike Loukides, Redakteur für O'Reilly & Associates und ein Unix-Guru, erklärte:

Schulen brachten eine Menge sehr fähiger Computeranwender (und Systemprogrammierer) hervor, die Unix schon kannten. Daher konnte man fertige Programmierer »kaufen« und mußte sie nicht erst in die Schwierigkeiten eines unbekannten Betriebssystems einarbeiten.

Die Universitäten erhielten den Unix-Source-Code kostenlos und damit wurde auch den Studenten die Möglichkeit eröffnet, Unix für ihre Entwicklungen zu benutzen. Dies führte dazu, daß Unix auch auf andere Rechner portiert wurde, was die Basis der Unix-Anwender nur vergrößerte.

Hinweis:

Weil der Unix-Source-Code weithin bekannt und verfügbar ist, werden auch mehr Fehler in der Sicherheitsstruktur des Systems bekannt. Im Gegensatz dazu stehen proprietäre Systeme, deren Hersteller meist nicht bereit sind, Source-Codes zu offenbaren und damit viele Fragen in bezug auf ihre Sicherheit offen lassen.

Unix gewann weiterhin an Beliebtheit, und im Jahr 1978 beschloß AT&T, ein Geschäft aus dem Betriebssystem zu machen und Lizenzgebühren zu verlangen. Dies hatte einige Veränderungen in der Computerwelt zur Folge. In einem erstaunlichen Versuch, kreative Unabhängigkeit zu bewahren, schuf die University of California in Berkeley ihre eigene Unix- Version, die vielen modernen kommerziellen Unix-Versionen zugrundeliegt.

Unix wurde aus mehreren Gründen gewählt, u.a.:

3.3.2 Unix und das Internet entwickeln sich gemeinsam weiter

Nachdem Unix als Betriebssystem für das Internet bestimmt war, wurden Fortschritte in Unix in das Design des Internet integriert, d.h. seit 1975 entwickelten sich Unix und das Internet gemeinsam weiter. Seit dieser Zeit haben viele große Software- und Hardwarehersteller ihre eigenen Unix-Versionen auf den Markt gebracht. Die populärsten Unix-Versionen werden in Tabelle 3.1 aufgelistet.

Tabelle 3.1: Unix-Versionen und ihre Hersteller

Unix-Version

Hersteller

SunOS & Solaris

Sun Microsystems

HP-UX

Hewlett-Packard

AIX

IBM

IRIX

Silicon Graphics (SGI)

Digital Unix

Digital Equipment Corporation (DEC)

Viele dieser Unix-Versionen laufen auf High-Performance-Rechnern, sogenannten Workstations. Workstations unterscheiden sich in vielen Punkten von PCs. Erstens enthalten Workstations hochwertigere Hardware und sind daher teurer. Was unter anderem auch daran liegt, daß sie nur in limitierter Anzahl produziert werden. Im Gegensatz dazu werden PCs serienmäßig gefertigt, und Hersteller suchen immer wieder neue Wege, um Kosten zu senken. Ein Verbraucher, der eine neue PC-Platine kauft, geht deshalb ein wesentlich höheres Risiko ein, fehlerhafte Hardware zu bekommen. Außerdem sind Workstations in der Regel auch technisch dem PC weit überlegen. Zum Beispiel gehörten schon 1989 integrierter Sound, Ethernet und SCSI zur Standardausrüstung einer Workstation. ISDN beispielsweise wurde bereits kurz nach seiner Entwicklung in Workstations integriert.

Hinweis:

Technische Vorteile einer Workstation sind nicht immer auf den ersten Blick erkennbar. Zum Beispiel haben viele Workstations einen extrem hohen Durchsatz, der sich in superschnellen Netzwerkverbindungen und erstklassiger Grafik-Performance äußert. Tatsächlich produzieren SGI und Sun jetzt Rechner, die einen geradezu absurden Durchsatz haben und Hunderte von Gigabyte pro Sekunde verarbeiten.

High-End-Performance kommt Sie teuer zu stehen. Workstations machen Sie um einen 5- oder 6stelligen Betrag ärmer. Für den gewöhnlichen Anwender sind derartige Maschinen natürlich unerschwinglich. Im Gegensatz dazu sind PC-Hardware und -Software billig, leicht erhältlich, einfach zu konfigurieren und weit verbreitet.

Die meisten Unix-Workstations werden für sehr spezielle Aufgaben hergestellt. Für Silicon- Graphics-Workstations wird beipielsweise spezielle Hardware eingesetzt, um unglaubliche Grafiken zu erzeugen. Diese Rechner werden in der Filmindustrie eingesetzt.

Hinweis:

Wahrscheinlich haben Sie schon Grafiken in SGI-Qualität gesehen. SGI Rechner wurden für die Erstellung der Spezialeffekte vieler Kinofilme benutzt, u.a. Jurassic Park und Die Maske. SGI ist jedoch nicht die einzige Unix-Plattform, die für Präzisionsgrafiken zum Einsatz kommt. Linux wird ebenfalls für diesen Zweck benutzt. (Digital Domain, ein berühmtes Unternehmen für Spezialeffekte, benutzte RedHat-Linux, um James Camerons »Titanic« zu versenken.)

Uns interessiert jetzt jedoch nur Unix, da es in einem starken Bezug zum Internet steht. Da die Entwicklung des Internet von seiten der US-Regierung Unix integrierte, enthält Unix die Grundbausteine des Netzes. Kein anderes Betriebssystem wurde jemals so sehr darauf ausgerichtet, im Internet eingesetzt zu werden.

Werfen wir einen kurzen Blick auf Unix, bevor wir fortfahren.

3.3.3 Die grundlegenden Merkmale von Unix

Das heutige Unix läuft auf verschiedener Hardware, einschließlich IBM-kompatiblen und Macintosh-Rechnern. Die Installation unterscheidet sich wenig von der Installation anderer Betriebssysteme. Die meisten Anwender liefern eine CD-ROM. Auf Workstations wird die Installation durch Booten von einer CD-ROM durchgeführt. Normalerweise entscheiden Sie zunächst über eine Reihe von Optionen, beendet wird die Installation automatisch. Für andere Hardware-Plattformen erhalten Sie in der Regel neben der CD-ROM eine Boot-Diskette, über die ein kleines Installationsprogramm in den Speicher geladen wird.

Ein Unix-System zu starten ist dem Booten anderer Systeme ebenfalls sehr ähnlich. Während des Booting-Vorgangs werden alle vorhandenen Hardware-Komponenten diagnostiziert, der Speicher überprüft und die nötigsten Systemprozesse gestartet. In Unix werden einige der gängigen Systemprozesse beim Booten gestartet, u.a.:

Nach dem Booten erscheint ein Login-Prompt, das Sie zur Eingabe Ihres Benutzernamens und -Paßworts auffordert. Wenn das Einloggen beendet ist, erreichen Sie die Shell.

Hinweis:

Die Shell ist eine Umgebung, in der Befehle eingegeben und ausgeführt werden können. Ein Shell-Interpreter übersetzt diese Befehle dann in Maschinensprache, damit sie ausgeführt werden können. In MS-DOS ist die Shell z.B. COMMAND.COM. Der Anwender kommuniziert mit der Shell, indem er Befehle eintippt (z.B. den Befehl DIR zur Auflistung von Directories). In dieser Hinsicht ähnelt Unix MS-DOS, zumindest was die äußere Erscheinung betrifft. Alle Befehle werden über die Shell eingegeben. Die Resultate dieser Befehle erscheinen auf dem Monitor, es sei denn, Sie geben etwas anderes an.

Die Navigation durch die Verzeichnisse (»Directories«) wird auf ähnliche Weise durchgeführt wie die Navigation in einem DOS-System. DOS-Anwender können ein Unix-System leicht navigieren, indem sie die Umwandlungsinformationen in Tabelle 3.2 benutzen. Die Unix-Befehle, die hier aufgelistet sind, führen zu den gleichen oder sehr ähnlichen Ergebnissen wie ihre Entsprechungen in DOS.

Tabelle 3.2: Umwandlungstabelle für Befehle: Unix zu DOS

DOS-Befehl

Unix-Befehl

cd \<directory>

cd /<directory>

dir

ls -l

dir \directory

ls /directory

dir /w

ls

chkdsk drive

fsck drive/partition

copy filename1 filename2

cp filename1 filename2

edit filename

vi filename, ex filename

fc filename1 filename2

diff filename1 filename2

find text_string

grep text_string

format drive

format drive/partition

mem/c|more

more /proc/meminfo

move filename1 filename2

mv filename1 filename2

sort filename

sort filename

type filename|more

more filename

help <command>

man <command>

edit

vi

Wegweiser:

Um mehr über grundlegende Unix-Befehle zu erfahren, gehen Sie zu http:/ /www.geek-girl.com/Unixhelp/. Dieses Archiv bietet eine umfassende Sammlung von Informationen über Unix. Als gute Dokumentation über Unix empfehle ich Unix Unleashed, ein Buch, das viele hilfreiche Tips und Tricks zum Umgang mit diesem beliebten Betriebssystem liefert.

3.3.4 Das X Window System

Unix unterstützt auch mehrere Windowing(Fenster-basierte)-Systeme, von denen das populärste das X Window System vom Massachusetts Institute of Technology (MIT) ist. Wann immer ich mich in diesem Buch auf das X Window System beziehe, werde ich es als X bezeichnen. Ich werde X hier kurz beschreiben, da Sie für einige Abschnitte dieses Buches wissen müssen, was es ist.

Im Jahr 1984 gründeten Forscher am MIT das Projekt Athena, dessen Hintergrund die Entwicklung einer grafischen Schnittstelle war, die auf Workstations oder in Netzwerken unterschiedlicher Art laufen würde. In frühen Phasen der Forschung zu X wurde sofort klar, daß X Hardware-unabhängig sein müsse, um diese Aufgabe zu erfüllen. Ebenso mußte es transparenten Netzwerkzugang zur Verfügung stellen. Daher wurde X nicht nur als ein Window- System, sondern auch als ein auf das Client-/Server-Modell basierendes Netzwerk-Protokoll entwickelt.

X wurde von Robert Scheifler und Ron Newman, beide vom MIT, und Jim Gettys von DEC entwickelt. X unterscheidet sich erheblich von anderen Windowing-Systemen (z.B. Microsoft Windows), auch in Hinsicht auf das Anwender-Interface. Dieser Unterschied basiert hauptsächlich auf einem Konzept, das als »Werkzeugbank«- oder »Werkzeugkasten«-Funktion bezeichnet wird. Das heißt, X läßt Sie jeden Aspekt seines Verhaltens durch ein umfangreiches Sortiment von Programmierhilfen kontrollieren.

Generell stellt X hochauflösende Grafiken über Netzwerkverbindungen mit hoher Geschwindigkeit und hohem Durchsatz zur Verfügung. Kurz, X baut auf die modernste zur Zeit verfügbare Window-Technologie auf. Einige Anwender werten die Komplexität von X als einen Nachteil und haben wahrscheinlich recht. Es gibt einfach so viele Optionen, von denen der normale Anwender sehr schnell überwältigt werden kann.

Wegweiser:

Leser, die mehr über X wissen wollen, sollten die Website des X Consortiums besuchen. Das X Consortium besteht aus den Autoren von X. Diese Gruppe setzt und verbessert immer wieder Standards für das X Window System. Die Website finden Sie unter http://www.x.org/.

Hinweis:

Bestimmte X-Versionen können auch auf IBM-kompatiblen Rechnern in einer DOS-/Windows-Umgebung laufen.

Mit Microsoft Windows vertraute Anwender werden die Arbeitsweise von X besser verstehen, wenn Sie sie mit der Beziehung zwischen DOS und Microsoft Windows 3.11 vergleichen. Das grundlegende Unix-System ist als Befehlszeilen-Interface immer vorhanden und bleibt aktiv und zugänglich, auch wenn der Anwender die X-Umgebung benutzt. X läuft insofern über dem zugrundeliegenden Unix-System. In der X-Umgebung kann ein Anwender über ein Shell-Fenster auf den Unix-Befehlszeilen-Interface zugreifen. (Dies scheint zumindest ebenso zu funktionieren wie in Microsoft Windows, in dem ein MS-DOS-Eingabefenster verfügbar ist.) Von diesem Shell-Fenster aus kann der Anwender Befehle ausführen und den Arbeitsablauf von Systemprozessen beobachten.

Das X Window System wird mit dem folgenden Befehl gestartet:

startx

X ermöglicht das Benutzen einer ganzen Reihe von Window-Managern. Jeder dieser Manager schaut anders aus und wirkt anders. Einige (wie twm) wirken recht nackt und technisch, während andere durchaus attraktiv und sehr modern sind. Es gibt sogar einen X-Window- Manager, der dem Windows-95-Look nacheifert. Andere Plattformen werden ebenso nachgebildet, z.B. das NeXT Window System und das Amiga Workbench-System.

Zusammengefaßt ist X eine mächtige Windowing-Umgebung.

3.3.5 Applikationen unter Unix

Unter Unix können viele verschiedene Applikationen laufen. Einige sind leistungsstarke Programme, die für wissenschaftliche Forschungsarbeiten und im Bereich künstliche Intelligenz benutzt werden. Aber nicht alle Unix-Applikationen sind derart spezialisiert. Populäre, kommerzielle Applikationen können ebenfalls unter Unix laufen, z.B. Adobe PhotoShop, Corel WordPerfect und andere Programme, die üblicherweise mit dem PC in Verbindung gebracht werden.

Insgesamt gesehen ist das moderne Unix wie jede andere Plattform. Window-Systeme werden üblicherweise mit einer ganzen Reihe integrierter Applikationen geliefert, u.a. Datei- Manager, Text-Editoren, Mail-Programmen, Uhren, Kalender, Taschenrechner und das andere bekannte Zubehör.

Eine große Sammlung von Multimedia-Software kann unter Unix benutzt werden, dazu gehören Film-Wiedergabe-Utilities, Audio-CD-Utilities, Aufnahmeprogramme für digitalen Sound, Zwei-Wege-Kamera-Systeme, Multimedia-Mail und andere unterhaltsame Dinge. Im Grunde genommen gibt es nichts, das nicht für Unix geschrieben wurde.

3.3.6 Unix und Internet-Sicherheit

Unix-Sicherheit ist ein komplexes Feld. Manche Leute behaupten, daß Unix sehr widersprüchlich ist, da genau die Aspekte, die Unix zu einer hervorragenden Server-Plattform machen, es gleichzeitig auch verwundbar gegenüber Angriffen werden lassen. Unix wurde als ultimatives Betriebssystem für Netzwerke entwickelt, das es seinem Benutzer ermöglicht, praktisch jede Applikation aus der Ferne auf einfache Art und Weise zu bedienen. (Unix bietet z.B. die Möglichkeit, von einem Rechner aus Operationen auf einem ganz anderen Rechner durchzuführen, auch wenn die beteiligten Rechner Tausende von Kilometern voneinander entfernt sind.) Deshalb akzeptieren Unix-Remote-Dienste standardmäßig Verbindungen aus der ganzen Welt.

Zudem ist Unix ein offenes System, dessen Code öffentlich verfügbar ist. So können sowohl Forscher als auch Computerkriminelle, Cracker und andere Bösewichte Schwachstellen aufdecken. Unix ist jedoch ein reifes Betriebssystem und über die Jahre wurden viele Fortschritte in bezug auf seine Sicherheit gemacht, u.a.:

Unix wird deshalb in vielen Bereichen eingesetzt, die Sicherheit erfordern. Es gibt Hunderte von Programmen auf dem Markt, die die Sicherheit eines Unix-Systems verstärken. Viele dieser Tools sind kostenlos im Internet erhältlich. Diese Tools können in drei grundlegende Kategorien eingestuft werden:

Sicherheitsüberwachungs-Tools sind Programme, die automatisch Sicherheitslöcher in Systemen entdecken können. Sie überprüfen bekannte Schwachstellen und gängige Fehlkonfigurationen, die zu Sicherheitslöchern führen können. Derartige Programme sind für weitreichende Netzwerkprüfungen entwickelt und können viele Rechner in einem Netzwerk überprüfen (Tausende, wenn Sie wollen). Diese Tools sind von Vorteil, da sie eine grundlegende Sicherheitseinschätzung automatisieren. Allerdings stellen sie gleichzeitig auch eine Belastung dar, weil sie erhebliche Möglichkeiten für Cracker eröffnen und für sie ebensoleicht zugänglich sind.

Systemprotokollierungs-Tools zeichnen Benutzeraktivitäten und Systemmeldungen auf. Diese Protokolle werden in einfachen Textdateien oder in Dateien, die sich automatisch in ein oder mehrere Datenbankformate umwandeln, gespeichert. Protokollierungs-Tools bilden eine sichere Quelle in jeder Unix-Sicherheitswerkzeugkiste. Oft bilden die Protokolle, die von derartigen Utilities generiert wurden, die Basis der Beweise für eine Anklage gegen einen Cracker. Verstärktes Protokollieren kann jedoch in punkto Speicherplatz und Bandbreite teuer zu stehen kommen.

Intrusion-Detection-Tools schließlich sind Programme, die automatisch Anzeichen für ein potentielles Eindringen entdecken. In mancher Hinsicht können diese Tools als intelligente Protokollierungs-Utilities angesehen werden. Der Unterschied ist, daß die Protokolle in Echtzeit generiert und analysiert sowie entsprechende Maßnahmen getroffen werden.

Trotz all dieser hervorragenden Tools ist Sicherheit in Unix nur schwer zu erreichen. Unix ist ein großes und kompliziertes Betriebssystem und es kann sehr kostspielig sein, wahre Unix-Sicherheitsexperten zu beschäftigen. Zwar sind diese Leute relativ weit verbreitet, aber die meisten von ihnen haben bereits Schlüsselpositionen in Unternehmen auf der ganzen Welt. Daraus resultierend ist Beratung in diesem Bereich zu einem lukrativen Geschäft geworden.

3.4 Das moderne Internet

Wir gehen auf das Jahr 1990 zu. Zu dieser Zeit wurde das Internet fast ausschließlich von militärischem oder akademischem Personal benutzt. Es gab wahrscheinlich einige Hunderttausend gelegentliche Benutzer, wenn überhaupt. Das Netzwerk wurde von der National Science Foundation (NSF) gemanagt, die strikte Einschränkungen auf die Benutzung des Netzwerks legten. Platt ausgedrückt war es verboten, das Internet für kommerzielle Zwecke zu nutzen.

Dies plazierte die NSF in eine einmalige Position. Obwohl das Internet nicht benutzerfreundlich war (der Zugang war nur über Kommandozeilen möglich), erfreute sich das Netzwerk wachsender Beliebtheit. Die Anzahl der Hosts war auf etwa 300.000 angestiegen. Innerhalb von Monaten wurde der erste Internet-Server etabliert, der einen öffentlichen Zugang ermöglichte, und die Forscher wurden mit dem Unvermeidbaren konfrontiert. Es war nur noch eine Frage der Zeit, bis die Menschheit den Cyberspace stürmen würde.

Inmitten der Debatten über die Kosten (der Betrieb des Internet-Backbones verschlang beträchtliche Mittel) gab die NSF 1991 plötzlich ihre Autorität auf. Dies öffnete den Weg für kommerzielle Unternehmen, um Kontrolle über Netzwerkbandbreite zu erlangen.

Die Öffentlichkeit allerdings profitierte hiervon im großen und ganzen zunächst nicht weiter. Der Zugang zum Internet erfolgte immer noch über Befehlszeilen, was den durchschnittlichen Benutzer einschüchterte. Zu dieser Zeit kam es zu einem Ereignis, das nicht nur die Geschichte des Internet, sondern auch die der Welt ändern sollte: Die Universität von Minnesota stellte eine neue Software namens Gopher vor. Gopher war das Internet-Navigationstool, das in GUI(grafische Benutzeroberfläche)-Umgebungen genutzt werden konnte. Der erste World-Wide-Web-Browser sollte dem bald folgen.

Im Jahr 1995 zog sich die NSF als Aufseher des Netzes zurück. Das Internet wurde fast auf der Stelle kommerzialisiert, als sich Unternehmen aus den ganzen USA beeilten, an den Internet-Backbone angeschlossen zu werden. Den Unternehmen folgte die amerikanische Öffentlichkeit, die durch neuartige Browser wie NCSA Mosaic, Netscape Navigator und Microsoft Internet Explorer ermutigt wurde. Das Internet war plötzlich für jeden, der einen Computer, ein Window-System und eine Maus hatte, zugänglich.

Heute verfügt das Internet über mehr als 30 Millionen Hosts und dient Meldungen zufolge etwa 100 Millionen Benutzern. Nach Schätzungen wird bis zum Jahr 2001 die gesamte westliche Welt an das Internet angeschlossen sein, wenn die Nutzung des Internet im gleichen Maße wächst wie heute. Und diese Schätzungen werden wohl Realität werden, wenn nicht irgendein unvorhergesehenes Ereignis die Entwicklung stoppt.

3.4.1 Internet Service Provider

Nachdem immer mehr Benutzer zum Internet strömten, schossen überall Internet Service Provider wie Pilze aus dem Boden. Diese waren kleine ortsansässige Unternehmen, die generellen Gateway-Zugang für die Öffentlichkeit zur Verfügung stellten. Für 20 Dollar im Monat konnte jeder, der einen Computer und ein Modem besitzt, Internet-Anbindung genießen. Und es dauerte nicht mehr lang, bis große Unternehmen auf den Wagen aufsprangen (wie America Online oder Prodigy). Dies verursachte eine Explosion der Anzahl der Internet-Benutzer.

3.4.2 Die Zukunft

Es gibt sehr viele Aussagen darüber, in welche Richtung das Internet steuert. Viele dieser Aussagen werden von Marketing-Leuten und anderen gemacht, die darauf aus sind, noch mehr Bandbreite, noch mehr Hardware, noch mehr Software und noch mehr Spaß zu verkaufen. Alles in allem versuchen die amerikanischen Wirtschaftsikonen, das Internet zu kontrollieren und ihren Wünschen entsprechend zu gestalten. Dies ist aus mehreren Gründen eine gewaltige Aufgabe.

Einer davon ist, daß sich die Technologie für das Internet heute schneller entwikkelt, als der Benutzer sie kaufen kann. Zum Beispiel wollen viele amerikanische Unternehmen das Internet als ein Unterhaltungsmedium nutzen. Natürlich eignet sich das Netzwerk hervorragend dafür, doch die Realisierung derartiger Vorhaben stößt auf einige Schwierigkeiten, hauptsächlich weil die meisten Benutzer sich die Hardware zum Empfang von Hochgeschwindigkeitsübertragungen nicht leisten können. Die meisten Anwender benutzen immer noch 28.8- oder 33.6-Modems.

Andere Möglichkeiten existieren, aber sie sind teuer. ISDN zum Beispiel ist in den USA nur für Leute mit Geldreserven oder große Unternehmen, die Geschäfte im Internet erledigen, eine praktische Lösung. Noch ein wichtiger Punkt ist die Tatsache, das ISDN schwerer zu konfigurieren ist. Für viele meiner Kunden war dies ein Grund, ISDN nicht einzusetzen. Ich habe schon von Leuten gehört, die ISDN eingesetzt haben, die Konfigurierungsprobleme überwältigend fanden und wieder auf ihr konventionelles 28.8-Modem zurückgriffen. Außerdem ist ISDN in manchen Regionen gar nicht verfügbar, während in anderen Regionen jede Minute einer Verbindung über eine ISDN-Leitung abgerechnet wird.

Hinweis:

Obwohl Telekommunikationsunternehmen ISDN anfänglich als große Geldquelle sahen, stellte sich diese Annahme als übereilt heraus. Dies hat viele Gründe. Einer ist, daß ISDN-Modems gegenüber 28.8-Modems immer noch teuer sind. Ein anderer liegt in neuen Technologien, die ISDN überflüssig machen werden.

Kabelmodems sind eine Alternative. Diese neuen Geräte, die gegenwärtig getestet werden, liefern 100fach schnelleren Internet-Zugang als konventionelle Modems. Es müssen jedoch noch einige Probleme innerhalb der Kabelmodemindustrie geklärt werden. So gibt es z.B. bisher keinerlei Standards, d.h. Kabelmodems werden nur proprietär hergestellt. Ohne Standards werden die Preise für Kabelmodems weiterhin auf sehr hohem Niveau liegen (derzeit zwischen 300 und 600 Dollar), das die meisten Benutzer noch vom Kauf abhält. Es stellt sich auch die Frage, welches Kabelmodem man kaufen sollte, da sie sich erheblich in ihren Möglichkeiten unterscheiden. Einige z.B. bieten extrem hohe Geschwindigkeiten für das Empfangen von Daten, sind aber eher langsam, wenn sie Daten versenden. Dies ist für einige Benutzer schlichtweg unbrauchbar. Ein praktisches Beispiel hierfür ist jemand, der Videokonferenzen auf regelmäßiger Basis plant. Er könnte zwar die Bilder seines Konferenzpartners in hoher Geschwindigkeit empfangen, wäre aber nicht in der Lage, in der gleichen Geschwindigkeit zu senden.

Hinweis:

Andere praktische Probleme plagen die ansonsten strahlende Zukunft der Kabelmodemverbindungen. So wird Verbrauchern beispielsweise mitgeteilt, sie könnten im wesentlichen die Geschwindigkeit einer Low-End-T3-Verbindung für 39 Dollar im Monat bekommen, aber das ist nur die halbe Wahrheit. Obwohl ihr Kabelmodem und das Koaxialkabel, mit dem es verbunden ist, derartige Geschwindigkeiten ermöglichen, wird der normale Benutzer wahrscheinlich nie in den Genuß einer solchen kommen, weil alle Anwohner einer Nachbarschaft sich die Bandbreite einer Verbindung teilen müssen. So werden in einem Wohnhaus die 10 Mbps von allen Bewohnern, die an dieses Kabel angeschlossen sind, geteilt. Wenn daher ein Bewohner des Hauses eine Suchmaschine laufen läßt, die täglich Hunderte von Megabyte an Informationen sammelt, werden die übrigen Bewohner einen enormen Bandbreitenverlust erleiden. Dies ist ganz klar unzumutbar.

Auf jeden Fall wird das Internet für immer mehr Menschen ein wichtiger Bestandteil ihres Lebens. Banken und andere Finanzinstitute bieten heutzutage die Erledigung jeglicher Bankangelegenheiten über das Internet an. In fünf Jahren wird dieses sogenannte Homebanking wahrscheinlich traditionelle Bankgeschäfte völlig ersetzen. Ganz ähnlich werden auch schon eine ganze Menge anderer Handelsgeschäfte über das Internet erledigt.

3.5 Zusammenfassung

Dieses Kapitel bietet eine kurze Darstellung der Geburt des Internet. Im nächsten Kapitel werden die Anfänge und wichtigsten Aspekte der Netzwerk-Protokolle (oder Methoden der Datenübertragung) besprochen. Diese Themen sind essentiell für das Verständnis der Grundbegriffe der Internet-Sicherheit.