30 Jahre Internet
Die Vorgeschichte:
Vom „Zentralhirn" zum ARPANET
von Martin Marheinecke
Mitte der 1960er Jahre: Langsam entwuchs die Computertechnik ihren Kinderschuhen. Die ersten Datenbanken entstanden, die ersten Experimente zur Datenfernübertragung waren gelungen.
Schon bald erkannten Wissenschaftler und Ingenieure, aber auch Großunternehmen und Behörden - und natürlich auch das Militär - die vielversprechenden Möglichkeiten eines Computernetzwerkes über große Entfernungen, eines Wide Area Networks (WAN). Allerdings erschwerte der schnell entstehende Wildwuchs der Computertypen, der Betriebssysteme und der Software eine sinnvolle Rechnerverbindung. Standards gab es kaum und selbst die Computertypen eines Herstellers waren oft nicht miteinander kompatibel.
Die 60er Jahre standen aber auch - und vor allem in denen in der Computertechnik führenden USA - im Zeichen des Kalten Krieges. Nach dem „Sputnik-Schock" sorgte sich die US-Regierung um den technologischen Vorsprung und gründete Anfang 1958 die „Advanced Research Projects Agency" (ARPA) als Abteilung des Pentagons, des US-Verteidigungsministeriums. Die ARPA (heute DARPA) ist eine zentrale Anlauf- und Aufsichtsstelle für staatliche und militärische Forschung der USA - als Instrument der Forschungsförderung, aber auch, um die Aktivitäten der staatlichen Universitäten und Forschungsinstitute im Sinne der „nationalen Sicherheitsinteressen" zu koordinieren.
Gerade den Militärs bereitete die Richtung, in der sich die Computervernetzung in den 60er Jahren entwickelte, einige Sorgen. Es schien sich nämlich alles in die Richtung zum „großen Zentralrechner" und der Daten-Standleitungen hin zu entwickeln.
Die ersten Computernetzwerke waren Sternnetzwerke . Diese auch heute noch gebräuchliche Architektur besteht aus einem zentralen Großrechner, dem „Host", mit dem verschiedene Nebenrechner, „Clients", verbunden sind. Der gesamte Datenaustausch zwischen den Rechnern läuft über den Host ab. Viele Visionäre stellten sich davon ausgehend einen „nationalen Hauptrechner" vor - ein „Host der Hosts", ein riesiges „Zentralgehirn" irgendwo in einem atombombensicheren Gewölbe. (Wie sehr diese Idee die Phantasie der interessierten Öffentlichkeit beschäftigte, läßt sich unschwer an der Science Fiction der damaligen Zeit ablesen.) Für die ersten Verbindungen zwischen Großrechner benutzte man gemietete Standleitungen - nur mit ihnen schienen die nötigen hohen Datenübertragungsraten möglich zu sein.
Aus militärischer Sicht waren diese Lösungen zu riskant. Beim Ausfall des Zentralrechners würde nämlich das Computernetzwerk völlig ausfallen - ein gut gezielter Bombentreffer und die USA hätten den Krieg praktisch verloren. Noch größer war die Gefahr, die von den Standleitungen ausgingen: Terroristen oder Saboteure bräuchten in Zukunft keine Bomben mehr, sondern nur noch Bolzenschneider, um das öffentliche Leben weitgehend lahmzulegen. Auch ein kleines Erdbeben oder ein unvorsichtiger Baggerführer könnten katastrophale Folgen haben.
Die Initiative für das ARPANET ging von Bob Taylor aus. Er leitete eine ARPA-Abteilung für Computerforschung und war vor allem für die Finanzierung von Forschungsprojekten an Universitäten zuständig. Taylor stand durch seine Tätigkeit im enger Kontakt zu Wissenschaftlern und kannte deren Bedürfnisse. Für sie stand außer einer großen Betriebssicherheit und einer möglichst schnellen Datenübertragung das Problem der fehlenden Kompatibilität ihrer Rechner im Vordergrund - es sollte ein sinnvoller Datentausch zwischen beliebigen Computersystemen möglich sein. Deshalb beantragte Taylor einen Etat für ein experimentelles Netzwerk, über das Computer verschiedener Bauweise Daten austauschen konnten. Als Leiter des Projekts holte er 1967 den Computerwissenschaftler Larry Roberts vom Bostoner Lincoln Lab ins Pentagon. Roberts galt als Pionier der Datenfernübertragung und hatte 1965 die erste Computerverbindung quer über den Kontinent von Massachusetts nach Kalifornien realisiert
Die Militärs verlangten dagegen vom künftigen ARPA-Netz, über das auch ein Teil der militärischen Kommunikation laufen sollte, extreme Zuverlässigkeit in Krisensituationen. Inoffiziell hieß es, daß es auch dann noch funktionieren sollte, wenn ein großer Teil der vernetzten Rechner und der Leitungen durch Atomwaffentreffer vernichtet wären. Die bisher bevorzugten zentralistischen und hierarchischen Strukturen kamen daher von vornherein nicht in Frage. Sicherer erschien ein „Zellennetz", ein „Netz ohne Zentrale", bei dem jeder der vielen Knotenpunkte („Nodes") mit jeweils drei oder vier anderen verbunden war. Es sollte auch keine alles zentral verwaltende Netzbehörde geben, lediglich eine Institution, die Normen setzt und durchsetzt - heute ist das die „Internet Society" (ISOC).

Ursprünglich plante man, die Großrechner der am Netz beteiligten Institutionen direkt miteinander zu verbinden. Diese Architektur stand aber im Widerspruch zur geforderten Schnelligkeit, denn die Ressourcen der Computer waren bereits im Betrieb ausgelastet, Kommunikationsjobs würden bei Hochbetrieb sehr lange in der „Warteschlange" steckenbleiben. Es gab aber auch erhebliche Vorbehalte seitens der Universitäten und Institute, die bei einer direkten Verbindung vom Rechnern um die Sicherheit und den Schutz ihrer Daten fürchteten - und darum, daß ihnen kostbare Rechenzeit „abgezweigt" werden würde.

Die Lösung fand Wesley Clark, ein ausgesprochener Computertüftler. Er schlug vor, daß das Netz nicht die eigentlichen „Host"-Rechner, sondern vorgeschaltete Steuerungscomputer miteinander verbinden sollte. Diese von Roberts ursprünglich IMP (Interface Message Processor) genannten „Router" sollten Daten entgegennehmen und versenden, Daten auf Übertragungsfehler prüfen und gegebenenfalls erneut anfordern und kontrollieren, ob die verschickten Daten ihr Ziel auch wirklich erreicht hatten. Die Vorteile dieser Lösung lagen auf der Hand: Wenn man für die Steuerungsrechner baugleiche Modelle verwendete, brauchte man auch nur ein Ansteuerungprogramm zu schreiben. Die eigentlichen Hostrechner mußten keine Ressourcen für die Lenkung des Datenverkehrs abzuzweigen, die teilnehmende Institute mußten also keine Rechenzeit opfern, und es war einfacher, Datenbeständen vor unbefugten Zugriffen von außen zu schützen. Entscheidend war auch, daß die IMPs die Daten lediglich weiterleiteten, aber nicht speicherten, registrierten oder inhaltlich kontrollierten. Der bewußte Verzicht auf Kontrollfunktionen erleichterte die Konstruktion der Router und nahm den Wissenschaftlern und den gegen jede Kontrolle vorn außen argwöhnischen Militärs die Angst vor einen elektronischen „Großen Bruder".
Für die Übertragung der Daten selber sollte ein neues Verfahren angewendet werden: Packet Switching , die Paketvermittlung. Beim Packet Switching werden die Daten (z. B. eine e-Mail) in kleine „Häppchen" von 1024 Bits aufgeteilt. Im Speicher der Router ist eine ständig aktualisierte Tabelle abgelegt, die darüber Auskunft gib, welches im Moment die beste Verbindung zwischen zwei Knotenpunkten ist. Die Datenpakete werden über diese „beste verfügbare" Verbindung versendet. Dabei kann es passieren, daß ein Paket über eine direkte Leitung z. B. zwischen Hamburg und Stuttgart versendet wird und das nächste dann wegen einer Störung über Paris, Mailand und Basel „geroutet" werden muß, während das dritte dann wieder über die Direktverbindung geht. Obwohl nun das zweite Paket nach dem dritten ankommt, sorgen Kontrollzeichen („flags") dafür, daß die Botschaft wieder in der richtigen Reihenfolge zusammengesetzt wird. Bei überlasteten Leitungen sinkt die Datenübertragungsrate aller Teilnehmer, aber es gilt das Prinzip: Solange noch überhaupt Leitungen stehen, kommt die Botschaft irgendwie immer durch. Ein weiterer Vorteil gegenüber festen Leitungen ist die gleichmäßigere und bessere Nutzung der Ressourcen. Das Prinzip wurde später international genormt (CITT X.25-Standard) und ist im Bereich der Deutschen Telekom als „Datex-P" bekannt.
Das Projekt für das ARPANET wurde 1968 für zunächst nur vier Knotenpunkte ausgeschrieben. Der Auftrag ging an Bolt Beranek and Newman (BNN) aus Massachusetts. Als Hardware für den IMP (Router) wählte man das Modell DDP-516 von Honeywell, ein robuster Computer mit einen für heutige Verhältnisse geradezu lächerlichen 12 KB Hauptspeicher (weniger als dem Hundertstel einer Diskette - aber damals hatten selbst Großrechner oft nur 64 KB). Für diesem „Router-Urtyp" entwickelte man die Software, die die Datenpakete entgegennehmen und weiterleiten konnte. Als die Spezifikationen bekannt waren, begann die Entwicklung der Steuersoftware zwischen IMP und Hostrechner, die an die jeweiligen Rechnertypen angepaßt werden mußte. Währenddessen installierte AT&T zwischen den Knoten Datenleitungen mit eine Kapazität von 50 KB pro Sekunde.

Im Dezember 1969 ging das ARPANET nach einigen Monaten Testbetrieb online. Zuerst verband es nur die Universitäten von Santa Barbara, Los Angeles und Utah und das Stanford Research Institute (SRI). Erst langsam, dann immer schneller wuchs das Netz - schon Anfang der 1970er ging die Zahl der angeschlossenen Rechner in die Hunderte. Aber es sollten noch fast 20 Jahre vergehen, eher aus der ersten Version des ARPANETS das Netzwerk für jedermann wurde, als das das Internet heute bekannt ist

April 1999
Teil zwei und Schluß: Vom Expertennetz zum World Wide Webs.
Literaturtip:
K. Hafer, M. Lyon: ARPA Kadabra - Die Geschichte des Internet , dpunkt Verlag, 1998

Informationen zur Geschichte des Internets im Internet:
Internet Society: „A Brief History of the Internet" - http://www.isoc.org/internet-history/ (mit Links zu weiteren interessanten „netzkundlichen" Seiten)
W3Org: „About the World Wide Web" - http://www.w3.org/WWW/
Walt Howe: „A Brief History of the Internet" - http://www0.delphi.com/navnet/faq/history.html
Robert H. Zakon: „Hobbes´Internet Timeline" - http://www.isoc.org/zakon/Internet/History/HIT.html

Erstmals vertöffentlicht im: Perry Rhodan Journal "Wissenschaft & Technik", August 1999

Zurück zum Seitenanfang

Zurück zur Übersicht Technik und Naturwissenschaft

Zurück zur Hauptseite