Magisterarbeit:
 Wechselbeziehung zwischen Kulturgeographie und Internet
Home

Zurück zur Kapitelübersicht

Kapitel 2
Das Internet - Entstehung und technische Grundlagen


Bei einer Betrachtung, die zwei bisher nicht miteinander in Verbindung stehende Themen vereinen soll, stellt sich die Frage, bei welchem der beiden Bereiche man ansetzen soll. Im Fall von Kulturgeographie und Internet ergeben sich allein aus den Inhalten keine zwingenden Gründe, sich für die eine oder andere Seite zu entscheiden. Egal welchem Thema man den Vorzug gibt, man wird immer auf das Problem stoßen, das in den Bereich, der zuerst behandelt wird, Aspekte des Zweiten bereits miteinfließen. Beginnt man mit einer Bearbeitung des Internet, so scheint es, als vernachlässige man den primär geographischen Anspruch der Arbeit. Trotz dieses Einwandes scheint es sinnvoller zunächst die Grundlagen des Internet aufzuarbeiten, bevor damit begonnen wird, das Thema aus Sicht der Geographie zu analysieren. Mit dieser Vorgehensweise soll garantiert werden, dass das Untersuchungsobjekt Internet als ein Kernpunkt der Arbeit von Beginn an klar definiert ist. Das Ziel dieses ersten Kapitels ist es zum einen, die historische Entwicklung des Internet darzustellen, zum anderen soll es darum gehen, die für spätere Analysen wichtigen technischen Grundbegriffe zu klären.

Bin ich schon drin oder was?


Ein fast schon geflügeltes Wort ist ein Ausspruch Boris Beckers aus dem Werbespot eines Internet-Providers geworden. Bin ich schon drin, oder was? soll dem Zuschauer vermitteln, wie einfach und schnell der Zugang zum Internet vonstatten gehen kann. Stellen Sie sich vor, dass die Werbung an dieser Stelle nicht ausblendet, sondern Herr Becker weiter im Bild bleibt und sich nach einigen weiteren Maus-Klicks eine zweite Frage stellt: Wo bin ich eigentlich drin? - Im Internet? Im WWW? Oder einfach nur Online? Noch immer herrscht weitgehende Unklarheit über jene Begriffe, die trotzdem in den alltäglichen Gebrauch eingegangen sind und durch falsche Verwendung zu anhaltender Unsicherheit bezüglich des Internet führen. Zunächst soll deswegen Klarheit über den Aufbau des Internet geschaffen werden.
Im Jahr 1995 lieferte das Federal Networking Council (FNC) in Zusammenarbeit mit anderen für das Internet bedeutenden Organisationen eine Defintion über den Begriff Internet (FNC, 1995):
RESOLUTION: The Federal Networking Council (FNC) agrees that the following language reflects our definition of the term Internet. Internet refers to the global information system that - (i) ist logically linked together by a globally unique address space based on the Internet Protocol (IP) or its subsequent extensions/follow-ons; (ii) is able to support communications using the Transmission Control Protocol/Internet Protocol (TCP/IP) suite or its subsequent extensions/follow-ons, and/or IP-compatible protocols; and (iii) provides, uses or makes accessible, either publicly or privately, high level services layered on the communications and related infrastructure described herein.
Diese Definition weist drei Kernelemente des Internet aus: IP-Adressen, das TCP/IP Protokoll und Internet Dienste. Die 32-bit IP-Adresse wird durch vier dezimale Werte repräsentiert, wie zum Beispiel 196.124.5.10. IP-Adressen werden an jeden Computer vergeben, der über ein Netzwerk Daten austauscht. Um die Übertragung zwischen Sender und Empfänger zu optimieren, wird die zu übertragende Datenmenge in kleinere Datenpakete gesplittet, von denen jedes die IP-Adresse des Senders und Empfängers, sowie weitere Informationen über die gesamte Datenmenge trägt. Die Route, auf der die Pakete im Internet verschickt werden, ist flexibel. Dadurch können bestimmte Teile eines Netzes umgangen werden. Falls beispielsweise ein Teil des Leitungsnetzes überlastet ist, kann auf eine benachbarte Route ausgewichen werden, die weniger stark frequentiert ist. Die Auslastung der Strecken festzustellen ist die Aufgabe von Routern, die eine Art intelligente Vermittlungs- oder Weiterleitungsstelle darstellen. Sie legen für jedes Paket den optimalen Verbindungsweg zum Ziel fest. Das Transmission Control Protocol (TCP) garantiert, dass am Ende der Übertragung alle Pakete beim Empfänger angekommen sind und wieder in der richtigen Reihenfolge zusammengesetzt werden. Aufgrund dieses Vorgangs spricht man im Zusammenhang mit dem Internet von einer paketvermittelten   Übertragung.
Wenn man sich nun stärker an der Software-Seite des Phänomens Internet orientiert, stößt man auf die im dritten Punkt der Definition genannten Internet-Dienste. Damit können wir zu Boris Beckers Frage zurückkehren. Meint drin  nun wirklich drin im Internet  oder ist nicht viel eher drin im WWW  gemeint? Die Frage ist nicht unberechtigt, da noch immer viele Leute den Begriff des Internet mit dem World Wide Web (WWW) gleichsetzen. Aus welchen Komponenten das Internet tatsächlich besteht, kann der folgenden Übersicht entnommen werden:
Basis-Dienste Bulletin Board-Systeme Verzeichnis-Dienste Datei-Dienste Informations-Recherche-Systeme
Telnet Listserv Finger Alex Hy Telnet
FTP Mailinglisten Whois Prospero Archie
E-Mail News X.500   Gopher
    Netfind   WAIS
        World Wide Web
Table 2.1: Einteilung der Internet Dienste ( BACKHAUS/VOETH, 1997, S. 41)
Wenn auch nicht alle aufgeführten Begriffe dem Leser bekannt sein dürften, so liefert die Tabelle doch einen Zuordnungsrahmen, der den ersten Schluss zulässt, dass das WWW, sowie weitere bekannte Dienste wie E-Mail, FTP, Newsgroups oder Mailinglisten Komponenten sind, die die Software-Ebene des Internet bilden. Tim Berners-Lee formuliert dies wie folgt:
On the Net you find computers - on the Web, you find document, sounds, videos,... information. On the Net, the connections are cables between computers; on the Web connections are hypertext links.
(BERNERS-LEE, 1999)

Diese Definition zeigt eine weitere Möglichkeit, das Internet darzustellen: Neben der Software-Ebene können auch die physischen Komponenten betrachtet werden, die für den Datentransfer benötigt werden. Die vollständige Darstellung dieser globalen Internet-Architektur, das heißt eine Übersicht über sämtliche Übertragungsmedien, wie Datenleitungen, Funk- oder Satelliteneinrichtungen, ist aufgrund der hohen Komplexität und der Vielzahl an Netzbetreibern heute nicht mehr möglich. Die letzten Darstellungen, in denen sowohl die mit dem Netz verbundenen Computer, als auch die benutzten Router dargestellt sind, stammen aus den 1970er Jahren (THE COMPUTER MUSEUM HISTORY CENTER, 1997b). Aktuelle Darstellungen beschränken sich deshalb auf das Herausgreifen einzelner Aspekte. Man macht sich zum Beispiel zu Nutzen, dass sich das Internet aus einer Vielzahl einzelner Netze zusammensetzt. Aus dieser Sichtweise ist die Darstellung der physischen Ebene weniger komplex, wie das Beispiel der Struktur des UUNET in Abbildung 2.1 zeigt. Eine weitere Vereinfachung stellt die Konzentration auf einen räumlichen Ausschnitt des globalen Netzes dar. So gibt es Beispiele für kontinentale Betrachtungen bis hin zum Herausgreifen einzelner Städte und der Analyse der dort vorhandenen Internetanbindungen (ATLAS OF CYBERSPACE, 1999).
Bevor allerdings noch detaillierter auf die technischen Aspekte des Internet eingegangen wird, soll an dieser Stelle ein Kapitel über die Anfänge und die Entwicklung des Internet eingeschoben werden. Auch in diesem Fall trifft man auf populäre Irrtümer, die von den Medien verbreitet werden und damit das Bild vom Internet in der Öffentlichkeit prägen.
UUNET

Abbildung 2.1: UUNET Internet Backbone (ATLAS OF CYBERSPACE, 1999)

Die Geschichte: Ein Kind vieler Väter

Hartnäckig hält sich das Gerücht, das Internet sei im Auftrag des US-amerikanischen Verteidigungsministeriums entwickelt worden, um im Falle eines Atomkrieges über ein ausfallsicheres Kommunikationsnetz zu verfügen. Wahr ist, dass das Internet-Projekt aus der Advanced Research Projects Agency (ARPA) hervorging, die 1957 gegründet wurde, nachdem es den Russen gelungen war, den ersten Satelliten ins All zu schießen. Wahr ist auch, dass die ARPA dem Pentagon unterstellt war. Das Ziel der Gründung war jedoch eine generelle Förderung der U.S. amerikanischen Wissenschaft, um den technologischen Vorsprung Russlands wettzumachen (HAFNER/LYON, 1997, S. 17). Im Zuge dieser verstärkten Forschungsarbeit ergaben sich Kommunikationsprobleme zwischen den wissenschaftlichen Instituten, die in verschiedenen Teilen der USA angesiedelt waren. Um schriftliche Dokumente zu übermitteln existierten zwar so genannte Fernschreibeterminals , die jedoch nicht miteinander kompatibel und für den Benutzer, aufgrund der großen Anzahl unterschiedlicher Typen mit jeweils eigener Programmiersprache und Befehlen, wenig komfortabel zu bedienen waren.
Den ersten Entwurf eines weiträumigen und universellen Kommunikationsnetzes lieferte J.C.R. Licklider mit seinem Konzept vom Intergalaktischen Netzwerk. Licklider war bis 1964 bei der ARPA tätig und gab mit seinen Vorüberlegungen erste Anstöße für eine neue Richtung in der Netzforschung. Im weiteren Verlauf der 1960er Jahre wurden immer mehr Computerwissenschaftler bei der ARPA beschäftigt, was zur Folge hatte, dass die Ausgaben für die Computerausstattung stiegen. Neben der Verbesserung der Kommunikation kam der Netzforschung daraufhin eine weitere Aufgabe zu: die Suche nach einer Möglichkeit, die vorhandenen Rechner-Ressourcen durch eine gemeinsame Nutzung über ein Netz effizienter zu verteilen.
Nach dem ersten Versuch, Daten von Massachusetts nach Kalifornien zu schicken, zeigte sich, dass die bisherige Praxis der leitungsvermittelten   Verbindung, angewandt bei herkömmlichen Telefongesprächen, nicht für den Datentransport zwischen Computern geeignet war. Leonard Kleinrock entwickelte daraufhin das Konzept der paketvermittelten  Verbindung, wie sie bereits im Zusammenhang mit der Erklärung des TCP/IP Protokolls beschrieben wurde.
Den ersten konkreten Entwurf für ein Netzwerk entwickelte Larry Roberts, ebenfalls Mitarbeiter der ARPA im Jahr 1966. Das sogenannte ARPANET   sollte drei Jahre später zum ersten Netz werden und den Ursprung des heutigen Internet bilden. Für die Umsetzung dieses Projektes waren weitere Vorarbeiten zu leisten. 1968 schrieb die ARPA ein request for proposals  aus, in dem der Auftrag für den Bau des elementaren Bausteins für die geplante Netzarchitektur beschrieben wurde: der Plan für den Interface Message Processor (IMP), der für die Weiterleitung der Datenpakete zuständig sein sollte. Der Auftrag ging an die Firma Bolt, Beranek & Newman (BBN). Parallel zur Entwicklung der Hardware begann ein Team an der University of California Los Angeles (UCLA) die Voraussetzungen für eine Vernetzung auf der Software-Ebene zu schaffen. Die UCLA wurde 1969 mit dem ersten IMP ausgestattet und damit zum ersten Knotenpunkt im ARPANET, gefolgt von den Universitäten Stanford, Santa Barbara und der University of Utah. Die Forscher standen aber noch immer vor dem Problem, die vier eigentlich nicht kompatiblen Computer der Universitäten dazu zu bringen, Daten miteinander auszutauschen. Diesem Aspekt widmete sich ein Team an der UCLA, bestehend unter anderem aus Vinton Cerf und Steve Crocker, denen es mit Hilfe eines Host-to-Host protocol gelang, einen Verbindungsaufbau und Datentransfer zwischen den Rechnern zu bewerkstelligen (CERF u.a., 1998).
In den 1970er Jahren wurden dem ARPANET weitere Knotenpunkte in den USA hinzugefügt. Schon früh bezog man in die Planung mit ein, dass neben dem ARPANET weitere unabhängige Netze entstehen könnten, zwischen denen in gleicher Weise wie innerhalb des einzelnen Netzes ein Datenaustausch möglich sein sollte. Das ALOHANET war das erste auf Funkübertragung basierende Netz, das mit dem ARPANET verbunden wurde (CERF, 1993). Weitere universitäre Netze folgten im Laufe der folgenden zehn Jahre, so dass das Internet bis Mitte der 1980er Jahre in weiten Teilen Westeuropas, Kanadas, Japans und der ehemaligen Sowjetunion verfügbar war. Mit der immer größer werdenden räumlichen Ausdehnung erhöhte sich das Risiko, dass Daten-Pakete auf ihrem Weg zum Empfänger aufgrund instabiler Verbindungen verloren gingen. Zur Übertragungskontrolle schufen Bob Kahn und Vinton Cerf das bereits beschriebene TCP/IP Protokoll, das am 1.1.1983 zum Standard-Übertragungsprotokoll für das Internet wurde. Im gleichen Jahr spaltete sich der militärische Zweig der Internet-Forschung innerhalb der ARPA ab und das sogenannte MILNET entstand. Das ARPANET bestand bis 1989 weiter, wurde dann jedoch aufgelöst, weil es nicht mehr konkurrenzfähig und für die ARPA zu kostspielig war (ZAKON, 2000).
Das Internet entwickelte sich unaufhörlich weiter. Mit steigenden Benutzerzahlen wurden die Internet-Dienste immer vielfältiger. Bereits 1971 gab es das erste E-Mail Programm, das vor allem von Wissenschaftlern als Kommunikationsmittel genutzt wurde. Als neue Basisdienste kamen das File Transfer Protocol (FTP) hinzu, genutzt um Daten zu einem Server zu schicken, oder von dort herunterzuladen und Telnet, das das Einloggen auf einem entfernten Rechner ermöglicht. Schon früh machte man sich bei der ARPA Gedanken über die Nutzung des Internet für Video-Konferenzen. Der Weg war damit bereitet, das Internet auf lange Sicht auch für Multimedia-Anwendungen zu nutzen.
Das anhaltende Wachstum des Internet führte zunächst zu einer Verknappung der IP-Adressen, da das ursprüngliche System für maximal 256 Netzwerke im Internet ausgelegt war. Man erweiterte den Adressbereich deswegen auf 32-bit, woraus sich eine Zahl von 4.294.967.296 möglichen Adressen ergab. Schon vor dieser Umstellung war das System der Host-Namen eingeführt worden, das bedeutet, dass statt der IP-Adresse ein Alias-Name für den Rechner vergeben wird, der für die Benutzer einfacher zu handhaben ist. Um einzelne Objekte im Internet erreichen zu können, ist es notwendig, die vom Benutzer verwendeten Host-Namen der entsprechenden IP-Adresse zuzuordnen. Vor der Einführung des Host-Namen-Systems waren zu diesem Zweck beide Informationen in einer zentralen Datei gespeichert, die von den Hosts per FTP täglich aktualisiert wurde. Die Zuordnung der 32-bit IP-Adressen konnte aufgrund ihrer großen Anzahl nicht mehr in dieser Weise erfolgen. Die Lösung des Problems war das Domain Name System (DNS) von Paul Mockapetris, das 1983 eingeführt wurde. Hier erfolgt die Zuordung der IP-Adressen in einer hierarchischen Abfolge, bei der sogenannte Nameserver  versuchen, die Adresse des Zielrechners zu ermitteln. Wenn eine IP-Adresse nicht gefunden wird, gibt der Server die Suche an einen über- bzw. untergeordneten Nameserver weiter. In der Regel gibt es einen Nameserver pro Domain, wobei eine Domain eine Gruppe zusammengehöriger Computer im Internet zusammenfasst, die eine gemeinsame Adresse besitzen. Desweiteren gibt es sogenannte Top Level Domains, die entweder aus Länderkürzeln bestehen (zum Beispiel de  für Deutschland) oder aus anderen Klassifikationen, wie zum Beispiel com für kommerzielle Seiten oder edu für Universitäten und andere Bildungseinrichtungen. Die Adresse der Universität Freiburg im Breisgau setzt sich beispielsweise wie folgt zusammen:
uni-freiburg [Domain] .de [Top Level Domain]
Aufgrund der großzügigen Verteilung von 32-bit IP-Adressen in den vergangenen Jahren stößt auch dieses System bereits an seine Grenzen. Die nächste IP-Version IPv6 sieht deswegen 128-bit Adressen vor (TANENBAUM, 1999, S. 467).
Zurück jedoch zur Entwicklung des Internet und dessen voranschreitender Verbreitung in den 1970er und 80er Jahren. Zum endgültigen Durchbruch des Internet kam es in den 1990er Jahren. Die Grundlage dafür schaffte Tim Berners-Lee, als er 1989 die Frage aufwarf, in welcher Weise die über das Internet zugänglichen Materialien in einer effizienten Weise verwaltet werden können. Während seiner Tätigkeit bei der European Organization for Nuclear Research (CERN) in Genf hatte er festgestellt, dass in den Tiefen der Server bereits vorhandene Forschungsergebnisse nicht wiedergefunden wurden, weil selbst deren Verfasser vergaßen, in welchem Verzeichnis sie diese abgelegt hatten. Berners-Lee griff für die Lösung dieses Problems auf die Idee des hypertext  zurück, ein Prinzip, bei dem ein Dokument Verweise auf ein anderes Dokument oder Objekt beinhaltet, zu denen man per Mausklick gelangen kann (BERNERS-LEE, 1998). Mit dieser Methode konnten Dokumente auf den Servern des gesamten Internet in einem logischen Zusammenhang verlinkt  werden, was zu der Bezeichnung World Wide Web führte. Zusammen mit Robert Cailliau entwickelte Berners-Lee erste Anwendungen, die die Hypertext Markup Language (HTML), die Sprache, in der Hypertextdokumente geschrieben sind, verarbeiteten. In dieser Zeit wurden die ersten Browser entwickelt, mit deren Hilfe man die Inhalte der HTML-Dokumente betrachten kann. Browser gelangen mit Hilfe des Uniform Resource Locator (URL) zu dem gewünschten Objekt. Der URL setzt sich zusammen aus dem verwendeten Übertragungsprotokoll (zum Beispiel http oder ftp), der Serveradresse (zum Beispiel www.uni-freiburg.de) und dem Pfad, der zum gewünschten Objekt führt. In voller Länge ergibt sich daraus beispielsweise:
http://www.uni-freiburg.de/universitaet.html
Berner-Lee's WWW eröffnete erstmals die Möglichkeit, über eine graphische Oberfläche zu den weltweit gespeicherten Informationen zu gelangen. Auch die Möglichkeiten, Dokumente zu präsentieren, erweiterten sich mit der Verbesserung der Browser und der Weiterentwicklung von HTML. Heute bietet das WWW unzählige Möglichkeiten, neben der Darstellung von Text, Multimediaobjekte, wie Ton oder Video in Web-Seiten einzubinden. Das Web kann mittlerweile von Personen benutzt werden, die nur geringe Erfahrung mit Computern haben, da die Bedienung weitgehend intuitiv erfolgt - ein weiterer Faktor, der zum Erfolg des WWW beigetragen hat. Darüber hinaus hat das WWW dem Internet, neben den reinen Präsentationselementen, auch eine neue Dimension von Interaktionsmöglichkeiten hinzugefügt. Was anfangs vor allem im kommerziellen Bereich zur Anwendung kam (wie zum Beispiel Online-Bestellungen oder Online-Banking), dehnt sich langsam auf weitere Bereiche aus, wie das Erledigen von Verwaltungsangelegenheiten oder die Verlagerung des Arbeitsplatzes durch sogenanntes Teleworking.
Die in der 80er Jahren ohnehin boomende Computerindustrie hat durch den Aufstieg des Internet einen neuen Wachstumsfaktor gewonnen. Mit der immer größer werdenden Zahl an Unternehmen, die in der Branche der Informationstechnologie tätig sind, erhöht sich auch der Konkurrenzdruck und somit der Bedarf, seine Marktposition durch Innovationen zu sichern. Dies führt dazu, dass technische Neuerungen in immer kürzeren Abständen auf den Markt kommen und die Produkte sich schnell verbessern. Schon heute gibt es Geräte, die in Verbindung mit dem Fernseher eine Nutzung des Internet möglich machen, ohne dass ein kompletter Computer vorhanden sein muss. Damit können auch jene Personen das Internet nutzen, die sich vor der Benutzung des Computers scheuen oder denen die Kosten für einen Computer zu hoch sind. Der Preis für diese Zusatzgeräte macht mit 200-300 DM bzw. 100-150 Euro nur rund ein Zehntel des Preises aus, der zur Zeit für ein Standard PC-Komplettsystem bezahlt werden muss. Aufgrund der vielfältigen Möglichkeiten, die das Internet bietet, und der immer einfacher werdenden Bedienung, kann die Prognose gestellt werden, dass das Wachstum des Internet auch in den kommenden Jahren anhalten wird.

Einleitung
1. Das Internet - Entstehung und technische Grundlagen
2. Die Zusammenhänge von Kulturgeographie und Internet
3. Die Analyse der physisch-räumlichen Komponenten des Internet
4. Das Internet und klassische Themenbereiche der Kulturgeographie
5. Ausblick
6. Anhang

Magisterarbeit SS 2000, Albert-Ludwigs-Universität Freiburg i.Br., Geographie,
©  Inga Heinze 2000