Home Region Schweiz/Ausland Sport Rubriken Agenda
Magazin
03.09.2025
04.09.2025 12:46 Uhr

Die Rechner vernetzen sich Teil III

Erste Gehversuche beim US-Landwirtschaftsministerium mit dem IBM 360 im Jahr 1966
Erste Gehversuche beim US-Landwirtschaftsministerium mit dem IBM 360 im Jahr 1966 Bild: Flickr
Oliver Ittensohn, wissenschaftlicher Mitarbeiter der Kantonsbibliothek Appenzell Ausserrhoden, hat die Geschichte des Computers für uns nachskizziert. Teil 3: Vom lokalen zum globalen Phänomen – die Rechner vernetzen sich.

Ab den 1960er-Jahren sind in vielen Teilen der Welt die ersten Grossrechner produktiv im Einsatz. Sie unterstützen Militäroperationen, werden von Wissenschaftlerinnen und Wissenschaftlern genutzt oder befeuern die industrielle Produktion von Gütern. Aber noch immer sind sie sehr lokal. Sie stehen in Kellern oder Fabrikhallen und führen nur ganz bestimmte Funktionen aus.

Die ARPA denkt weiter: Lässt sich das System auch skalieren und dezentralisieren? Der Impuls geht auch hier erst einmal vom Militär aus, denn nicht nur der Sputnik-Schock hat am Selbstvertrauen der USA gerüttelt. Zehn Jahre zuvor hat der japanische Angriff auf den pazifischen Flottenstützpunkt Pearl Harbor während des Zweiten Weltkriegs gezeigt: Frühwarnsysteme sind unerlässlich, aktuelle Technik ist jedoch nicht in der Lage, genügend schnell zu reagieren. Echtzeitsysteme und höhere Geschwindigkeiten sind unerlässlich. Unter Präsident John F. Kennedy (1917–1963) werden die mobile Kriegsführung und Verteidigung eingeführt.

Die zentralisierte Anlage von Computerinfrastruktur wird zum Problem. Wird das Zentrum vom Feind getroffen – und über militärische Angriffe wird im Kalten Krieg unermüdlich nachgedacht –, ist die Infrastruktur zerstört. Wird ein Computerstandort vom Gegner erobert, erhält er Zugriff auf sämtliche Daten des Landes; Horrorszenarien für die militärische Führung. An diesem Punkt setzt die Netzwerktechnik ein.

Bereits 1959 entwirft der polnischstämmige Informatiker Paul Baran (1926–2011) in den USA die Idee, Computersysteme dezentral aufzubauen und die Daten über digitale Pakete auszutauschen. Im Jahr 1964 veröffentlicht er eine elfteilige Studie mit dem Titel «On Distributed Communication» - sie wird die Welt verändern. Seine Idee ist bahnbrechend: Über Verteilerknoten werden Grossrechner mit kleineren Aussenstellen verbunden, und zwar mehrfach über verschiedene Kanäle. Diese Knoten sollen ausserhalb von Ballungszentren entstehen und gerade nicht auf militärischen Stützpunkten, die beliebte Angriffsziele in einem Kriegsfall wären.

Die Kommunikation wird nicht wie bei den Telegraphen- und Telefonleitungen über eine Zentrale abgewickelt, sondern über unterschiedliche, autonome Hauptknoten. Der Vorteil ist, dass das System sehr flexibel und resistent gegen Ausfälle ist. Fällt ein Knoten aus, liegt nicht gleich der gesamte Verkehr lahm. Ein zweiter Vorteil: Die Datenpakete werden nicht analog übermittelt, sondern digital, d. h., sie werden am Sendeort zerlegt und am Empfangsort wieder zusammengesetzt, ähnlich wie Bauklötze auf einem Wagen. Die einzelnen Teilpakete nehmen andere Routen. Diese Methode ist effizient und zudem abhörsicher, denn was nützt es, wenn man nur einzelne Datenpakete «abgefangen» hat?

Diese verteilten Standorte bilden in der Populärkultur vielfach Anknüpfungspunkte für Verschwörungen aller Art – von Geheimbasen, die James Bond in der Wüste von Nevada infiltriert, bis zu riesigen Computeranlagen in Bergmassiven, die mit Atomraketen bewacht werden. In Wirklichkeit ist alles viel trivialer: die Grossrechner an Universitäten und Industrieanlagen in Amerika und Europa, durch Unterseekabel im Atlantik verbunden, werden in Netzwerken zusammengeschlossen und sind über Computerzugänge (englisch: «Terminals») erreichbar.

Die Daten liegen auf unterschiedlichen Geräten. Die dezentrale Natur unseres heutigen Internets mit Millionen von Servern auf der ganzen Welt, die durch Nutzerinnen- und Nutzergeräte angesprochen werden können, seien es Webseiten, E-Mail-Konten oder Dateien in Cloud-Speichern, hat diesen Ursprung. 

Richtig in Fahrt kommt diese Technik im Jahr 1967 mit der von ARPA gegründeten «Network Working Group» (NWG). Aus dieser Zeit stammt zum Beispiel auch die Idee der unterschiedlichen Netzwerkschichten. Ohne ins Detail zu gehen: Um die grosse Arbeit handhabbar zu machen, entscheidet man sich, die Netzwerke in Schichten (englisch: «layers») aufzubauen. So kümmert sich eine Forschergruppe um die Entwicklung der Datenpakete, eine andere um die Kommunikationsinfrastruktur. Schichten können unabhängig voneinander entwickelt oder überarbeitet werden, ohne das ganze System umzubauen.

Auch dieses Layer-Konzept, leicht erweitert, ist bis heute grundlegend für Internet und Netzwerk. Ob Ihr Webbrowser nun über Kupfer- oder Glasfaser ins Internet geht, interessiert ihn nicht. Umgekehrt ist der Datenleitung egal, ob «Google Chrome» oder «Mozilla Firefox» als Webbrowser genutzt wird. Gesteuert wird der Datentransfer über sogenannte Protokolle: Bekannte sind beispielsweise das Anfang der 1970er-Jahre entwickelte «File Transfer Protocol» (FTP) zur Datenübertragung zwischen Rechnern oder «TCP/IP», das es ermöglicht, individuelle Netze miteinander zu verbinden und lokale Netzwerke aufzubauen («LAN» resp. «WLAN»).

Wie aber weiss ich, welche Information auf welchem Rechner in diesem unüberschaubaren Dschungel an Rechnern auf der ganzen Welt liegt? Zuerst Verzeichnisse mit Suchabfragen (Yahoo! oder Altavista) und später hochentwickelte Suchmaschinen wurden unverzichtbare Hilfsmittel, um sich in den Netzwerken zu orientieren. Die Fähigkeit, das Internet schnell und effizient durchsuchen zu können, wird «Google» und anderen eine ungeahnte Machtposition in der vernetzten Welt des beginnenden 21. Jahrhunderts bescheren. Ohne Suchmaschinen keine Information.

Die zivile Seite der Macht: Das Geschäft mit dem Computer

Wir haben gesehen, dass die Computertechnologien für die Kriegsführung, die Eroberung des Weltraums oder die Forschung an Universitäten eingesetzt werden. ARPA wurde als nichtkommerzielles Unternehmen gegründet und deren Forschungsresultate sind grundsätzlich frei zugänglich. Private Geschäftsleute wittern früh ein Business-Modell. Rechnerinfrastruktur und Vernetzung – so die Unternehmer aus der Privatwirtschaft – könnten gegen Entgelt zur Verfügung gestellt werden.

In den USA zeigt das System «SABRE» an Flughäfen, dass ein Markt dafür existiert: Es ist das erste kommerziell eingesetzte System zur Verwaltung von Buchungen und Passagierlisten in den USA und schliesst die Treibstoffüberwachung und Personaleinteilung mit ein.

Begünstigt wird die Entwicklung durch neue Forschungsergebnisse. Bahnbrechend wird die Marktreife von sogenannten «Mikroprozessoren». Nun wird es möglich, Computer viel kleiner und günstiger zu bauen als bisher – eine Grundvoraussetzung, um auf dem freien Markt erfolgreich zu sein. Der amerikanische Chiphersteller «Intel Integrated Electronics» (Intel) bringt im Jahr 1971 den «Intel 4004»-Chip auf den Markt und verbucht einen Grosserfolg.

Neue mikroelektronische Technologien fesseln die öffentliche Aufmerksamkeit. Bald zieht es Forscherinnen, Unternehmer und Investoren ins «Silicon Valley», ein Gebiet südlich von San Francisco, benannt nach dem neuen Wundermaterial in der Herstellung von Prozessoren: Silizium (englisch: silicon). Zusammen mit der Entwicklung des integrierten Schaltkreises und der ständigen Verkleinerung der Chips erhält das von Gordon Earle Moore (1929–2023), einem der Mitbegründer des Tech-Giganten «Intel», aufgestellte Gesetz Berühmtheit («Moore’s law»): Dadurch, dass die Menge an Transistoren (kleine elektrische Bauteile) auf den Chips exponentiell wächst, steigt die Rechenleistung der Computer ständig.

Moore geht bereits 1965 davon aus, dass sich die Rechenleistung von Computern alle achtzehn bis vierundzwanzig Monate verdopple. Über Jahrzehnte hat sich dies bewahrheitet. Im Jahr 2019 sind Transistoren so klein, dass 180 Millionen davon auf die Fläche eines Fingernagels passen.

In der Folge beherrschen Unternehmen wie Hewlett & Packard (HP), die sich auf den Vertrieb von Bürorechnern spezialisieren, den Markt. HP prägt im Übrigen auch den Begriff PC oder «Personal Computer». Er taucht zum ersten Mal in einer Werbeanzeige 1968 auf und bewirbt einen PC, der auf jeden Tisch passt. Grosse Popularität erreicht auch der von Steve Wozniak und Steve Jobs entwickelte Apple Computer, primär in seiner Weiterentwicklung «Apple II», oder der Heimcomputer von Commodore International, bald als «C64» in aller Munde.

Was die Programme angeht, folgen diese Rechner noch der alten Formel: Das Gerät (Hardware) wird zusammen mit dem Betriebssystem und den Anwendungen (Software) ausgeliefert. Einen anderen Weg geht Bill Gates in den 1980er-Jahren. Seine Betriebssysteme MS-DOS und Windows sollen unabhängig von der eingesetzten Hardware sein und grundsätzlich auf Systemen von unterschiedlichen Herstellern laufen. Diese Idee macht Gates zum Multimilliardär. Nach einer erfolgreichen Zusammenarbeit mit IBM übernimmt sein Unternehmen Microsoft in der Folge den Softwaremarkt im Bereich der Betriebssysteme und Büroanwendungen (Office). 

Gibt es im Jahr 1984 noch mehr als zweihundert Textverarbeitungsprogramme, hundertfünfzig Tabellenkalkulationsprogramme und an die zweihundert Datenbankverwaltungsprogramme, schrumpft diese Zahl in den Folgejahrzehnten in den einstelligen Bereich.

Die vom amerikanischen Unternehmen XEROX entwickelte grafische Benutzeroberfläche (englisch: «graphical user interface» oder «GUI»), die sämtliche Interaktionen mit dem Computer per Maus ermöglicht, beeindruckt Steve Jobs und Bill Gates: beide bauen GUIs in ihr aktuelles Betriebssystem ein und bringen die Akzeptanz der Heimcomputer einen grossen Schritt weiter. Nun können die Computer bequemer bedient werden als über Textzeilenkommandos. Weisse, grüne oder orange Schrift auf schwarzem Grund weicht farbigen Menüs.

Viele Hersteller erhoffen sich einen schnellen Erfolg, wie es Konkurrenten in anderen Bereichen gelungen ist, etwa beim Radio oder Fernsehen. Aber die Akzeptanz in der Gesellschaft verläuft schleppend. Computer sind nach wie vor schwer zu bedienen und setzen viel Neugier und Know-how voraus. Trotzdem ist ab den 1980er-Jahren der PC auf dem Vormarsch. Er wird wie die Mikrowelle oder der Kühlschrank ein Konsumprodukt für private Haushalte. Noch früher hält er Einzug in Büros. Neben klappernden Schreibmaschinen brummen bald auch Personal Computer vor sich hin.

Lesen Sie morgen im 4. Teil: Aus dem Mehllager an die ETH – der Computer kommt in die Schweiz und nach St.Gallen.

Bibliografie

Quellen aus dem Stadtarchiv der Politischen Gemeinde St.Gallen:

  • StadtASG, AB/9
  • StadtASG, 5/181/19
  • StadtASG, 5/240/1
  • StadtASG, 5/240/2

Literatur:

  • Beetz, Jürgen: Digital: Wie Computer denken, 2019.
  • Bruderer, Herbert: Schwierigkeiten beim Bau der ERMETH, in: Bulletin.ch, Band 106 (2015), Heft 4, S. 52-53.
  • Bruderer, Herbert: Konrad Zuse und die Schweiz, 2012.
  • Dyson, Turings Kathedrale, 2014.
  • Egger, Josef: Ein Wunderwerk der Technik, 2014.
  • Ehrmanntraut, Sophie: Wie Computer heimisch wurden, 2019.
  • Franzetti, Claudio: Essenz der Informatik, 2019.
  • Furger, Franco & Heintz, Bettina: Technologische Paradigmen und lokaler Kontext, das Beispiel der ERMETH, in: Schweizerische Zeitschrift für Soziologie, Band 23 (1997), Heft 3, S. 533-566.
  • Siegert, Paul Ferdinand: Die Geschichte der E-Mail, Erfolg und Krise eines Massenmediums, 2008.
Oliver Ittensohn / Toggenburg24