Die Informationstechnik – kurz „IT“ genannt – dominiert heute nahezu alle wirtschaftlichen und auch privaten Bereiche. Dabei sind Internet und Smartphone in den Vordergrund gerückt und haben die Sichtbarkeit des „Computers“ deutlich verringert. Doch hinter diesem unüberschaubaren digitalen Gebilde stehen immer noch Computer, die im Grunde auf denselben Prinzipien beruhen wie die ersten Rechner der 50er Jahre.
David Gugerli, Professor für Wissenschaftsgeschichte an der ETH Zürich, hat jetzt den Werdegang der „IT“ aus einer leicht veränderten Perspektive nachgezeichnet. Normalerweise reden wir darüber, wie der Computer Einzug in die Welt gehalten hat. Dabei unterstellen wir, dass die Welt die gleiche geblieben ist und nur durch eine neue Größe bereichert (?) wurde. Doch Gugerli geht weiter. Er sieht den umgekehrten Weg: die Welt ist Stück für Stück in den Computer gekommen, angefangen von komplizierten wissenschaftlichen Rechenvorgängen bis hin zu Simulationen des Weltalls und ökonomischer Abläufe, von immer komplexer werdenden Spielen und virtueller Realität ganz zu schweigen.
Angefangen hat das Ganze in den fünfziger Jahren, als man die für militärische Zwecke – Atombombe, Ver- und Entschlüsselung – entwickelten Computer endlich auch kommerziellen Zwecken zuführen wollte, um die hohen Investitionen wenigstens teilweise zu nutzen – und zu rechtfertigen. Gugerli beschreibt die Probleme der Kommerzialisierung, die unter anderem darin bestanden, dass kommerzielle und statistische Daten gar nicht in einem digitalen Format vorlagen. Beim Militär hatten die Kosten für eine manuelle Formatierung und Sortierung keine Rolle gespielt, aber in der Wirtschaft sah das ganz anders aus. Prompt kam die Kritik Außenstehender, der „Computer“ sei in der Wirtschaft nicht zu gebrauchen – wohl auch, weil sich die manuellen Verfahren eingeschliffen hatten und niemand den Bedarf oder die Möglichkeit nach Effizienzsteigerung sah. Was man nicht kennt, kann man auch nicht beurteilen.
Als man Ende der 50er diese Arbeiten in die an Ressourcen – Speicher, Rechenkapazität – Rechner verlegte, kam auch hier heftige Kritik auf. So kritisierte ein Vorgänger Gugerlis – ebenfalls Professor an der ETH – diese „fremden“ Aufgaben, weil sie den Rechner von seiner eigentlichen Aufgabe, nämlich zu „rechnen“, ablenkten und ihn damit nutzlos machten. Die Vorstellung, dass ein Computer große Teile der kommerziellen Organisation übernehmen könne, lag außerhalb des Denkrahmens. Nicht ganz zu unrecht, denn das konnten die damaligen Anlagen wirklich nicht bewältigen.
Detailliert und anschaulich – auch für Laien – zeigt Gugerli, wie man dem Computer erst diese „Randaufgaben“ übergab und dann notgedrungen immer weitere Forderungen stellen musste. Denn je mehr unterschiedliche Aufgaben man ihm übertrug, desto mehr musste man auf Ordnung, Struktur und Effizienz achten. Wurde am Anfang noch für jedes Problem ein eigenes Programm geschrieben, musste man für ähnliche oder gar gleiche Aufgabe vorhandene Programme vorhalten und verändern. Das erforderte den Zusammenbau komplexer Programme aus mehreren bestehenden und führte zur Entwicklung von „Compilern“.
Als man schließlich die wertvolle Ressource „Computer“ mehreren Nutzern gleichzeitig zugänglich machen wollte, wurde es ganz schwierig. Es hatte sich nämlich gezeigt, das ein einzelner Nutzer mit seiner menschlichen Geschwindigkeit – Tippen und Denken! – den Rechner nie auslasten konnte und dieser daher die meiste Zeit untätig wartete. Die Einführung der Gleichzeitigkeit im „Time Sharing“ führte zur Entwicklung komplexer „Betriebssysteme“, wo früher nur einfache Steuerprogramme ihre Arbeit getan hatten. Heute kennen wir diese Betriebssystems unter den Namen Windows, Linux oder Z/OS, und diese nehmen Dutzende von Gigabytes auf der Platte ein.
Die Entwicklung (relationaler) Datenbanken entstand aus dem Bedarf, die schnell wachsende Menge von Daten zu strukturieren und miteinander zu verbinden, was wiederum steigende Anforderungen an Speicherplatz und Verarbeitungskapazität zur Folge hatte. So führte jede – aus der Not geborene – Strukturänderung oder neue Aufgabe zur Entwicklung noch schnellerer Rechner und größerer Speicher. Dieses Prinzip gilt unverändert noch heute.
Auch die Entwicklung des PCs beschreibt Gugerli nicht ohne Humor. Dieses „Spielzeug für Bastler“ wurde lange Zeit nicht ernst genommen, und eine kommerzielle Nutzung kam nicht in Frage – bis diese preiswerten System plötzlich Textverarbeitung und Kalkulation anboten. Mit IBMs – nur unwilligem – Einstieg in diesen Markt (um Apple etwas entgegenzusetzen) war der Bann gebrochen, und alle IBM-hörigen Unternehmen konnten jetzt guten Gewissens PCs einführen.
Allerdings fehlt ein wichtiger Aspekt in diesem Buch: die – historisch wie technisch nicht zwangsläufige – Standardisierung von Hard- und Software in den 80er Jahren. Erstere ist dem unerwarteten Erfolg des IBM-PCs zu verdanken und hat Intel – anfangs nur im unteren Leistungsbereich – ein Quasi-Monopol gesichert. Letztere ist dem Betriebssystem UNIX zu verdanken, das in einem stark fragmentierten Herstellermarkt unerwartet eine herstellerneutrale Alternative im Mehrplatzbereich zur Verfügung stellte. Beide Standardisierungstendenzen sorgten schließlich für einen um Dimensionen vergrößerten Softwaremarkt, der die Einzellizenz verbilligte und damit erst der Softwareentwicklung den entscheidenden Schub verlieh.
Zum Schluss kommt Gugerli auf die Entwicklung der Hypertext-Technologie in den frühen achtziger Jahren zu sprechen, und nur der Insider sieht, dass es hier ums Internet geht. Als diese Technik des innertextlichen Verweisens auf andere Daten sich erst einmal in wissenschaftlichen Kreisen etabliert hatte, brauchte sie nur jemand mit einer Oberflächensoftware für die Internet-Protokolle zu verbinden, und fertig war der Browser (im Jahr 1994). Den Rest kennt heute jeder Schüler.
Wer einen guten Überblick über die Entwicklung des Computers (und des Internet) ohne technische Details und auf unterhaltsame Weise erhalten will, dem sei dieses Buch empfohlen. Es ist im Verlag S. Fischer erschienen, umfasst 251 Seiten und kostet 24 Euro.
Frank Raudszus
No comments yet.