TILL HEILMANN (.info)  

Wolkentechnik. Verfügbarkeit und Zerstreuung

Till A. Heilmann
Institut für Medienwissenschaft
Universität Basel

Vortrag am Workshop
HyperKult 18 „The Cloud“
Lüneburg, 3. Juli 2009


„Bewahre, die himmlischen Wolken sind’s, der Müßigen göttliche Mächte, / Die Gedanken, Ideen, Begriffe, die uns Dialektik verleihen und Logik, / Und den Zauber des Worts, und den blauen Dunst, Übertölplung, Floskeln und Blendwerk.“
Aristophanes, Die Wolken

Im Folgenden werden einige Punkte der gegenwärtigen Diskussionen um Cloud Computing (CC) herausgegriffen und der Versuch unternommen, das Phänomen geschichtlich zu verorten.

Der Begriff CC ist von einer gewissen Spannung gekennzeichnet. Einerseits gibt es (noch) keine allgemein anerkannte Definition; andererseits sind viele der Dinge und Ideen, die in letzter Zeit mit dem Begriff belegt werden, historisch betrachtet keineswegs neu. So untersuchte ein zu Beginn dieses Jahres in der ACM SIGCOMM Computer Communication Review publizierter Artikel mit dem Titel „A Break in the Clouds: Towards a Cloud Definition“1 zweiundzwanzig verschiedene Definitionen von CC, um ihnen schließlich eine eigene, dreiundzwanzigste hinzuzufügen. Aus diesen und zahllosen weiteren Begriffsbestimmungen, die sich im Internet finden lassen, sei vorläufig und recht willkürlich diejenige von Brian Hayes aus den Communications of the ACM, Juli 2008, herausgegriffen, die zumindest den Vorzug der Anschaulichkeit hat:

Whether it’s called cloud computing or on-demand computing, software as a service, or the Internet as a platform, the common element is a shift in the geography of computation. When you create a spreadsheet with the Google Docs service, major components of the software reside on unseen computers, whereabouts unknown, possibly scattered across continents.2

Daten wie auch die zu deren Verarbeitung hauptsächlich verwendete Soft- und Hardware befinden sich beim CC nicht mehr in der nächsten Umgebung der Benutzerin (beim Personal Computer auf oder unter deren Schreibtisch, beim Laptop auf deren Schoß), sondern auf für sie unsichtbaren, räumlich entfernten Rechnern mit unbekanntem Standort, möglicherweise über die Kontinente zerstreut. Was die Benutzerin als Gerät noch in Händen hält und ihr Eigen nennt – PC, Laptop oder Smartphone – dient nicht vorrangig der Speicherung und Verarbeitung von Dokumenten, sondern stellt per Netzanschluss den Zugang zu diesen Dokumenten sicher und ist insofern nur noch ein Endgerät. Daten und Programme wandern von den Schreibtischen und aus den Taschen ihrer Benutzerinnen aus und gehen im Gewölk weltweiter Computernetze auf, um tendenziell an jedem Ort, zu jeder Zeit, auf jeder Plattform verfügbar zu sein. Der unerwartete Erfolg der sogenannten Netbooks – leistungsschwächerer, dafür besonders kleiner, leichter und günstiger tragbarer Computer – ist nicht nur der hohen Marktsättigung und der durch die Wirtschaftskrise verringerten Kaufkraft geschuldet, sondern ebenso Ausdruck dieser Verlagerung. Nicht von ungefähr werden Netbooks häufig als Bestandteil von Mobilfunkverträgen verkauft.

CC soll aber nicht nur Privatanwendern das Leben erleichtern, indem es deren persönliche Bilder, Texte und Töne verwahrt und global zugänglich macht. Vor allem sollen Unternehmen ihre EDV zum Zweck der Rationalisierung gesamthaft oder wenigstens teilweise ‚in die Wolke‘ verlagern. Statt durch den Besitz und Betrieb kostspieliger Computersysteme im eigenen Haus auf bestimmte Speicher- und Rechenkapazitäten festgelegt zu sein, sollen Unternehmen die jeweils nötigen Kapazitäten nach Bedarf anmieten und von Cloud-Anbietern übers Netz beziehen. Das Konzept von CC ist somit zugleich ein technisches wie ein ökonomisches. Wenig verwunderlich also, dass eine der frühesten Nennungen des Begriffs CC im Zusammenhang mit wirtschaftlichen Fragestellungen erfolgte. 1997 wurde an einer Konferenz des Institute For Operations Research and The Management Sciences (INFORMS) in Dallas ein Vortrag über E-Commerce mit dem Titel „Intermediaries in Cloud-Computing“ gehalten. Darin nannte der Redner, Ramnath Chellappa, CC ein neues Paradigma der Informations- und Datenverarbeitung, nach welchem der ‚Bereich des Rechnens künftig von wirtschaftlichen Erwägungen bestimmt werde statt durch technische Grenzen‘ („[…] the boundaries of computing will be determined by economic rationale rather than technical limits“).3 Nach Chellappa ist CC die geschichtlich jüngste Entwicklungsstufe der EDV, verkörpert durch Computernetzwerke – zweifellos sind damit das Internet und das World Wide Web gemeint – und deren systematischen Einbezug in die Wirtschaft: „Computing has evolved from a main-frame-based structure to a network-based architecture. While many terms have appeared to describe these new forms, the advent of electronic commerce has led to the emergence of ‚cloud computing‘.“4 Der Wechsel von monolithischer Mainframe- zu verteilter Netzwerkarchitektur bildet die technische Grundlage von CC, dessen Entwicklung angetrieben wird durch die zunehmende Verlagerung ökonomischer Prozesse in eben diese digitalen Netzwerke hinein.

Als Chellappa in Texas seinen Vortrag über CC hielt, hatten in Stanford zwei Informatik-Doktoranden namens Larry Page und Sergey Brin gerade die Domain google.com für ihre experimentelle Internet-Suchmaschine registriert. Knapp zehn Jahre später – Google war inzwischen zur marktbeherrschenden Suchmaschine aufgestiegen und mit 66 Milliarden Dollar noch vor Microsoft und Coca Cola die teuerste Marke der Welt5 – erläuterte der Vorstandsvorsitzende des Unternehmens das Geschäftsmodell von Google wie folgt:

„[C]loud computing“ and advertising go hand-in-hand. There is a new business model that’s funding all of the software innovation to allow people to have platform choice, client choice, data architectures that are interesting, solutions that are new – and that’s being driven by advertising.6

Auch Google versteht sich als Cloud-Anbieter, dessen Leistungen – von der einfachen Suche nach Webseiten über den E-Mail-Dienst bis zur Textverarbeitung und Tabellenkalkulation – jedoch nicht von den Benutzerinnen selbst bezahlt werden müssen, sondern (wie etwa sogenanntes Free-TV) werbefinanziert sind. Nach Googles Verständnis bedeutet CC also jegliche Form von „server-side computing“,7 d. h. alle auf Servern für Clients ausgeführten Programme und gespeicherten Daten, ungeachtet der Finanzierung.

Als erstes Zwischenergebnis lässt sich festhalten: CC fungiert als Sammelbegriff für alle technisch-ökonomischen Einrichtungen mit dem Zweck, Informations- und Datenverarbeitung verschiedenster Art über Computernetzwerke für Firmen- wie auch Privatkunden anzubieten. Die Bezeichnung CC ist derzeit mindestens so sehr ein Marketingbegriff der Industrie wie der Name eines vorgeblich neuen Konzepts der EDV. Das Versprechen der Cloud-Apologeten: Da sich Kunden die EDV-Abteilung oder spezielle Anwendungssoftware im eigenen Haus sparen können, fallen bei ihnen keine hohen Investitionskosten an; sie zahlen nur, was sie an Speicher- und Rechenkapazitäten tatsächlich nutzen; sie brauchen keine nähere Kenntnis der verwendeten Systeme zu haben; die beanspruchten Kapazitäten können jederzeit veränderten Bedürfnissen angepasst werden; umgekehrt vereinfacht auf Seiten der Anbieter die räumliche Konzentration der Computer in Serverfarmen die Wartung der Hard- und Software; schließlich kann die Hardware auf Seiten der Cloud-Anbieter optimal ausgelastet und damit als Ressource ‚nachhaltig‘ bewirtschaftet werden. Die Rationalisierung der Arbeit durch den Computer wird im CC so selbst noch einmal rationalisiert.

Vor einem Jahr fragte Jeff Bezos, Vorstandsvorsitzender von Amazon.com, in einem Interview mit dem einschlägigen Magazin Wired: „You don’t generate your own electricity. Why generate your own computing?“8 Als Endanwender im Zeitalter weltumspannender Computernetzwerke selbst große Computeranlagen zu besitzen und zu betreiben, so Bezos’ Unterstellung, sei ebenso unsinnig und unwirtschaftlich wie der private Betrieb eines eigenen Kraftwerks. Wozu die teils immensen Anschaffungs- und Unterhaltskosten für Computeranlagen tragen, wenn man EDV wie Elektrizität bequem übers Stromnetz aus der Steckdose beziehen und abrechnen kann? In der Gegenüberstellung von EDV und Stromerzeugung suggeriert Bezos’ Frage zwei Grundannahmen: dass einerseits Elektrizität ganz selbstverständlich über Stromnetze verteilt statt lokal erzeugt wird; und dass umgekehrt EDV lokal ‚erzeugt‘ statt über Computernetze ‚verteilt‘ wird. Beide Annahmen, ob von Bezos selbst in seiner scheinbar unschuldigen Frage mitgedacht oder nicht, sind historisch gesehen aber falsch.

Zum einen war es zu Beginn des elektrischen Zeitalters durchaus nicht unüblich, ja sogar die Regel, den benötigten Strom selbst vor Ort zu erzeugen. Denkt man heute an die Elektrifizierung zu Ende des 19. Jahrhunderts, dann kommen einem wohl zuerst Thomas Edison und seine Erfindung der Glühbirne in den Sinn. Man vergisst dabei allzu leicht, dass es mit der Glühbirne allein natürlich nicht getan war. Die eigentliche Leistung von Edison und seinen Mitarbeitern wie auch Konkurrenten war es, das gesamte System aus Stromerzeugung, -übertragung und -verteilung (nach dem Vorbild der damals existierenden Gasversorgung) in all seinen verschiedenen Teilen vom Kraftwerk bis zum Stromzähler konstruiert zu haben. Bevor zuerst die großen Städte und später das ganze Land von Stromnetzen durchzogen war, installierten die ersten Nutzer elektrischer Beleuchtung – exklusive Hotels, Bürogebäude, Kaufhäuser und Theater – eigene Dynamos.9 Der Kauf und Unterhalt eines Generators war oft die günstigere Lösung als die monatlich anfallenden Gebühren für den Anschluss an eine Stromzentrale.10 Der Auf- und Ausbau zentraler Kraftwerke und Stromnetze und fallende Strompreise verdrängten privat betriebene Generatoren schließlich so gut wie vollständig. Selbstverständlich gibt es aber auch heute noch gute Gründe, in bestimmten Einrichtungen eigene Aggregate zur Stromerzeugung – wenigstens für den Notfall – in Reserve zu haben: in Krankenhäusern beispielsweise, in der chemischen Industrie oder eben auch in den großen Serverfarmen, die das digitale Rückgrat von Amazon.com bilden. Man kann sich leicht vorstellen, welch gewaltige Summen das Unternehmen verlieren würde, wenn mit dem Strom seine Data Centers und damit sein Online-Handel auch nur für wenige Stunden ausfielen.11 Kurzum: Bezos’ rhetorisch gemeinte Frage, weshalb man denn noch selbst EDV betreiben solle, ist rhetorisch nur unter der historischen Voraussetzung flächendeckender öffentlicher Stromnetze und der Gleichsetzung dieser Netze mit den Computernetzwerken des beginnenden 21. Jahrhunderts. Mit CC soll EDV zur Dienstleistung bzw. zur Grundversorgung werden, so selbstverständlich, günstig und einfach in der Handhabung wie Elektrizität aus der Steckdose.

Als einer von vielen hat der Computerhistoriker Martin Campbell-Kelly kürzlich daran erinnert, dass die Idee, EDV als Dienstleistung zu erbringen, weder in technischer Hinsicht noch als Geschäftsmodell neu ist, sondern die Computergeschichte von Anfang an mitbestimmt hat. Die Tabelliermaschinen etwa, die IBM zu Beginn des letzten Jahrhunderts groß machten, wurden nicht nur verkauft, sondern konnten seit den 1930er Jahren in eigens dafür eingerichteten IBM-Dienststellen auftragsweise angemietet werden.12 Als die Tabelliermaschinen in den 1950er Jahren von Digitalcomputern abgelöst wurden, entstanden verschiedene Unternehmen, die auf ihren Großrechnern Lohnadministration und andere Buchhaltungsaufgaben für Geschäftskunden abwickelten.13 Ab Ende der 1960er Jahren kamen Time-Sharing-Dienste dazu, bei denen sich Kunden mit Fernschreiberterminals über die Telefonleitung in spezielle Computersysteme einwählen und so ihre EDV erledigen konnten. Im Jahr 1970 machten solche Computerdienstleistungen (engl. Data Processing Services) immerhin ein Viertel aller computerbezogenen Ausgaben in den Vereinigten Staaten aus.14 Die entscheidende Veränderung kam Anfang der 1980er Jahre mit dem PC, der vergleichsweise billig in der Anschaffung und einfach im Unterhalt war und den EDV-Diensten über Time-Sharing-Systeme den Garaus machte.

Erstaunlich ist, dass Campbell-Kelly bei seinem Rückblick in die Geschichte der (kommerziellen) EDV-Dienste ausgerechnet das ambitionierteste und folgenreichste (technische) Projekt aus diesem Umfeld auslässt oder zu erwähnen vergisst – vielleicht, weil es allzu offensichtlich ist: das ARPANET. Natürlich ist die Entstehungsgeschichte des ARPANET äußerst verwickelt und die Gründe, die zu seiner Entstehung geführt haben, sind vielfältig. Aber zumindest die von der Internet Society (ISOC) als Gründungstexte des ARPANET benannten Dokumente sprechen eine recht klare Sprache.15 Das ARPANET wurde, wie Janet Abbate16 und andere Internethistoriker wiederholt festgehalten haben, nicht als Kommunikationsplattform für Menschen konzipiert, sondern als Computernetzwerk für das Teilen und Tauschen von Rechnerressourcen. In dem als „Intergalactic Network Memorandum“ bekannt gewordenen Rundschreiben aus dem Jahr 1963 spricht J. C. R. Licklider, der Vorsteher des Büros für Informationsverarbeitungstechnik der ARPA und einer der geistigen Väter des Internet, von einem „network as I envisage nebulously“ – einem Netzwerk, von dem er eine ‚neblige‘ Vorstellung hat und das den Teilnehmern die Kapazitäten aller angeschlossenen Computer zur Verfügung stellt.17 Ausführlich schildert Licklider, wie man über ein solches Netzwerk auf unterschiedliche Programme und Daten räumlich entfernter Rechner zugreifen könnte; an keiner Stelle jedoch spricht er davon, dass über dieses Netzwerk auch Menschen miteinander kommunizieren.18 Wenige Jahre nach Lickliders Memorandum stellte Lawrence G. Roberts, der Leiter des ARPANET-Forschungsprogramms, der Fachöffentlichkeit den geplanten Rechnerverbund ebenfalls als Netzwerk vor, „which allows many computers to communicate with each other to interchange and execute programs or data“.19 Und auch Roberts machte sehr deutlich, dass das ARPANET nicht als Instrument interpersonaler Kommunikation gedacht sei: „[A] network can be used to handle interpersonal message transmissions. […] However, it is not an important motivation for a network of scientific computers.“20 Kommunikation zwischen Menschen hat in Computernetzwerken Nebensache zu sein; im Vordergrund stehen Rationalisierung und Effizienzsteigerung.21 Roberts bemühte dabei explizit das Bild eines ‚Großhandels‘ von Computerkapazitäten mit vielen kleinen ‚Vertriebsstellen‘:

[I]t may develop that small time-shared computers will be found to be efficiently utilized when employed only as communication equipment for relaying the users’ requests to some larger remote machine on which the substantive work is done. Such smaller installations might then be considered to be „retail outlets“ for the „wholesale computer power“ provided by the giant machines.22

Nicht nur die Rede von großen, leistungsstarken Remote-Rechnern und kleinen, leistungsschwächeren Zugangsgeräten findet sich so in aktuellen Schilderungen von CC wieder. Auch das Vokabular von ‚wholesale‘, ‚retail‘ und ‚outlet‘ kehrt mit dem CC wieder23 – nun jedoch nicht mehr zur Umschreibung eines technischen Konzepts, sondern als Teil eines Geschäftsmodells. Sicherlich: Mit dem ARPANET waren keine kommerziellen Absichten verbunden, es sollte ein rein wissenschaftlicher Rechnerverbund sein und entwickelte sich dann eben doch auch zu einer Kommunikationsplattform. Aber die dem CC zugrundeliegende Idee, Rechnerressourcen an Knotenpunkten eines Netzwerks zu bündeln und über bescheiden ausgestattete Geräte gewissermaßen als Dienstleistung verfügbar zu machen, war vor bald einem halben Jahrhundert das erklärte Ziel der Anstrengungen, die letztlich zum Internet geführt haben, wie wir es heute kennen.

Als zweites Zwischenergebnis lässt sich somit festhalten: CC ist keineswegs ein vollkommen neuartiges Konzept. Entsprechend haben sich auch Kritiker des Begriffs CC zu Wort gemeldet. Larry Ellison beispielsweise, Mitgründer und Vorsitzender der Softwarefirma Oracle und bekannt für sein markiges Auftreten, gab im vergangenen Herbst mit deutlichen Worten zu verstehen, was er von CC hält:

The interesting thing about cloud computing is that we’ve redefined cloud computing to include everything that we already do. […] The computer industry is the only industry that is more fashion-driven than women’s fashion. Maybe I’m an idiot, but I have no idea what anyone is talking about. What is it? It’s complete gibberish. It’s insane. When is this idiocy going to stop?24

Ganz der Geschäftsmann, legte Ellison aber nach: „We’ll make cloud computing announcements. I’m not going to fight this thing. But I don’t understand what we would do differently in the light of cloud computing other than change the wording of some of our ads.“ Dass Computernetzwerke, wie Ellison bemerkt, schon seit Jahren, ja seit Jahrzehnten – und nicht erst mit dem World Wide Web – systematisch bewirtschaftet und beworben werden, zeigt u. a. ein bekannter Slogan, der auch Eingang in medienwissenschaftliche Publikationen gefunden hat25 und schließlich sogar in die Ausschreibung und Ankündigung dieses Workshops: „The network is the computer.“26 Das ist seit Mitte der 1980er Jahre das Firmenmotto des Computerherstellers und Netzwerkspezialisten Sun Microsystems.

Kritik an CC kommt aber nicht nur von einigen exzentrischen Größen der Industrie wie Larry Ellison, sondern vor allem auch aus der Computer-Gegenkultur – von den Hackern und den Vertretern freier Software. Aufschlussreich für die Stoßrichtung dieser Kritik ist eine Äußerung von David Carrera, Direktor der CC-Forschungsgruppe an der Technischen Universität Barcelona, der das Prinzip von CC wie folgt beschreibt: „It’s like three passengers sharing a taxi but not knowing that they’re sitting next to one another.“27 Wie im Falle dieser seltsamen Fahrgemeinschaft, bei der sich ein reales Taxi für die Fahrgäste in drei virtuelle Taxis aufspaltet, so teilen sich die Kunden beim CC die Ressourcen des Anbieters mit anderen Kunden, ohne von diesen mehr zu wissen, als dass es sie gibt, und ohne Einfluss auf die technischen Rahmenbedingungen der Ressourcenverteilung nehmen zu können. Faktisch geht damit ein Kontrollverlust über die Umgebung einher, in der man Daten speichert und verarbeitet, oder genauer gesagt: speichern und verarbeiten lässt. Cloud-Kunden bekommen keine realen physikalischen Maschinen, über die sie frei verfügen können, sondern sogenannt ‚virtuelle Maschinen‘, in denen sie gewissermaßen ‚eingesperrt‘ bleiben.

Wenig überraschend daher, dass beispielsweise Richard Stallmann – einer der Gründer und geistiger Anführer der Free Software-Bewegung – eindringlich vor CC und dem Gebrauch von Web-Dienstleistungen wie etwa Google Docs warnt:

It’s stupidity. It’s worse than stupidity: it’s a marketing hype campaign […]. One reason you should not use web applications to do your computing is that you lose control […]. It’s just as bad as using a proprietary program. Do your own computing on your own computer with your copy of a freedom-respecting program.28

Das ist die folgerichtige Fortsetzung der Kritik, welche bereits Anfang der 1960er Jahre an den ersten Time-Sharing- und d. h. Mehrbenutzer-Systemen wie CTSS und Multics am MIT geübt worden war. Die Hacker der ersten Stunde waren entsetzt, dass sie nun nicht mehr – wie noch mit den ausrangierten Experimentalcomputern, die man ihnen quasi überlassen hatte – einen Rechner ganz für sich allein haben sollten, sondern ihn gleichzeitig mit anderen Benutzern zusammen und von diesen getrennt teilen und damit die uneingeschränkte Kontrolle über das Gerät verlieren würden.29 Steven Levy, der die – recht idealisierende – Geschichte der Hacker im gleichnamigen Buch geschrieben hat, drückt das so aus: „It would be like trying to make love to your wife, knowing she was simultaneously making love to six other people!“30 Der Computer drohte, von der Heiligen zur Hure zu werden. Kein Cab-Sharing, kein Wife-Sharing und auch sicher kein Time- bzw. Computer-Sharing! Vom selben Furor wie die Hacker am MIT und Richard Stallmann war auch der große deutsche Hacker der Geisteswissenschaften, Friedrich Kittler, beseelt, als er mit Intels Protected Mode bzw. dem Multitasking moderner Mehrbenutzer-Betriebssysteme, die letztlich eben alle von den Time-Sharing-Experimenten CTSS und Multics herstammen, konfrontiert wurde:

Multitasking soll wie der Igel im Märchen den Benutzern vorspiegeln, dass nur ein einziger Igel oder Prozess läuft, vor allem aber, dass dieser Lauf oder Prozess auch nur einem einzigen Hasen oder Benutzer zugute kommt. Das ist dieselbe Melodie, nach der Romane und Gedichte seit der Goethezeit ihren Lesern und vorab Leserinnen versprechen, nur für diese einzige unersetzliche Adresse da zu sein[.]31

Entgegen der Versprechen der Befürworter von CC – Ubiquität, Flexibilität, einfache Handhabung, Kosteneinsparung, nachhaltige Bewirtschaftung usw. – fürchten dessen Gegner einen Rückfall ins finstere EDV-Mittelalter der 1960er und 1970er Jahre, als mächtige Mainframes herrschten und ihren unmündigen Untertanen nur ‚dumb terminals‘ blieben: simple Endgeräte für den kontingentierten und kontrollierten Zugriff auf die Großrechner, nicht viel mehr als eine Tastatur zur Eingabe und (im günstigen Fall) ein Bildschirm zur Ausgabe dazu. Im Zeitalter weltumspannender Computernetzwerke könnte sich diese Situation – sozusagen als Farce – wiederholen: den Unternehmen die riesigen Data Centers mit abertausenden von Servern, den Endanwendern statt ausgewachsener PCs zunehmend sogenannte thin clients, einfache Geräte wie Netbooks und Smartphones (die tatsächlich eher ‚dumb computers‘ sind), ausgerüstet mit einem Browser für den Webzugang und ansonsten eher mager ausgestattet. So gesehen wäre CC ein Fortschritt nur im Sinne technischer Machbarkeit und ökonomischer Optimierung, politisch gesehen könnte es für die Computernutzer ein Rückschritt sein. Es lohnt sich in diesem Zusammenhang vielleicht daran zu erinnern, dass PCs – und damit sind hier alle für den privaten Gebrauch und Besitz bestimmten Computer gemeint, nicht nur der IBM PC – auch Teil wie Folge der ‚Emanzipationsbewegung‘ der Computerkultur waren, der „Computer’s Lib“, wie Ted Nelson sie 1974 nannte. Die Bezeichnung PC ist wörtlich zu nehmen: Ein Personal Computer ist ein ‚richtiger‘, vollwertiger Computer, der einer Person gehört – und nur einer Person – und nicht mit anderen geteilt werden muss.

Und damit sollen am Ende doch noch, wenn auch nur ganz kurz, Verfügbarkeit und Zerstreuung angesprochen werden: Die Verfügbarkeit von Speicher- und Rechenkapazität im CC, die Möglichkeit von überall her und zu jeder Zeit auf Daten und Programme zugreifen zu können und die erbrachten Leistungen bedarfsweise bequem anzupassen, wird erkauft mit der Unverfügbarkeit über die physikalischen Maschinen und somit über die technischen Rahmenbedingungen des Computing. Ebenso findet die Zerstreuung, welche der Begriff der Wolke konnotiert, nicht da statt, wo es der Begriff CC fälschlich nahelegt – also da, wo das Computing geschieht. Tatsächlich bedeutet CC nämlich zunächst einmal eine ungeheure räumliche Konzentration von Speicher- und Rechenkapazitäten an den Knotenpunkten der Computernetzwerke, den riesigen Serverfarmen der Cloud-Anbieter. Was wie eine Wolke in kleinste Teile zerstreut ist, über den Erdball verteilt, flüchtig, in ständiger Veränderung und Bewegung begriffen, sind viel eher all die kleinen Endanwender mit all ihren kleinen Endgeräten. Zerstreuung betrifft nicht so sehr die Objekte von CC sondern dessen Subjekte. Verfügbarkeit und Unverfügbarkeit, Zerstreuung und Konzentration sind die Pole, zwischen denen das Feld des CC aufgespannt ist.

Das Phänomen CC lädt dazu ein, folgende Punkte zu erinnern und weiter zu bedenken:

Erstens: Der PC, der im öffentlichen Bewusstsein und in seinem alltäglichen Gebrauch das Paradigma von Digitalrechnern darstellt, ist nicht die selbstverständliche, modellhafte, logische oder in irgendeiner anderen Weise einzigartige Form von Computern oder gar das erfüllte Ende der mediengeschichtlichen Entwicklung. Vielleicht sind wir heute mit CC, mit Webapplikationen, Netbooks und Smartphones Zeugen eines erneuten Umbruchs der Computerkultur, der nicht nur ein Aufbruch zu neuen Ufern ist, sondern auch eine Rückkehr in bereits bekannte und in Teilen wieder verlassene Gebiete.

Zweitens: Man kann die Computergeschichte auch und gerade als eine Geschichte der zunehmenden Rationalisierung schreiben. Diese geschieht schubweise und betrifft auf vielfältige Art sämtliche Aspekte von Hardware und Software und deren Einbettung in den gesellschaftlichen Zusammenhang. Die meisten wichtigen Etappen der EDV lassen sich in dieser Weise verstehen: höhere Programmiersprachen; Betriebssysteme; interactive computing und insbesondere Time-Sharing als eine Umsetzung davon; standardisierte Codierungen wie ASCII oder UTF und Auszeichnungssprachen wie XML; einheitliche Architekturen wie die x86-Mikroprozessorfamilie von Intel; Software als Massenware; grafische Benutzeroberflächen; Computernetzwerke; und eben auch CC.

Drittens: Aus medientheoretischer wie -geschichtlicher Sicht fordert CC dazu auf, von Neuem und noch immer über den systematischen und historischen Zusammenhang der von Innis, McLuhan, Kittler und anderen32 beschriebenen medialen Grundfunktionen des Speicherns, Übertragens und Verarbeitens nachzudenken. Die etwa von Kittler analysierte Einheit oder Vereinigung von Speicherung und Übertragung in der Verarbeitung durch den Digitalrechner33 ist im Rahmen seiner Mediengeschichtsschreibung zweifellos schlüssig und richtig. Es scheint aber, dass mit Computernetzwerken im Allgemeinen (über die Kittler nie ausführlich geschrieben hat) und Phänomenen wie dem CC im Besonderen die Frage nach der Übertragung bzw. der Übertragbarkeit des Digitalen schlechthin34 wieder relevanter und brisanter geworden ist.

Anmerkungen

1 Luis M. Vaquero u. a.: A break in the clouds. Towards a cloud definition, in: SIGCOMM Computer Communication Review 39.1 (2009), S. 50–55.

2 Brian Hayes: Cloud Computing, in: Communications of the ACM 51.7 (2008), S. 9–11, hier S. 9.

3 Zit. nach: Cloud Computing, Wikipedia. The free encyclopedia, http://en.wikipedia.org/wiki/Cloud_computing; Zugriff am 19.6.2009.

4 Ramnath Chellappa, Intermediaries in Cloud-Computing: A New Computing Paradigm, http://meetings.informs.org/Dallas97/TALKS/C20.html; Zugriff am 19.6.2009.

5 Vgl. Millward Brown Brandz Ranking 2007, http://www.millwardbrown.com/Sites/Optimor/Content/KnowledgeCenter/BrandzRanking.aspx; Zugriff am 26.6.2009.

6 Eric Schmidt, Search Engine Strategies Conference 2006, http://www.google.com/press/podium/ses2006.html; Zugriff am 19.6.2009.

7 Luiz André Barroso/Urs Hölzle: The Datacenter as a Computer. An Introduction to the Design of Warehouse-Scale Machines, San Rafael/CA: Morgan & Claypool, 2009, S. 1.

8 Zit. nach: Spencer Reiss: Cloud Computing. Available at Amazon.com Today, in: Wired 16.05 (2008).

9 Vgl. Harold L. Platt: The Electric City. Energy and the Growth of the Chicago Area, 1880-1930.Chicago: University of Chicago Press, 1991.

10 In den 1880er Jahren etwa verkaufte die Western Edison Light Company im Raum Chicago fast ausschließlich Insellösungen für die elektrische Beleuchtung; vgl. ebd., S. 33–36.

11 Das Möbelhaus IKEA hat in den letzten Jahren für seine elf Filialen in Russland Stromgeneratoren angeschafft, um nicht von russischen Energiekonzernen abhängig zu sein, die man des Betrugs verdächtigt; vgl. NZZ am Sonntag, 28.6.2009, S. 5.

12 Vgl. Martin Campbell-Kelly: The Rise, Fall, and Resurrection of Software as a Service, in: Communications of the ACM 52.5 (2009), S. 28–30, hier S. 28–29.

13 Eines der ersten Unternehmen dieser Art, Automatic Data Processing (ADP), ist immer noch im Geschäft und weltweit als Lohnadministrations-Dienstleister tätig; siehe http://www.adp.com.

14 Vgl. Campbell-Kelly: The Rise, Fall, and Resurrection of Software as a Service, S. 29–30.

15 Vgl. Internet Society, Histories of the Internet, A Brief History of the Internet, http://www.isoc.org/internet/history/brief.shtml; Zugriff am 29.6.2009.

16 Vgl. Janet Abbate: Inventing the Internet, Cambridge/MA: MIT Press, 1999.

17 Joseph C. R. Licklider: Memorandum For Members and Affiliates of the Intergalactic Computer Network, Advanced Research Projects Agency, Washington/DC, 23. Apr. 1963.

18 Vordergründig behandelt Lickliders Memorandum die Kommunikation von Rechnern im vorgestellten Computernetzwerk. Implizit berichtet es aber auch von der Kommunikation zwischen Menschen, zu der diese sich räumlich zu versammeln haben: Erstens lädt Licklider mit dem Rundschreiben seine Mitarbeiter zu einem Treffen ein; zweitens beendet er das Schreiben mit dem Hinweis, er müsse nun ein Flugzeug erreichen – vermutlich, um zu einem Treffen zu reisen.

19 Lawrence G. Roberts: Multiple computer networks and intercomputer communication, in: Proceedings of the first ACM symposium on Operating System Principles, New York: ACM, 1967, S. 3.1–6, hier S. 3.1.

20 Ebd., S. 3.1.

21 Auch der 1968 beschlossene Forschungsplan zum ARPANET hält eindeutig fest: „The most important criterion for the type of network interconnection desired is that any user or program on any of the networked computers can utilize any program or subsystem available on any other computer[.]“ (Ders.: Resource Sharing Computer Networks, Advanced Research Projects Agency, Washington/DC, 03. Juni 1968, S. 1)

22 Thomas Marill/Lawrence G. Roberts: Toward a cooperative network of time-shared computers, in: Proceedings of the AFIPS fall joint computer conference, New York: ACM, 1966, S. 425–431, hier S. 426. Diese Textpassage taucht in leicht veränderter Form auch in der ein Jahr später veröffentlichten Beschreibung des ARPANET auf: „A large machine serving a number of smaller machines may provide significant improvements in efficiency […]. Small time sharing computers may be found to be efficiently utilized when employed as communication equipment for relaying user requests to some larger remote machine on which substantive work is done. What is envisioned is a system in which the local machine serves some limited needs of the user while substantial requirements are satisfied by a remote computer particularly well adapted to handling the problem.“ (Roberts: Multiple computer networks, S. 3.1)

23 Google etwa nennt seine Rechenzentren „warehouse-scale computers“; vgl. Barroso/Hölzle: The Datacenter as a Computer.

24 Zit. nach: Anshu Sharma, AnshuBlog, 28.9.2008, http://www.anshublog.com/2008/09/thought-experiments-in-understanding.html; Zugriff am 30.6.2009.

25 Vgl. Wolfgang Coy: Automat – Werkzeug – Medium, in: Informatik Spektrum 18.1 (1995), S. 31–38, hier S. 36.

26 Der Slogan soll 1984 vom Sun-Mitarbeiter John Gage geprägt worden sein.

27 Zit. nach: Cloud computing: Changing the way we work, Pressemitteilung der Universitat Politècnica de Catalunya, 8.4.2009, http://www.upc.edu/saladepremsa/informacio/monografics/cloud-computing-changing-the-way-we-work; Zugriff am 28.6.2009.

28 Zit. nach: Cloud computing is a trap, warns GNU founder, The Guardian, 29.9.2008, http://www.guardian.co.uk/technology/2008/sep/29/cloud.computing.richard.stallman; Zugriff am 28.6.2009.

29 Vgl. Steven Levy: Hackers. Heroes of the Computer Revolution, Garden City: Doubleday, 1984, S. 118–128.

30 Ebd., S. 113.

31 Friedrich Kittler: Protected Mode, in: Draculas Vermächtnis. Technische Schriften, Leipzig: Reclam, 1993, S. 208–224, hier S. 212.

32 Vgl. Harold A. Innis: Empire and communications, Toronto: University of Toronto Press, 1950; Marshall McLuhan: Understanding Media. The Extensions of Man, New York: McGraw-Hill, 1964; Friedrich Kittler: Grammophon, Film, Typewriter, Berlin: Brinkmann und Bose, 1986.

33 Vgl. Friedrich Kittler: Die künstliche Intelligenz des zweiten Weltkriegs: Alan Turing, in: Arsenale der Seele. Literatur- und Medienanalyse seit 1870, hg. v. Friedrich Kittler/Georg Christoph Tholen, München: Wilhelm Fink, 1989, S. 187–202, hier S. 196.

34 Vgl. Georg Christoph Tholen: Die Zäsur der Medien, Frankfurt a. M.: Suhrkamp, 2002.


Zitierweise
Heilmann, Till A.: Wolkentechnik. Verfügbarkeit und Zerstreuung, Vortrag am Workshop HyperKult 18 „The Cloud“, Leuphana Universität, Lüneburg, 03.07.2009, <http://tillheilmann.info/hyperkult18.php>.

Till A. Heilmann (Dr. phil.) forscht und lehrt an der Abteilung für Medienwissenschaft der Universität Bonn. Studium der Germanistik, Medienwissenschaft und Geschichte in Basel. Assistent am Seminar für Medienwissenschaft der Universität Basel (2003–2014) und am Seminar für Medienwissenschaft der Universität Siegen (2014–2015); Promotion mit einer Arbeit zum Computer als Schreibmaschine (2008); Gastwissenschaftler an der Universität Siegen (2011); Fellow-in-Residence am Obermann Center for Advanced Studies der University of Iowa (2012); Buchprojekt zu Photoshop als Bildarchiv der Gegenwart (laufend). Arbeitsgebiete: Mediengeschichte; Medientheorie; Mediensemiotik; Fachgeschichte. Forschungsschwerpunkte: digitale Bildbearbeitung; Algorithmen und Computerprogrammierung; nordamerikanische und deutschsprachige Medienwissenschaft. Ausgewählte Publikationen: »Zur Vorgängigkeit der Operationskette in der Medienwissenschaft und bei Leroi-Gourhan«, Internationales Jahrbuch für Medienphilosophie 2 (2016): 7–29; »Datenarbeit im ›Capture‹-Kapitalismus. Zur Ausweitung der Verwertungszone im Zeitalter informatischer Überwachung«, Zeitschrift für Medienwissenschaft 2 (2015): 35–48; »Jede/r, alles, immer, überall. Zum Diskurs des Machens am Beispiel 3D-Druck«, Sprache und Literatur 115–116 (2015): 6–20; »Reciprocal Materiality and the Body of Code«, Digital Culture & Society 1/1 (2015): 39–52; »Handschrift im digitalen Umfeld«, Osnabrücker Beiträge zur Sprachtheorie 85 (2014): 169–192; »›Tap, tap, flap, flap.‹ Ludic Seriality, Digitality, and the Finger«, Eludamos 8/1 (2014): 33–46; Textverarbeitung. Eine Mediengeschichte des Computers als Schreibmaschine (2012); »Digitalität als Taktilität. McLuhan, der Computer und die Taste«, Zeitschrift für Medienwissenschaft 2 (2010): 125–134.

  TILL HEILMANN (.info)