Denkt man an die Folgen des Klimawandels, fallen einem nach dem Sommer 2018 vermutlich als erstes Ernteschäden, Waldbrände am Polarkreis und leere Regale in den den Elektronikmärkten ein, wo eigentlich die Ventilatoren stehen sollten; über den europäischen Tellerrand hinausgedacht auch noch Tropenstürme und Hungersnöte, wie sie etwa in Ostafrika zur Normalität zu werden drohen. Überschwemmungen durch Unwetter und der ansteigende Meeresspiegel stehen ebenfalls noch auf der mentalen Liste.
Klima vs. Internet
Weniger bewusst dürfte den meisten sein, dass Letztere nicht nur für Küstenbewohner zum Problem werden könnte. Es leben nämlich nicht nur rund eine halbe Milliarde Menschen weltweit in bedrohlicher Ozeannähe, es befindet sich dort auch allerhand kritische Infrastruktur. Eine Forschungsgruppe der Universität Wisconsin-Madison und der Universität Oregon unter Leitung des Elektroingenieurs Paul Barford hat sich nun einmal angeschaut, wie es in den USA um die in Küstennähe verlaufenden Kabel, Router und sonstige Technik bestellt ist, die das Internet am Laufen halten. Das Ergebnis ihrer im Juli 2018 veröffentlichten Studie ist ein Alarmruf: »Wir haben erwartet, dass wir 50 Jahre zur Vorausplanung haben. Wir haben keine 50 Jahre«, so Barford. Vielmehr könnten schon in 15 Jahren insgesamt 6.400 Kilometer Glasfaserkabel unter Wasser stehen; und anders als die Seekabel, die den globalen Datenverkehr über Kontinente hinweg ermöglichen, können diese unterirdisch an Land verlaufenden Kabel zwar gelegentliche Nässe ab, sind aber nicht dafür gemacht, dauerhaft unter Wasser zu stehen.
Nun waren Redundanz und Dezentralität bereits Grundgedanken, als das US-Verteidigungsministerium sich in den 1960ern mit der Frage befasste, wie Kommunikationsstrukturen beschaffen sein müssten, die auch im Fall eines Atomkriegs noch funktionieren. Das Resultat war das – allerdings überwiegend zivil von Universitäten genutzte – ARPANET, das bis 1972 auf 40 per Telefonkabel verbundene Rechner angewachsen war; durch die dezentrale Vernetzung sollte es im niemals eingetretenen Ernstfall möglich sein, den Ausfall eines oder mehrerer Knotenpunkte zu kompensieren.
Das heutige Internet hat dieses Prinzip im Großformat übernommen; auch im Normalbetrieb ist es z.B. durchaus üblich, dass zusammengehörende Datenpakete unterschiedliche Wege durchs Netz nehmen. Üblicherweise ist der Ausfall von Teilen des physischen Internets also kein größeres Problem. Für die Forschungsgruppe ist das jedoch kein Grund zum Aufatmen, denn an den Küsten befinden sich logischerweise die Schnittstellen zu den Seekabeln und entsprechend stark frequentierte Netzknoten; laut der Studie könnte bis 2033 die Infrastruktur in den Ballungsräumen New York, Miami und Seattle absaufen, ein Wegfall, der nur schwer zu kompensieren wäre.
Hinzu kommt, dass in der Arbeit nur die Situation in den USA betrachtet wird, die gleichen Probleme sich aber weltweit ergeben dürften. Wichtige internationale Knotenpunkte finden sich beispielsweise in Mumbai an der indischen Westküste, in Singapur oder Hongkong, denen wie so ziemlich allen Küstenstädten eine nasse Zukunft bevorsteht. Auch hier sind also Ausfälle zu erwarten, wenn die Technik nicht schleunigst wetterfest gemacht wird.
Internet vs. Klima
Natürlich leistet auch das Internet seinen eigenen Beitrag zur globalen Erwärmung und schaufelt sich so sein nasses Grab teilweise selbst. Endgeräte (PCs, Laptops, Handys, Spielekonsolen etc.), Serverzentren mit ihrem hohen Kühlbedarf sowie Kommunikationsnetze inklusive Mobilfunkstationen und Internet-Router zusammengerechnet, machte der Betrieb des Internets im Jahr 2012 einer Schätzung des Informatikers Friedemann Mattern von der ETH Zürich aus dem Jahr 2015 zufolge rund vier Prozent des weltweiten Stromverbrauchs aus; bezieht man den Energiebedarf für die Produktion der Hardware noch mit ein, waren es fünf Prozent bzw. in absoluten Zahlen rund 1.200 Terawattstunden (TWh). Mittlerweile dürfte es noch mehr sein; zwar steigt die Energieeffizienz der Geräte ständig, ebenso allerdings deren Rechengeschwindigkeit und Verkaufszahlen. Der Wissenschaftsautor Thomas Grüter zitiert in seinem 2013 erschienenen Buch »Offline« eine Schätzung der Universität Melbourne, nach der bis zum Jahr 2020 zehn Prozent des weltweiten Energieverbrauchs aufs Internet entfallen werden.1
Zwei Entwicklungen tauchen dabei in beiden Rechnungen noch gar nicht auf: das Anwachsen des »Internets der Dinge« (Internet of Things, IoT) und der zweifelhafte Erfolg von Bitcoin und anderen Blockchain-Anwendungen. Die Internationale Energieagentur (IEA) bezifferte den Energiebrauch internetfähiger Elektrogeräte im Jahr 2014 auf rund 616 TWh, wovon übrigens fast zwei Drittel auf den Standby-Betrieb entfallen, weil die Dinger schließlich ständig online sein müssen. In den Rechnungen der ETH-Zürich sind IoT-Geräte offenbar entweder noch gar nicht inbegriffen oder waren nur zwei Jahre vor den IEA-Schätzungen noch eine vernachlässigbare Größe. Inzwischen dürfte dieser Wachstumsmarkt jedenfalls sowohl im absoluten Energiebedarf als auch in seinem Anteil am Internet-Gesamtverbrauch noch einmal kräftig zugelegt haben.
Gleiches gilt für Bitcoin & Co., wobei in diesem Fall nicht allein der Hype um die Kryptowährung, sondern vor allem auch deren Konstruktionsprinzip für den wachsenden Energiehunger verantwortlich ist. Bitcoins werden »geschürft«, indem Computer immer komplexere kryptographische Rechenaufgaben lösen, mit jedem neuen Bitcoin steigt demgemäß der Rechen- und damit auch der Energieaufwand. Inzwischen kommen da nur noch superschnelle und entsprechend stromfressende Prozessoren großer Serverfarmen mit. Die auf Themen rund um Kryptowährungen spezialisierte Plattform »Digiconomist« gibt in ihrem Bitcoin Energy Consumption Index den Verbrauch für das Schürfen der Digitalmünzen für 2018 mit rund 73 TWh an, Schätzungen der Investmentbank Morgan Stanley gehen von 130 TWh aus. Letzteres entspräche in etwa dem Energieverbrauch von Argentinien; Tendenz der Natur der Sache gemäß weiter steigend. Letztlich bringt kaum etwas die Absurdität unserer Wirtschaftsordnung dermaßen auf den Punkt wie das neue Lieblingsspielzeug technikaffiner Libertärkapitalisten.
Digital Detox extrem
»Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen« (Mark Twain – vermutlich); ob der teilweise selbstverursachte Klimawandel tatsächlich der buchstäbliche Untergang des Internets sein wird, ist keine ausgemachte Sache. Vielleicht kommen die Alarmrufe ja noch rechtzeitig, um die gefährdete Infrastruktur entsprechend anzupassen. Oder aber das Netz bricht aus anderen Gründen ebenso schnell zusammen, wie es zur prägenden Technologie unserer Zeit wurde.
Wie verwundbar deren Strukturen ist, von denen sich die Welt binnen weniger Jahre auf vielfältige Weise abhängig gemacht hat, beschreibt Thomas Grüter in dem bereits erwähnten Buch »Offline«, das neben einem etwas nervtötend apokalypseheischendem Grundton durchaus ernstzunehmende Überlegungen zum möglichen Ende der Informationsgesellschaft zu bieten hat. Ein wichtiger Schwachpunkt der modernen Technik ist demnach ihr schneller Verschleiß. »Ein PC, ein Laptop oder Handy bringen es auf vielleicht zehn Jahre Lebenszeit. Digitale Vermittlungsstellen der Telekom, Basisstationen des Mobilfunks oder Großrechenanlagen schaffen maximal zwanzig Jahre. Die Satelliten des GPS-Systems leben im Durchschnitt nicht einmal zehn Jahre, müssen also ständig ersetzt werden. […] Die Festplatten der Internetserver halten weniger als fünf Jahre. Sollte aus irgendeinem Grund der Nachschub an elektronischen Bauelementen für fünf oder mehr Jahre stocken, wäre das Internet zerrissen, das GPS-System tot und viele der Server hätten unersetzliche Daten verloren.« Und auch offline gespeicherte Daten halten sich nicht ewig frisch, ohne Nachschub an Speichermedien gingen also zahlreiche Informationen verloren – nicht zuletzt solche, die für einen Neustart nötig wären.
Zur Verwundbarkeit der IT-Gesellschaft trägt nicht zuletzt bei, dass die zugrundeliegende Halbleiterindustrie eine aufwendige und teure Sache ist. Weltweit gibt es nur wenige Fabriken, die entsprechende Komponenten herstellen, die meisten davon in Asien. Weder Europa noch die USA wären derzeit alleine in der Lage, die nötige Elektronik zu produzieren; und so eine milliardenteure Fabrik stellt man auch nicht mal so eben in die Landschaft, selbst wenn der Wille beziehungsweise die Notwendigkeit für eine solche Investition vorhanden wäre.
Eine Nachschubkrise ist also durchaus vorstellbar und der möglichen Gründe sind viele: eine neue Weltwirtschaftskrise, (Handels-)Kriege oder, als besonders wahrscheinlicher Kandidat, der Klimawandel; sei es direkt – bereits 2011 führten Überflutungen in Thailand zu einem weltweiten Engpass an Festplatten, weil sich zahlreiche Fabriken in den betroffenen Gebieten befanden – oder indirekt, wiederum in Form von Wirtschaftskrisen und sonstigen gesellschaftlichen Verwerfungen.
Je mehr sich die Gesellschaft von vernetzter Elektronik abhängig macht, um so schwerwiegender wären die Folgen, etwa für die Versorgung mit Gas oder Strom. Wenn Letzterer etwa durch sogenannte Smart Grids verteilt wird, die flexibel auf die Einspeisung aus verschiedenen Energiequellen reagieren, sollte man sehr hoffen, dass es immer genug Ersatzteile für die Steuerungstechnik gibt.
Grüter prophezeit angesichts der Verwundbarkeit der IT-Strukturen die »elektronische Demenz« der Gesellschaft und einen daraus folgenden kompletten Zusammenbruch der Zivilisation, die noch in diesem Jahrhundert Wirklichkeit werden könnten. Ob er Recht behält, wird allein die Zukunft zeigen. Falls Sie diesen Artikel auf bedrucktem Papier lesen, kann es jedenfalls nicht schaden, die »Versorgerin« gut aufzubewahren, sei es, um Ihren Nachkommen einmal erklären zu können, wie damals alles den Bach runterging, oder schlicht zum Anzünden des Lagerfeuers.