Wolken in der Abendsonne

Was ist aus dem Traum einer dezentralen IT geworden?

Für viele Firmen startete diese Woche eher holperig: Ein großer Ausfall bei Amazon Web Services (AWS) an der US-Ostküste führte dazu, dass zahlreiche Dienste nicht mehr funktionierten, von Zoom und Atlassian über Signal und Slack bis hin zu Jira, Cloudflare und Google. Was ist von unserem Traum einer dezentralen IT-Infrastruktur noch übrig?

Ein Ausflug in die Geschichte

Es ist noch gar nicht so lange her, die Älteren unter uns werden sich erinnern, da musste man sich Software noch auf Datenträgern kaufen und lokal installieren. Das Einwählen ins Internet war damals noch ein akustisches Ereignis und auch nicht ganz billig.

Der Gedanke von dezentralen Strukturen war damals trotzdem bereits im Keim vorhanden. In den 1980ern entstanden erste „Peer-to-Peer“-Netzwerke, Unix und in den 90ern die Open-Source-Bewegung. Es gab bereits Websites und Server, die dezentral im Netz erreichbar waren. Aber auch diese Server (und ein Server war ja im Grunde nur ein etwas anderer Computer), standen irgendwo und mussten für eine ausreichende Redundanz noch gesichert werden, um dem Risiko eines Ausfalls zu begegnen.

Aber Computer und Internetverbindungen wurden stetig schneller und waren immer weiter verbreitet. Das Internet wurde einerseits standardisierter, gleichzeitig behielt es aber seinen fundamental dezentralen Charakter bei. Es war nicht – oder zumindest nicht einfach – möglich, den freien Austausch über das Internet durch zentrale Kontrollstrukturen einzudämmen.

Dezentrale IT – im Kern eine gute Idee

Mit der wachsenden Bedeutung des Internets und der immer größeren Vielfalt an Endgeräten (vom Smartphone bis zum PC) stieg die Bedeutung von dezentraler IT. Immer mehr Dienste und Software wurde nicht mehr lokal installiert, sondern auf Servern betrieben und über den Browser angebunden. Die Idee dahinter war simpel: Ohne großen Installations- und Wartungsaufwand kann man Software in der Cloud bereitstellen und über eine breite Anwenderbasis hinweg skalieren. Die Cloud selber kann dabei dezentral und redundant betrieben werden – fällt ein Server aus, wechselt man nahtlos auf einen zweiten. So können Dienste standardisiert bereitgestellt und auf Knopfdruck aktualisiert werden. Solange eine Internetverbindung besteht, ist der Dienst erreichbar. Hier spielen Konzepte wie „Virtualisierung“ und „Containerisierung“ eine zentrale Rolle, die interessanter Stoff für weitere Blog-Artikel sein könnten.

Alle großen Unternehmen sind früher oder später auf diesen Zug aufgesprungen. Sie betrieben eigene Server für interne Kommunikation, ERP- und Warenwirtschaft, Personalverwaltung, Services usw. In dieser Zeit sind Unternehmen wie SAP und Atlassian zu absoluten Platzhirschen in diesen Bereichen aufgestiegen.

Dezentrale IT auf Steroiden – die Hyper-Scaler

Eigene, redundante Server zu betreiben war ein großer finanzieller Fortschritt. Und wenn diese Server dezentral betrieben wurden, hat das die Resilienz (Ausfallsicherheit) des gesamten Unternehmens positiv beeinflusst.

„Aber“, dachten sich dann einige, „warum sollte jedes Unternehmen seine eigene Serverinstanz aufbauen? Liegt da nicht auch ein großes Einsparpotenzial?“

Das Argument hatte etwas für sich – schließlich mussten die Server immer in voller Größe bereitgestellt werden, obwohl sie vielleicht nicht 100% ausgelastet waren. Und eine der Firmen, die damals die meisten eigenen Server betrieb – Amazon – entwickelte daraufhin ein neues Geschäftsmodell: Warum nicht eigene Serverkapazitäten an andere Firmen vermieten?

Amazon, bzw. AWS, entwickelte darauf hin intelligente Protokolle, die es ermöglichten, Serverleistung im benötigten Umfang auf Knopfdruck bereitzustellen. Eine Firma, die kaum Serverleistung brauchte, musste nun nicht mehr einen komplett eigenen Server mieten und unterhalten. Und große Unternehmen wie die Deutsche Bahn konnte flexibel Serverleitung hinzubuchen, wo sie gerade gebraucht wird. Dadurch zahlten sie nur, was sie brauchten – und sparten gleichzeitig die Kosten für eigene Serverinfrastruktur, Redundanz und Personal.

Der Einfluss von Hyper-Scalern im Alltag

Inzwischen sind Hyper-Scaler wie AWS, Google Cloud Platform, Alibaba Cloud und Microsoft Azure aus unserem Alltag nicht mehr wegzudenken. Unternehmen aller Größenordnungen können über sie ihre Dienste global skalieren. Über sie laufen unsere privaten Chats und Video-Telefonate, Mail-Services, Streaming und Shopping, die Software unserer Autos und Gadgets, Gaming, KI und was wir sonst noch täglich im Internet tun. Aber ohne sie würde auch in der Geschäftswelt alles zum Erliegen kommen: Es würden keine Züge mehr fahren, keine Supermärkte mehr öffnen, keine Flüge mehr fliegen, keine Buchungen mehr laufen. Kaum jemand könnte noch bezahlen, einkaufen, tanken / laden. Die gesamte Großindustrie wäre lahmgelegt, die Logistik aus den Fugen geraten. Stromausfälle, Notbetrieb in Krankenhäusern, Aufruhr und Chaos sind realistische Folgen.

Fazit: Verteilung = Resilienz = Souveränität

Ein Szenario, wie eben beschrieben, ist eher unwahrscheinlich – aber beileibe nicht ausgeschlossen. Die Risiken sind höher als je zuvor:

  • Terroristen und Staatliche Akteure haben schon länger die (wenigen) Untersee-Internetkabel als mögliches Ziel für Anschläge entdeckt. Und das immer beliebtere Satelliten-Internet, z.B. von Starlink, wird von Firmen betrieben, denen viele nicht vertrauen.
  • Cyber-Angriffe können sich immer mehr auf einzelne, riesige Unternehmen fokussieren, bei denen der mögliche Schaden umso größer wird. Erst im September sind dem Cloud-Anbieter Salesforce 1,5 Milliarden Datensätze an Kundendaten gestohlen worden.
  • Auf die USA ist politisch-ideologisch immer weniger Verlass – gleichzeitig sind bisher fast alle Hyper-Scaler in US-Hand. Allerdings ist die EU auch nicht unbedingt ein Vorreiter von dezentralen Ideen, wie die jüngsten Anwandlungen einer Chat-Kontrolle beweisen.
  • Die Datenhoheit von Privatleuten wie Unternehmen wird immer mehr in Frage gestellt. Gesetzesinitiativen wie die Chat-Kontrolle der EU setzen immer häufiger bei den zentralen Anbietern selber an.
  • Kriege und Unruhen machen es gleichzeitig wichtiger, dass wir als Gesellschaft redundant und resilient aufgestellt sind.

Wie dezentral sind wir noch? Ich sehe aktuell Licht und Schatten: Einerseits ist durch die Entwicklung zu dezentralen Services in der Cloud eine neue Zentralisierung entstanden – nicht nur der Strukturen, sondern auch der Anbieter, die sich erfolgreich gegen eine offene Standard-Cloud-API (für einfachere Wechsel) gewehrt haben. Dadurch entstehen große Abhängigkeiten unserer Wirtschaft und eine fragilere Gesellschaft.

Andererseits führen Ausfälle wie der heutige von AWS, oder der von Crowdstrike letztes Jahr, zu einem langsamen Umdenken in der Wirtschaft und der Politik. Digitale Souveränität ist wieder in aller Munde. Neue Anbieter entstehen, auch in Europa (z.B. das Unternehmen OVHcloud oder die Initiative GAIA-X), und neue Ansätze für dezentrale IT werden diskutiert. Man kann nur hoffen, dass sie noch rechtzeitig kommen.

So lange sollten aber auch Sie überlegen: Wo bin ich mit meinem Unternehmen, aber auch privat, von zentralen Anbietern abhängig? Und wie ist es mir – in vertretbarem wirtschaftlichen Aufwand – möglich, diese Abhängigkeit zu verringern (z.B. durch eine Multi-Cloud-Strategie oder den Einsatz von FOSS und Open-Source)?

Bei diesen Fragen stehe ich Ihnen gerne zur Seite!

Peter Schnoor

Wir sind als Unternehmer, aber auch als Privatleute, heute aufgefordert, uns unsere Freiräume und unsere Souveränität zu behalten. Globalisierung und weltweite Vernetzung können und müssen nicht zwangsläufig bedeuten, dass wir die Hoheit über unsere Daten verlieren oder von einzelnen Akteuren abhängig werden.