Die Folgen überdimensionierter Cloud-Szenarien – Cloud Waste: Warum größer nicht immer besser ist

| Autor / Redakteur: Mark Neufurth / Florian Karlstetter

Ressourcenverschwendung führt zu Abfall. Abfall zu beseitigen kostet. Das gilt sowohl auf dem Gebiet des Umweltschutzes als auch beim groß skalierenden IT-Betrieb. IT-Workloads werden in immer schneller steigenden Maße in einer Cloud aufgesetzt und dort verarbeitet. Auch dort fallen Verschnitt und Restmüll an. Man spricht in diesem Zusammenhang von Cloud Waste, der Vergeudung von Rechenleistung.

Bereits bei der Architektur von Cloud-Anwendungen kommt es auf die richtige Strategie an. Im laufenden Betrieb muss fortlaufend die Effizienz der Anwendungen gesteuert werden. Dieser Beitrag zeigt auf, worauf man dabei achten sollte.

Mit dem Cloud-Müll verhält es sich wie mit jeder anderen Art Abfall: Cloud Waste entsteht, wenn Unternehmen mehr Rechenkapazitäten in der Cloud buchen, als sie tatsächlich brauchen, oder sie aber nicht ‘recyceln’. 14,1 Milliarden US-Dollar – das ist der Mehrbetrag, den Unternehmen 2019 weltweit für unnötige Cloud-Ressourcen bezahlt haben sollen. Zu diesem Ergebnis kommt das US-amerikanische Marktforschungsunternehmen Gartner. Waren es 2018 noch 12,9 Milliarden, sollen die Kosten für nicht benötigte Cloud-Kapazitäten bis 2021 auf rund 21 Milliarden US-Dollar steigen. Damit sind 35 Prozent der weltweit getätigten Aufwendungen für Cloud-Infrastruktur unnötig.

Nicht genutzte Ressourcen

Wenn man sich diese Unsummen vor Augen führt, stellt sich unweigerlich die Frage: Warum verschwenden Unternehmen so viel Geld? Die Gründe sind vielfältig. Eine wesentliche Ursache liegt im technologischen Fortschritt begründet. Cloud Computing ist Gegenwart und Zukunft zugleich. Je mehr Daten in der Cloud liegen, je mehr Anwendungen in der Cloud betrieben werden, desto größer ist das Risiko für die Entstehung von Cloud Waste. Schließlich fällt es mit der Zeit immer schwerer, den Überblick zu behalten. Für jede neu erstellte oder in der Cloud refaktorierte Applikation werden schließlich neue Ressourcen belegt, die nicht immer passgenau auf die Anforderungen der Applikation zugeschnitten werden können. Ein weiterer wichtiger Aspekt sind die Rechenzentren, die ihren Kunden vertraglich zusichern (müssen), dass sie jederzeit die maximalen Rechenkapazitäten abrufen können, welche zum Beispiel für Entwicklungs-, Demo-, Test- oder Schulungsumgebungen benötigt werden. Idealerweise fahren die Nutzer die kurzfristig benötigten Cloud-Kapazitäten nach getaner Arbeit wieder herunter, was viele Anwender jedoch vergessen oder aus anderen Gründen nicht tun. Darum laufen virtuelle Maschinen oft völlig zwecklos rund um die Uhr. Aktuellen Erhebungen zufolge fallen 44 Prozent der cloudspezifischen Ausgaben weltweit für nicht genutzte Ressourcen und im Nachhinein nötige Datenbereinigung an. Das entspricht vermeidbaren Mehrkosten in Milliardenhöhe pro Jahr. So sollen 8,8 Milliarden US-Dollar pro Jahr allein dabei entstehen, dass einmal genutzte Cloud-Ressourcen nach Gebrauch nicht wieder heruntergefahren werden.

Überdimensionierte Cloud-Instanzen

Ganz ähnlich gestaltet sich die Situation im PaaS-Umfeld (Platform as a Service). Viele PaaS-Anbieter bieten ihren Kunden überhaupt keine Möglichkeit, ihre Dienste effektiv abzuschalten, wenn sie diese nicht benötigen. Und dann gibt es insbesondere bei IaaS noch die menschliche Komponente. Um eine reibungslose, störungsfreie Software-Entwicklung sicherzustellen, setzen Developer Cloud-Instanzen auf, die mitunter deutlich überdimensioniert sind. Das liegt unter anderem daran, dass zum einen der physische Bedarf selten genau geplant werden kann und Entwickler nicht immer in erster Linie wie Controller denken. Das ist insbesondere dann eine Gefahr, wenn derjenige Mitarbeiter, der den Umfang von Cloud-Szenarien festlegt, noch unerfahren ist – und darum lieber etwas großzügiger plant. Hinzu kommt, dass die Preisgestaltung mancher Cloud-Provider häufig eher intransparent ist. Die Mehrheit der Anbieter rechnet zwar auf Stunden- oder Minutenbasis ab, jedoch sind die Preise oft sehr unterschiedlich strukturiert und nicht immer besonders transparent.

Unternehmen, die erstmals mit der Cloud zu tun haben und denen darum die nötige Erfahrung fehlt, haben ein deutlich erhöhtes Risiko, sich für ein Angebot zu entscheiden, das eine falsche Instanzgröße sowie unnötige Add-ons beinhaltet. Dabei gibt es längst Cloud-Anbieter, die neue Kunden durch Professional Services auf Augenhöhe unterstützen und beispielsweise im Rahmen von Pre-Sales Consulting Workshops zur Cloud-Architektur beraten. Einer aktuellen Untersuchung zufolge sind 40 Prozent der Instanzen mindestens eine Nummer zu groß. Bloß ist es alles andere als einfach, Instanzen einfach downzugraden. Besser noch wäre es aber, doch gleich IaaS-Anbieter auszuwählen, die Ressourcen frei wählbar machen und so Verschnitt erst gar nicht aufkommen lassen.

Sinkende Kapitalrendite bei steigenden Kosten

Die negativen Auswirkungen von Cloud Waste sind groß – und vielschichtig. Der finanzielle Aspekt fällt dabei sofort ins Auge. Können Unternehmen die gebuchten Cloud-Kapazitäten nicht voll nutzen, sinkt die Kapitalrendite (Return on Assets, kurz: ROA) angesichts unnötig hoher Kosten unweigerlich. Und das setzt wiederum eine Kettenreaktion in Gang. Reduziert sich der Gewinn, können Unternehmen weniger investieren, was die Zukunftsfähigkeit negativ beeinträchtigt. Doch das ist nur die Sicht des Cloud nutzenden Kunden.

Aus Cloud-Anbieter-Sicht kommt noch mehr hinzu. Sobald vorhandene Serverkapazitäten zwar reserviert, aber ungenutzt bleiben oder Cloud-Nutzer nur zeitlich begrenzt hohe Lastspitzen abdecken, müssen die Cloud-Betreiber weitere Server auf Vorrat in Betrieb nehmen. Das treibt die Kosten für alle Kunden in die Höhe, da Investitionen ins Rechenzentrum, das die Cloud beherbergt, auf alle Kunden abgeschrieben werden müssen. Für einen Anstieg der Kosten sorgt indirekt auch die Tatsache, dass Unternehmen Multi-Clouds nutzen, die über die ganze Welt verstreut sind. Die Nutzung geschieht aber oft nicht effizient.

Eine solche Multi-Cloud-Strategie ist grundsätzlich auch sinnvoll. Jedoch gelingt es vielen Unternehmen nicht, aus der jeweils günstigsten Cloud den maximalen Nutzen zu ziehen. Und das treibt die Gesamtkosten für das Cloud Computing in die Höhe. Wirklich effektives Multi-Cloud-Management hat sich noch nicht durchgesetzt. Ganz zu schweigen von der Tatsache, dass Cloud Waste im Hinblick auf ökologische Aspekte bedenklich ist. Server und Rechenzentrumsinfrastruktur brauchen eine nennenswerte Menge Strom. Das technische Equipment, wie etwa Server, Chips und Kabel herzustellen, ist zudem ein energieintensiver und rohstoffhungriger Prozess.

Hinzu kommt der Flächenverbrauch für neue Datacenter. Nachhaltig wirtschaftende Cloud-Anbieter setzen auf erneuerbare Energie und eine elaborierte Planung, um Effizienzpotenziale zu heben – z.B. durch neue Ansätze der Kühlung, Verdichtung von Servern in Racks und Compartments, Software-defined Networking und eine besonders effiziente Virtualisierung von Cloud-Ressourcen oder stromsparende Prozessoren.

Wie sich Cloud Waste vermeiden lässt

Es gibt also Möglichkeiten, die Verschwendung von Rechenkapazitäten einzudämmen. Doch um das Thema anzugehen, muss erst einmal ein Bewusstsein für die Problematik entstehen.. Oft ist es zu aufwendig, in Betrieb genommene virtuelle Maschinen wieder herunterzufahren oder die Cloud-Anwender haben Probleme, sich bei der Nutzung von IT auf flexible Kosten einzulassen, wo es doch vorher planbare Pauschalbeträge gab. Die Kosten für derartige Überdimensionierungen belaufen sich auf rund 5,3 Milliarden US-Dollar jährlich – sogenannte Oversized Ressources, die kleiner dimensioniert sein könnten. Um solche Mehrkosten zu vermeiden, sollte das Augenmerk darauf liegen, nur so viele virtuelle Maschinen zu buchen, wie tatsächlich nötig sind – und zwar bezogen auf einen bestimmten Zweck.

Automatisierung von Cloud-Infrastruktur dank Live Vertical Scaling und ausgelöst durch definierte Schwellwerte und Trigger erhöht die Kosteneffizienz einer Cloud-Anwendung maßgeblich. Damit passt sich die Anzahl der virtuellen Maschinen, auf denen eine Anwendung in der Cloud läuft, dem aktuellen Bedarf automatisch an – basierend auf Regeln, die Unternehmen vorab definiert haben. Denn je nach Anwendungsfall können die erforderlichen Kapazitäten und die damit verbundenen Kosten stark divergieren. Dabei empfiehlt es sich, den Speicherplatz, den das eigene Rechenzentrum einst hatte, nicht eins zu eins in die Cloud zu übertragen. Wie eine Untersuchung von Jonathan G. Koomey, früherer Professor an den Universitäten von Stanford, Berkeley und Yale, ergeben hat, waren beziehungsweise sind 80 Prozent der hauseigenen Rechenzentren im Hinblick auf den erforderlichen Speicherplatz überdimensioniert. Machen Unternehmen den Fehler und übertragen die vermeintlich benötigten Kapazitäten in die Cloud, zahlen sie 36 Prozent mehr als eigentlich nötig.

Bewusstsein für Cloud Waste schaffen und schärfen

Dazu gehört es, sich zunächst einen vollständigen Überblick über die Software- und Infrastrukturkosten zu verschaffen, die für die Nutzung von On-Premises- und Cloud-Lösungen anfallen. Hilfreich hierbei können grafische Datacenter-Administration-Tools sein, die einem menschlichen Auge erstmal einen guten Überblick verschaffen.

Noch besser ist es aber, von vorneherein eine Cloud mit wenigen, überschaubaren Preispunkten zu wählen. Zusätzlich hilft eine feingranulare Skalierbarkeit der Cloud-Ressourcen, abgerundet durch nutzerfreundliche Administrationsoberflächen und klar definierte Schnittstellen für automatische Composable Infrastructure. Denn: Auch Rechenleistung ist eine wertvolle Ressource. Den Umgang mit ihr im Cloud-Umfeld müssen wir aber erst noch besser lernen.

Der Autor: Mark Neufurth ist Senior Strategy Manager bei IONOS.

Quelle: CloudComputing Insider

Schreibe einen Kommentar