Hochverfügbarkeit

Aus MittelstandsWiki
Wechseln zu: Navigation, Suche

Drei Neuner fürs Marketing

Von Peter Riedlberger

Hochverfügbarkeit ist ein IT-Designkonzept, dessen Ziel es ist, ein Computersystem möglichst „immer“ verfügbar zu halten. Dabei kommen verschiedene Prinzipien zum Tragen.

Die Verfügbarkeit (Availability) wird in Prozentsätzen angeben, die dem Verhältnis zwischen der Zeit, in denen das System erreichbar ist, geteilt durch die Gesamtzeit, entsprechen.

Verfügbarkeit Downzeit pro Woche
90 % 16 h 48 min
95 % 8 h 24 min
99 % 1 h 40 min
99,9 % 10 min 4 s
99,99 % 1 min
99,999 % 6 s

Solche Werte ließen sich theoretisch nachträglich errechnen („Mein System hatte letzte Woche eine Verfügbarkeit von x %“), was aber in der Praxis niemand macht. Wenn man Verfügbarkeiten angegeben sieht, so handelt es sich üblicherweise um Marketing-Material, mit dem ein Hersteller sein Produkt anpreist.

Was ist akzeptabel?

Was bedeuten nun diese Werte konkret? Zunächst einmal ist festzuhalten, dass es sich um statistische Werte handelt. Wenn die Tabelle „Downzeit pro Woche“ angibt, dann nur, um die Werte konkret zu exemplifizieren. Ein System mit 99,99 % darf alternativ jede Woche ein bisschen mehr als eine ein Minute ausfallen oder aber einmal im Jahr knapp eine Stunde am Stück.

Anhand der Wochenbeispiele: Bei 90 % kann ein System jede Woche für mehr als 16 h ausfallen oder anders formuliert: jeden Tag mehrere Stunden. Dies ist offensichtlich nicht einmal für private Computernutzer tragbar, geschweige denn für eine Firma. Nichts anderes gilt für eine Verfügbarkeit von 95 %, bei der immerhin jeden Tag das System mehr als eine Stunde nicht ansprechbar sein kann.

Kommunikation-und-netze-2015-02.jpg
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Nicht einmal, wenn „99“ vorne steht, kann man von Hochverfügbarkeit sprechen. Oder würden Sie es akzeptieren, wenn Sie jede Woche knapp zwei Stunden auf Ihren Rechner verzichten müssten? Anders formuliert: Angenommen, Sie lassen den Rechner laufen, bis er kaputt geht. Dann fahren Sie zum Computergeschäft, kaufen einen neuen, stellen ihn auf und spielen das letzte Backup auf. Für diesen Vorgang benötigen Sie acht Stunden. Eine Verfügbarkeit von 99 % würde bedeuten, dass Sie dies monatlich (!) tun könnten.

Damit entspricht 99,9 % einem jährlichen Computertausch, was sich immer noch im Rahmen der Zuverlässigkeit eines Supermarktcomputers bewegt. Erst bei Verfügbarkeitswerten von 99,99 % und besser werden Spezialtechnologien notwendig.

Jeder kalkuliert anders

Es ist klar, dass bestimmte Geschäftsbereiche wesentlich stärker von störungsfreien Computerabläufen abhängen als andere: Wenn eine Firma den Kunden auf „heute Nachmittag“ wegen „Computerproblemen“ vertrösten muss, ist dies nicht gut, aber keine Katastrophe. Dies sieht ganz anders aus, wenn es um die IT eines Krankenhauses, einer Wertpapierbörse, eines Flughafens oder eines Atomkraftwerks geht.

Zum Glück sind dies nicht die Anforderungen eines Mittelständlers. In den meisten Fällen sollten Industriestandardcomputer ausreichen. Wer etwas mehr Sicherheit wünscht, kann mit bestimmten Technologien und Verhaltensweisen die Verfügbarkeit seiner Systeme steigern.

Fotolia 44190609 201x201.jpg

Serie: Verfügbarkeitskontrolle

  • Teil 1 erklärt, wie weit die gesetzlich vorgeschriebene Verfügbarkeitskontrolle reicht.
  • Teil 2 prüft, auf welche Weise sich eine Cloud gegensichern und garantieren lässt.
  • Teil 3 spielt schließlich die Abläufe für die besonders gefährdeten Mobilgeräte durch.

Vorbeugen und sichern

Wenn ein Computer nicht läuft, so kann dies geplant sein oder ungeplant. Geplante Downtime entsteht bei einem Systemupgrade, beim Aufspielen von Patches oder komplizierter Software o.Ä. Um die Verfügbarkeit in den Kernzeiten zu erhöhen, sollten derlei Dinge nach Möglichkeit spät abends oder an Wochenenden durchgeführt werden.

Doch auch bei ungeplanter (katastrophenartiger) Downtime lässt sich Zeit sparen, nämlich durch konsequente Vorbereitung auf dieses Ereignis. Für solche Fälle sollte man ständig aktuelle Backups griffbereit haben, Ersatzcomputer und -bauteile lagern usw. (Stichwort: Disaster Recovery).

Am besten ist natürlich Prävention, und da helfen die üblichen Tipps: Der Virenscanner verhindert Downtime durch Malware-Angriffe; gut belüftete Computer in staubfreien Umgebungen fallen sehr viel seltener aus; Computer im Serverschrank, auf die einfache Mitarbeiter keinen Zugriff haben, haben eine höhere Lebenserwartung – das gilt auch für Betriebssysteme, bei denen dieselben einfachen Mitarbeiter keinen Administratorzugriff haben.

Mit technischen Tricks

Die Technologien, die bei echten hochverfügbaren Rechnern zum Einsatz kommen, lassen sich zum Teil auch bei schlichteren Systemen implementieren.

Festplatten erweisen sich oft als das Bauteil, das als Erstes ausfällt. RAID-Systeme, bei denen alle Daten gleichzeitig auf zwei Festplatten abgelegt werden (oder aber, in komplizierteren Anordnungen, auf drei oder mehr Festplatten in einer Art und Weise, dass eine problemfrei ausfallen kann), bieten hier Schutz: Sobald eine Platte kaputt ist, wird sie ohne Datenverlust ersetzt. Wenn sich die Platten im laufenden Betrieb tauschen lassen (Hot Swap), ist bereits eine Hauptquelle für Probleme ausgeschaltet.

Eine weitere Sollbruchstelle ist die Stromversorgung. Hier helfen redundante Netzteile (bei denen tatsächlich zwei Netzteile verbaut sind: sobald das eine ausfällt, kann es ersetzt werden) sowie USVs (unterbrechungsfreie Stromversorgungen), d.h. Batteriepuffer für die 220-V-Spannung: Der Steckdosenstrom wird in einer Batterie zwischengespeichert und von dort in den Rechner geleitet. Fällt das Stromnetz aus, kann der Rechner unterbrechungsfrei aus dem Batteriepuffer weiterarbeiten. Das Zeitfenster ist so groß, dass in der Zwischenzeit ein Dieselgenerator angeworfen werden kann.

Nützliche Links