Montag, 5. Dezember 2011

Hochverfügbarkeit - TOP 10 Irrtümer

Es gibt leider noch sehr viel Missverständnisse zum Thema Hochverfügbarkeit. Aus diesem Anlass hier die TOP 10 Irrtümer:

 

1. Hochverfügbarkeit ist nicht 99,5 Prozent
7 x 24-Stunden-Dauerbetrieb erlaubt bei einer Verfügbarkeit von 99,5 Prozent eine durchschnittliche Ausfallzeit von über 43 Stunden pro Jahr. Für unternehmenskritische Aufgaben ist dies zu wenig. Hier muss ein Verfügbarkeitsniveau von mindestens 99,99 Prozent – mit einer durchschnittlichen Ausfallzeit von etwa 52 Minuten pro Jahr - erreicht werden.

2. Hochverfügbarkeit ist nicht Disaster Recovery
Disaster Recovery ist Katastrophenschutz für die IT: Unternehmen schützen damit ihre Systeme vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen, beispielsweise indem sie Rechenzentren räumlich getrennt platzieren. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei Betriebsstörungen; beide Aspekte sind in einem Sicherheitskonzept berücksichtigen.

3. Hochverfügbarkeit ist nicht Stand-By
Bei redundanten Systemen sind durch Umschalten und Übergabe der Prozesse Ausfallzeiten technisch unvermeidlich. Die Konsistenz von Daten und Transaktionen muss daher separat sichergestellt werden. Auch wenn es dafür Softwarelösungen gibt, ist auf diese Weise eine Verfügbarkeit von höchstens 99,5 bis 99,9 Prozent erreichbar, was einer max. ungeplanten Downtime von 8,7 bis 43 Stunden pro Jahr entspricht.
 
4. Hochverfügbarkeit ist nicht RAID
Mit RAID-Systemen werden Datenspeicher vor Ausfällen geschützt. Hochverfügbarkeit sorgt dagegen für einen ausfallsicheren Betrieb der Server. In kritischen Umgebungen muss daher immer beides implementiert sein.

5. Hochverfügbarkeit ist nicht Backup
Backup-Lösungen sichern wichtige Unternehmensdaten vor Verlusten, sind für einen professionellen IT-Betrieb unverzichtbar und müssen für alle, nicht nur für hoch verfügbare Systeme erstellt werden.

6. Hochverfügbarkeit ist nicht USV
Keine USV kann Server-Abstürze verhindern oder abfangen. Für Hochverfügbarkeit ist der Betrieb einer USV daher zwar eine Voraussetzung, aber keineswegs ausreichend.

7. Hochverfügbarkeit ist nicht ein zweites Netzteil
Netzteile sind störungsanfällig, deshalb verbessert ein zweites Netzteil die Verfügbarkeit eines Servers. Doch damit lassen sich nicht andere Hardware-Fehler, etwa in der CPU oder im RAM, abfangen. In fehlertoleranten Servern sind alle wichtigen Komponenten, auch CPU und RAM, doppelt vorhanden. Auf diese Weise lässt sich Hochverfügbarkeit realisieren.  

8. Hochverfügbarkeit ist nicht Virtualisierung
Die Verfügbarkeit wird durch die Virtualisierung von Servern sogar verschlechtert, weil hier ein einziger defekter physischer Server eine ganze virtuelle Server-Gruppe lahm legt. Für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden. Auch wenn diese Maßnahmen mit Software-Unterstützung automatisch ablaufen, so muss dafür stets eine gewisse Zeitspanne einkalkuliert werden. Daher müssen gerade virtuelle Server mit unternehmenskritischen Applikationen auf einer hoch verfügbaren Hardware-Plattform betrieben werden, beispielsweise fehlertoleranten Systemen.

9. Hochverfügbarkeit ist nicht teuer
Natürlich kostet eine IT-Lösung mehr, wenn sie hoch verfügbar ist - schließlich muss Hochverfügbarkeit durch einen zusätzlichen technischen Aufwand hergestellt werden. Diese Kosten müssen jedoch im Verhältnis zum möglicherweise entstehenden Schaden gesehen werden. Eine einzige Stunde Server-Ausfall kann heute mehr kosten als eine komplette Hochverfügbarkeitslösung. Mittlerweile ist Hochverfügbarkeit aber auch für kleinere und mittlere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als Cluster-Lösungen, weil sie keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration verursachen. Lösungen wie Stratus Avance können handelsübliche x86-Server per Software zu einer hoch verfügbaren Plattform verbinden.

10. Hochverfügbarkeit ist nicht Continuous Availability
Für einige Anwendungen ist selbst echte Hochverfügbarkeit nicht mehr ausreichend, beispielsweise in der Kraftwerkssteuerung, für Notfallsysteme in Krankenhäusern oder in der Produktionssteuerung. Hier muss eine Verfügbarkeit von 99,999 oder sogar bis zu 99,9999 Prozent ("Six Nine") erreicht werden, was eine durchschnittliche Ausfallzeit von etwa 5 Minuten beziehungsweise einer halben Minute pro Jahr gewährleistet. Diese Werte sind auch von Cluster-Systemen nicht erreichbar; Anwender kommen hier nicht an fehlertoleranten Systemen vorbei.
Echte Hochverfügbarkeit ist erst ab einem Verfügbarkeitsniveau von mindestens 99,99 Prozent gegeben. Hier beträgt die durchschnittliche Ausfallzeit höchstens 52 Minuten pro Jahr. Fehlertolerante Server, die komplett redundant aufgebaut sind, erreichen auf Basis von Standard-Technologien eine Verfügbarkeit von mehr als 99,999 Prozent. Da sie dem Anwender als "Black-Box" gegenübertreten, lassen sie sich außerdem wesentlich leichter implementieren und administrieren als leistungsmäßig vergleichbare Cluster-Systeme.
"Der Begriff Hochverfügbarkeit wurde in den letzten Jahren aufgeweicht, weil viele Anbieter Hochverfügbarkeit einfach entsprechend der Möglichkeiten ihrer eigenen Systeme definieren", erklärt Timo Brüggemann, Director Business Development EMEA bei Stratus in Eschborn. "Viele Unternehmen glauben daher fälschlicherweise, dass sie hoch verfügbare Server einsetzen, während sie tatsächlich bei Störungen mit nicht unerheblichen Ausfallzeiten rechnen müssen. Im Ernstfall kann sich das als sehr teurer Irrtum erweisen.

Weitere Links:
http://de.wikipedia.org/wiki/Hochverf%C3%BCgbarkeit

Keine Kommentare:

Kommentar posten