Mit dem SP2 für Exchange 2010 wurde das Cross-Site Silent Redirection verbessert. Nunmehr geschieht das Redirection auf das Postfach automatisch und bedarf keinen manuellen klick auf die Redirection URL.
Weitere Informationen:
Exchange Team Blog
Dienstag, 13. Dezember 2011
Montag, 5. Dezember 2011
Hochverfügbarkeit - TOP 10 Irrtümer
Es gibt leider noch sehr viel Missverständnisse zum Thema Hochverfügbarkeit. Aus diesem Anlass hier die TOP 10 Irrtümer:
1. Hochverfügbarkeit ist nicht 99,5
Prozent
7 x
24-Stunden-Dauerbetrieb erlaubt bei einer Verfügbarkeit von 99,5 Prozent eine
durchschnittliche Ausfallzeit von über 43 Stunden pro Jahr. Für
unternehmenskritische Aufgaben ist dies zu wenig. Hier muss ein Verfügbarkeitsniveau
von mindestens 99,99 Prozent – mit einer durchschnittlichen Ausfallzeit von
etwa 52 Minuten pro Jahr - erreicht werden.
2. Hochverfügbarkeit ist nicht
Disaster Recovery
Disaster
Recovery ist Katastrophenschutz für die IT: Unternehmen schützen damit ihre
Systeme vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen,
beispielsweise indem sie Rechenzentren räumlich getrennt platzieren.
Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei Betriebsstörungen;
beide Aspekte sind in einem Sicherheitskonzept berücksichtigen.
3. Hochverfügbarkeit ist nicht
Stand-By
Bei
redundanten Systemen sind durch Umschalten und Übergabe der Prozesse
Ausfallzeiten technisch unvermeidlich. Die Konsistenz von Daten und
Transaktionen muss daher separat sichergestellt werden. Auch wenn es dafür
Softwarelösungen gibt, ist auf diese Weise eine Verfügbarkeit von höchstens
99,5 bis 99,9 Prozent erreichbar, was einer max. ungeplanten Downtime von 8,7
bis 43 Stunden pro Jahr entspricht.
4. Hochverfügbarkeit ist nicht RAID
Mit
RAID-Systemen werden Datenspeicher vor Ausfällen geschützt. Hochverfügbarkeit
sorgt dagegen für einen ausfallsicheren Betrieb der Server. In kritischen
Umgebungen muss daher immer beides implementiert sein.
5. Hochverfügbarkeit ist nicht
Backup
Backup-Lösungen
sichern wichtige Unternehmensdaten vor Verlusten, sind für einen
professionellen IT-Betrieb unverzichtbar und müssen für alle, nicht nur für
hoch verfügbare Systeme erstellt werden.
6. Hochverfügbarkeit ist nicht USV
Keine USV
kann Server-Abstürze verhindern oder abfangen. Für Hochverfügbarkeit ist der
Betrieb einer USV daher zwar eine Voraussetzung, aber keineswegs ausreichend.
7. Hochverfügbarkeit ist nicht ein
zweites Netzteil
Netzteile
sind störungsanfällig, deshalb verbessert ein zweites Netzteil die
Verfügbarkeit eines Servers. Doch damit lassen sich nicht andere
Hardware-Fehler, etwa in der CPU oder im RAM, abfangen. In fehlertoleranten
Servern sind alle wichtigen Komponenten, auch CPU und RAM, doppelt vorhanden. Auf
diese Weise lässt sich Hochverfügbarkeit realisieren.
8. Hochverfügbarkeit ist nicht
Virtualisierung
Die
Verfügbarkeit wird durch die Virtualisierung von Servern sogar verschlechtert,
weil hier ein einziger defekter physischer Server eine ganze virtuelle
Server-Gruppe lahm legt. Für jedes System müssen dann mehr oder weniger
aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden.
Auch wenn diese Maßnahmen mit Software-Unterstützung automatisch ablaufen, so
muss dafür stets eine gewisse Zeitspanne einkalkuliert werden. Daher müssen
gerade virtuelle Server mit unternehmenskritischen Applikationen auf einer hoch
verfügbaren Hardware-Plattform betrieben werden, beispielsweise
fehlertoleranten Systemen.
9. Hochverfügbarkeit ist nicht teuer
Natürlich
kostet eine IT-Lösung mehr, wenn sie hoch verfügbar ist - schließlich muss
Hochverfügbarkeit durch einen zusätzlichen technischen Aufwand hergestellt
werden. Diese Kosten müssen jedoch im Verhältnis zum möglicherweise
entstehenden Schaden gesehen werden. Eine einzige Stunde Server-Ausfall kann
heute mehr kosten als eine komplette Hochverfügbarkeitslösung. Mittlerweile ist
Hochverfügbarkeit aber auch für kleinere und mittlere Unternehmen
erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als
Cluster-Lösungen, weil sie keine zusätzlichen Kosten für Software-Anpassung,
zusätzliche Lizenzen oder eine aufwändige Administration verursachen. Lösungen
wie Stratus Avance können handelsübliche x86-Server per Software zu einer hoch
verfügbaren Plattform verbinden.
10. Hochverfügbarkeit ist nicht
Continuous Availability
Für
einige Anwendungen ist selbst echte Hochverfügbarkeit nicht mehr ausreichend,
beispielsweise in der Kraftwerkssteuerung, für Notfallsysteme in Krankenhäusern
oder in der Produktionssteuerung. Hier muss eine Verfügbarkeit von 99,999 oder
sogar bis zu 99,9999 Prozent ("Six Nine") erreicht werden, was eine
durchschnittliche Ausfallzeit von etwa 5 Minuten beziehungsweise einer halben
Minute pro Jahr gewährleistet. Diese Werte sind auch von Cluster-Systemen nicht
erreichbar; Anwender kommen hier nicht an fehlertoleranten Systemen vorbei.
Echte
Hochverfügbarkeit ist erst ab einem Verfügbarkeitsniveau von mindestens 99,99
Prozent gegeben. Hier beträgt die durchschnittliche Ausfallzeit höchstens 52
Minuten pro Jahr. Fehlertolerante Server, die komplett redundant aufgebaut
sind, erreichen auf Basis von Standard-Technologien eine Verfügbarkeit von mehr
als 99,999 Prozent. Da sie dem Anwender als "Black-Box"
gegenübertreten, lassen sie sich außerdem wesentlich leichter implementieren
und administrieren als leistungsmäßig vergleichbare Cluster-Systeme.
"Der
Begriff Hochverfügbarkeit wurde in den letzten Jahren aufgeweicht, weil viele
Anbieter Hochverfügbarkeit einfach entsprechend der Möglichkeiten ihrer eigenen
Systeme definieren", erklärt Timo Brüggemann, Director Business
Development EMEA bei Stratus in Eschborn. "Viele Unternehmen glauben daher
fälschlicherweise, dass sie hoch verfügbare Server einsetzen, während sie
tatsächlich bei Störungen mit nicht unerheblichen Ausfallzeiten rechnen müssen.
Im Ernstfall kann sich das als sehr teurer Irrtum erweisen.
Weitere Links:
http://de.wikipedia.org/wiki/Hochverf%C3%BCgbarkeit
Weitere Links:
http://de.wikipedia.org/wiki/Hochverf%C3%BCgbarkeit
Abonnieren
Posts (Atom)