Erdbeben, Hochwasser, erhöhte Solar-Aktivitäten – dies sind nur einige Beispiele für Naturkatastrophen, die Rechenzentren lahmlegen können. Fairerweise sollte man an dieser Stelle aber auch erwähnen, dass dies zwar die spektakulärsten Risiken sind, die größte Ausfallgefahr jedoch nicht aus der Natur kommt. Ein Großteil der Störvorfälle geht auf menschliches Versagen zurück, auf den Ausfall der Stromversorgung, unzureichende Klimatisierung oder einen simplen Wasserschaden durch Rohrbruch. Doch egal ob von Menschenhand oder Naturgewalt hervorgerufen – für beide Fälle muss ein Notfallplan her! Bei vielen unserer Kunden bemerken wir, dass das Thema Disaster Recovery immer häufiger nachgefragt wird. Vor allem vier Punkte haben den Umgang mit dem Thema aus meiner Sicht in den vergangenen Jahren verändert:
1. Die Erwartungen an eine Datensicherung sind höher
Das alte Credo “Hauptsache die Daten sind irgendwo abgespeichert“ gilt nicht mehr: Die Standards sind erheblich gestiegen. Vor allem zwei Faktoren sind für Rechenzentrumsbetreiber wichtig: RTO und RPO. Das RTO (Recovery-Time-Objective) definiert, wie viel Zeit vergeht, bis im Falle einer Störung die Services im redundanten, sekundären Rechenzentrum vollständig zur Verfügung stehen. Zum zweiten geht es darum, das „RPO“ (Recovery-Point-Objective) zu bestimmen, also wie viel Datenverlust im Störungsfall akzeptabel ist.
Doch es geht um mehr als nur um Backup – auch das Monitoring mit richtliniengesteuerter Automatisierung ist wichtig um Unregelmäßigkeiten zu erkennen und Ausfallzeiten zu vermeiden.
2. Es gibt mehr geschäftskritische Anwendungen
Traditionell waren es vor allem ERP-Systeme oder auch Applikationen der Finanz- und Controllingabteilungen, die als geschäftskritisch angesehen wurden. Mittlerweile hat sich die Anzahl an Applikationen erhöht. Rechenzentrumsbetreiber sollten also darauf achten, hier für den Notfall einerseits eine Priorisierung vorzunehmen, zugleich aber auch gewährleisten, dass im WAN ausreichend Bandbreite zur Verfügung steht.
3. Massiver Anstieg der Daten
Mehr Applikationen führen auch zu einem Wachstum der Gesamtdatenmenge – wobei die Daten natürlich trotzdem hochverfügbar bleiben müssen. Die Fabric Vision Technologie für Rechenzentren bietet beispielsweise neue Möglichkeiten der Netzwerkkontrolle und verringert trotzdem die Komplexität für Remote-Rechenzentren.
4. Erhöhte gesetzliche Anforderungen
Schon seit einigen Jahren gibt es Vorschriften und Normen, dass die Recovery Site geografisch so gelegen sein sollte, dass sie nicht von den gleichen Risiken betroffen wird wie das Primärrechenzentrum.
All diese Faktoren schlagen sich natürlich auch in der Umsetzung nieder. Das alte Prinzip „Doppelt hält besser“, also die Redundanz bzw. räumliche Trennung der Rechenzentren, gilt natürlich noch immer. Aber auch das richtige Equipment muss her! Wie beispielsweise speziell für diesen Einsatz designte Switch-Typen wie der 7840 Extension Switch, der weit mehr Leistungsfähigkeit und Verfügbarkeit bietet als gewöhnliche „Allzweck-Exemplare“. Bei all den sich verändernden Rahmenbedingungen ist es also auch wichtig, den DR-Plan auf seine Aktualität zu überprüfen: Stimmen die Prioritäten? Wissen alle im Notfall Beteiligten Bescheid und verfügen auch über die Fähigkeiten, entsprechend zu handeln? All dies sollte geprüft werden, um den gestiegenen Anforderungen auch Rechnung tragen zu können.
Erfahren Sie hier mehr zum Thema IP Storage und Disaster Recovery.