In vielen Unternehmen findet im Umgang mit der Cloud inzwischen ein Umdenken statt. Sie möchten zumindest Teile ihrer Kerndaten und zentralen Anwendungen aus der Public Cloud zurückholen (Cloud Data Repatriation). Die Gründe für die Rückführung der Daten in das Unternehmen oder zum klassischen Hosting beschreibt Florian Malecki, International Product Marketing Senior Director bei StorageCraft, folgendermaßen:
Laut der US-Analystenfirma IDC haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Es wird davon ausgegangen, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgeholt werden – teils aus Kostengründen oder wegen der Skalierbarkeit.
Zwar bieten Public Clouds ein hohes Maß an Flexibilität, sie sind aber auch teuer und die Übertragung unstrukturierter Daten, wie sie beispielsweise vom Internet of Things (IoT) erzeugt werden, ist zudem oft nicht schnell genug. Gerade Unternehmen, die glaubten, sie hätten ihre Daten im Griff, müssen feststellen, dass sie die Masse unstrukturierter Daten nur schwer einschätzen können. Lange dachte man, das Problem wäre gelöst, wenn man den Großteil der Daten in die Cloud verschiebt. Jetzt wird zunehmend deutlich, dass die Cloud nicht nur teuer sein kann, sondern dass es aufgrund potenzieller Latenzzeiten auch manchmal schwer ist, schnell genug an bestimmte Daten heranzukommen.
Cloud Data Repatriation: Hybrid Cloud statt Public Cloud
Das hat den Trend zur Cloud-Rückführung bzw. Cloud Data Repatriation zur Folge. Immer mehr Unternehmen gehen deshalb zu einer hybriden Infrastruktur über, bei der nur bestimmte Daten und Anwendungen in der Public Cloud gehalten werden, während andere in eine lokale Infrastruktur zurückgeholt werden. Für Unternehmen, die ihre Daten aus der Public Cloud rückführen, stellt sich dabei die Frage, wo und wie sie diese speichern. Unternehmen aber auch Service Provider benötigen skalierbare Datenspeicherlösungen, die Geschäftsdaten schützen und diese jederzeit verfügbar halten – unabhängig davon, ob sie im Unternehmen, in Private Clouds oder extern bei einem Hoster gespeichert sind. Ein ideales Speichersystem sollte darüber hinaus Analysemöglichkeiten bieten, die Unternehmen bei der Einordnung von Informationen unterstützen, um leichter entscheiden zu können, welche Datensätze in der Public Cloud verbleiben, lokal gespeichert oder repatriiert werden müssen.
Die Datenflut erreicht inzwischen epische Ausmaße, so dass Unternehmen eine Infrastruktur benötigen, die einerseits das Datenwachstum bewältigt und andererseits alle unstrukturierten Daten sichern kann. Umso wichtiger ist die Wahl des richtigen Speichersystems, um sich für die neue Realität der Cloud-Rückführung zu wappnen und für Sicherheit zu sorgen.
Die gute Nachricht ist, dass die moderne Speichertechnologie diesen Herausforderungen gewachsen ist. Deshalb kann die richtige Speichertechnologie zu einer Geheimwaffe werden, die für bestmögliche Datenkontrolle sorgt und Risiken ein für alle Mal minimiert.