13.4 C
Berlin
Donnerstag, Mai 30, 2024

Dir gefällt unsere Seite? Unterstütze unsere Arbeit mit einem Kaffee.

StartStrategieStorage, quo vadis?! (Teil I)

Storage, quo vadis?! (Teil I)

Date:

Seit einiger Zeit beobachten wir einen Trend. Immer mehr Hersteller von von Back-up- und Storage-Lösungen fügen ihren Produkten Features hinzu, die mit dem eigentlichen Kern nichts mehr zu tun haben. In diesem Artikel betrachten wir diese Entwicklung, zeigen den Denkfehler darin auf und stellen in zwei weiteren Teilen der Artikelserie Maßnahmen für den besseren Schutz von Daten (und anderen wertvollen Assets) vor.


Teil II der Artikelreihe: Storage, Backup & Co

Teil III der Artikelreihe: Infrastruktur


Mit der scheinbaren Marktreife von KI ist ein harter Wettstreit rund um den Schutz und die Verwaltung der ach so wertvollen Daten – vor allem aber die Gelder der Investoren – ausgebrochen. Was einige Anbieter präsentieren, stellt so manche Cybersicherheitsplattform in den Schatten. Das ist beunruhigend. Denn statt Komplexität zu reduzieren, werden die Datengräber zu überladenen, kaum mehr beherrschbaren Code- und Schnittstellen-Monstern. Das birgt jede Menge neue Gefahren. Eine größere, unübersichtliche Angriffsfläche ist nur eine davon.

Zuerst fiel uns das bei Cohesity und seiner Übernahme von Veritas auf. NetApp wirbt mit gleich mehreren Erweiterungen, welche die Daten vor Ransomware-Angriffen schützen sollen. Jüngstes Beispiel ist ctera, das neuerdings u. a. mit Anomalieerkennung und Honeypots Innentäter jagen will. Selbst Fujifilm Media will sich nicht mehr mit der Tape-Produktion begnügen und auch im Data Management-Markt mitmischen. Ja sogar mit den Libraries selbst nimmt man es auf und schickt mit Kangaroo eine eigene Appliance in den Ring.

Selbstverständlich macht die ein oder andere Erweiterung Sinn. Gewisse Data-Management-Funktionalitäten und Schutzfunktionen liefern durchaus einen Mehrwert für die Speicher und Archive. In manchen Anwendungsszenarien ist GPU-Direct hilfreich. Doch wann ist Zuviel zu viel?

Software-definierter Fluch und Segen

Die Investition in Storage will gut überlegt sein. Guter Storage ist teuer und gern mal ein Fass ohne Boden. Zumeist bindet sich ein Unternehmen auf Jahre an einen Anbieter: Die Daten wachsen, Speicher muss erweitert werden und möglichst mit dem Altsystem kompatibel sein.

Software-definierter Speicher versprach Abhilfe. Plötzlich war es möglich, unrentable Altlasten mit modernen Lösungen zu kombinieren. Mit dem Schlagwort Investitionsschutz begann ein stellenweise unkontrollierter Wildwuchs im Backend.

Software-defined verbindet Äpfel aller Arten, überall.

Mit Auto-Tiering folgten schnell erste zaghafte Gehversuche in der Datenverwaltung. Mittlerweile gibt es kaum mehr eine Lösung, die kein Data Management anbietet. Und weil man ja sowieso im Stack sitzt, kann man ja gleich noch Analysen, Sicherheit und Life-Cycle-Management mitmachen. Das birgt gleich mehrere Risiken. Die größten sind:

  1. Die zusätzliche Management-Ebene erhöht die Komplexität trotz der vermeintlichen Vereinfachung.
  2. Immer mehr Funktionen schaffen neue Monolithen und damit neue Abhängigkeiten (Vendor Lock-in).
  3. Zahlreiche Schnittstellen und Integrationen vergrößern die Angriffsfläche und die Gefahr, schadhaften Code zu verwenden in Folge unübersichtlicherer Software-Lieferketten.

Der neueste Clou im Marketing ist künstliche Intelligenz. Das Hype-Thema sorgt derzeit vor allem für geöffnete Investoren-Geldbeutel. Da wundert auch keinen, wenn selbst Hersteller eines sonst eher tumben Stücks Hardware wie einem Speichermedium damit hausieren gehen. Jüngstes Beispiel ist Glasplattenveredler cerabyte, welche bis vor kurzem noch mit der energetischen Rettung des Rechenzentrums warben und jetzt mit ihren Archiven kalte Daten fit für KI machen wollen.

Das Ziel der Hersteller ist klar: ein möglichst großes Stück vom Kuchen abbekommen. Und weil Storage (eigentlich) sterbenslangweilig ist (und es ohnehin zu viele Anbieter gibt), treibt der Eifer um KI, noch besseres Datenmanagement oder den besten Ransomware-Schutz immer seltsamere Blüten hervor und sorgt nicht selten für blinden Aktionismus, vor allem im Marketing. Angstgegner Ransomware wird inflationär als Staatsfeind Nr. 1 bemüht, den es immer heroischer zu besiegen gilt. Und wenn das nicht mehr zieht, müssen ökologischer Fußabdruck und künstliche Intelligenz herhalten. Datenreduktion (und damit generell weniger Strom verzehrendes Blech im Rechenzentrum) scheint nach wie vor definitiv keine Option zu sein.

Von einem der auszog, dem Wettbewerb das Fürchten zu lehren

Von Zeit zu Zeit gibt es sie, die Lichtblicke im Einheitsmeer der IT-Lösungen. Mit neuen Denkansätzen gelingt innovativen Geistern ein echter Paradigmenwechsel. Das beste Beispiel kommt mit Palo Alto Networks aus dem Bereich Cybersicherheit, das mit seiner Single Pass Engine (SPE) die erste und bis heute eine der wenigen echten Next Generation Firewalls (NGFW) ist. Nach deren Markteintritt wollte plötzlich jede UTM (Unified Threat Management) eine NGFW sein, doch schaffte es weder mit der Leistung noch der Erkennungsrate einer SPE mitzuhalten.

Im Storage-Bereich gelang ein ähnlich genialer Coup der 2014 gegründeten Rubrik mit ihren immutable Backups und instant Recovery-Möglichkeiten. Dass es in Firmen mitunter zu Katastrophen kommt, ist unbestritten. Das unverwundbare, kontinuierliche Backup zum Primärstorage zu machen und somit innerhalb weniger Sekunden wieder einsatzbereit zu sein, war revolutionär und ist seitdem ein oft kopiertes Feature.

Mit seinem immutable Filesystem machte Rubrik nicht nur Erpressern das Leben schwer(er); es lehrte vor allem den Wettbewerb das Fürchten. Alles drehte sich plötzlich um RTO und RPO, Cloud-Backup wurde gesellschaftsfähig. Das Geheimnis der Unverwundbarkeit (eigentlich nur eine geschickte Kombination verschiedener, bekannter Maßnahmen mit ein klein bisschen Magie) ließ sich dennoch nicht so einfach knacken. Der Wettbewerb experimentiert weiter mit Object-, File- und anderen Locks sowie WORM vor sich hin. Dauerbrenner Ransomware lässt die graue Masse der Storageanbieter weiter dem Markt hinterher laufen statt ihn mit eigenen Ideen aktiv mitzugestalten.

Dabei ist der Datenspeicher das wirklich allerletzte Glied in der Kette der Angriffserkennung. Hat ein Angreifer es nämlich erst einmal bis ins Backend (und Backup) geschafft, hat vorher ein ganzes Unternehmen sowohl strategisch als auch technisch versagt.

Pferde nie von hinten aufzäumen

Die Hilflosigkeit ist die gleiche, wie vor 10 Jahren – nur dass man inzwischen statt eigener immer mehr künstliche Intelligenz einsetzt. Sie bewahrt Unternehmer aber nicht davor, ihrer Gesamtverantwortung gerecht zu werden und eine ganzheitliche Strategie zu entwickeln. Und die sollte nicht am letzten Dominostein anfangen, nachdem zuvor schon alle anderen umgefallen sind. Aber genau das passiert in vielen Unternehmen. Unter anderem schuld sind wie so oft mal wieder die vielen Silos. Plausibel klingendes Marketinggewäsch, schlecht informierte Entscheider mit jeweils eigener Agenda und redegewandte Verkäufer erledigen den Rest.

Um eine geeignete Strategie zu entwickeln, müssen Silos eliminiert und wenigstens rudimentäre Kenntnisse über Angriffsketten vorhanden sein. Ziel eines jeden Unternehmers sollte es sein, die Kette so früh wie möglich zu unterbrechen.

Cyber Attack Kill Chain mit Pferd

Eine Cyber-Angriffskette besteht aus sieben Phasen. Am besten gelangt ein Angreifer gar nicht erst ins Netzwerk. Gelingt es ihm trotzdem, gibt es immer noch Möglichkeiten, ihn aufzuhalten. Die zweite ist die einzige Phase, in der wenig zu machen ist. Allerdings gibt es für alle Phasen einen ständig aktualisierten Katalog bekannter Angriffstechniken sowie geeigneter Gegenmaßnahmen, der Unternehmen bei der Prävention hilft. Backups und Archive sind nur die Versicherungspolice: sie sollte im Ernstfall funktionieren, aber möglichst nie zum Einsatz kommen müssen.


Fazit

Cybersicherheit ist ein sehr komplexes Feld. Wir wollen Unternehmen anregen, sich intensiver mit ihrer Infrastruktur, ihren Zielen und ihrer Verantwortung sowie neuer Technologie auseinanderzusetzen. Das weite Feld der künstlichen Intelligenz haben wir bewusst außen vor gelassen und werden es separat behandeln. Gerade in der IT-Sicherheit ist der Einsatz von KI, Machine Learning (ML) und natürlichen Sprachmodellen (NLP, LLM) mehr als hilfreich. Es birgt aber auch Risiken. Letztlich kommen Unternehmen nicht umhin, ihre IT-Sicherheitsstrategie permanent zu überdenken und an die sich kontinuierlich ändernde Bedrohungslage anzupassen. Ein paar Grundmaßnahmen wie mehrstufige Absicherung, Segmentierung, Rollen- und Berechtigungskonzept, Klassifizierung von Informationen ändern sich seltener. Was sich jedoch rasant ändert, sind Technologie und Werkzeuge – auf beiden Seiten der Front. Unternehmen müssen agieren und ihre Landschaften modernisieren. Jedes „das haben wir schon immer so gemacht“ und „nobody was ever fired for buying a [big name]“ sind aus unternehmerischer Sicht nicht einfach nur grob fahrlässig, sondern vorsätzlich kriminell. Die Sicherheit des Unternehmens und all seiner Assets ist Chefsache, denn er ist persönlich haftbar für jedes Versäumnis. Investitionen in die Sicherheit des Unternehmens und deren Infrastruktur sollten höchste Priorität haben. Ein Produktionsausfall ist im Zweifel teurer. Verlorenes Vertrauen lässt sich nur schwer wiedergewinnen.

Kerstin Mende-Stief
Kerstin Mende-Stief
Publisher & Editor in Chief data-disrupted.de | Analyst | Ghost Writer | Tech Doku & Translations @ mende.media for B2B ICT only, open source first | Cocktail Mixer | House Electrician | cat herder

Newsletter

Verpasse keinen Artikel oder Podcast mehr: Mit unserem Newsletter informieren wir Dich sporadisch über Updates. Manchmal ist auch von einem Hersteller sponsored content dabei. Wir geben jedoch nie Deine Kontaktdaten weiter. Versprochen!

Mehr aus dieser Rubrik

spot_img