Storage on Demand: Die Speicherarchitektur (DAS, NAS, SAN)

Auch wenn der Zugriff auf Speicherressourcen oft virtuell und dynamisch erfolgt, liegt allen Lösungen ein konkretes Hardwaresetup zugrunde. Dieses unterscheidet sich je nach Konzept der Speicherarchitektur.

Der erste Teil unserer Artikelreihe zu „Storage on Demand“ beleuchtete die konzeptionellen Vorteile flexibler Speicherlösungen. Im zweiten Teil wenden wir uns der praktischen Ebene zu: den physikalischen Grundlagen, auf denen moderne Speicherarchitekturen basieren.

Grundsätzlich gibt es drei Hauptformen: DAS (Direct Attached Storage), NAS (Network Attached Storage) und SAN (Storage Area Network). Sie definieren, wie Speicher physisch angebunden und (ggf. im Netzwerk) verfügbar gemacht wird. Hinsichtlich Performance, Skalierbarkeit, Ausfallsicherheit und Management weisen sie unterschiedliche Eigenschaften auf.

Moderne Speicherlösungen wirken auf den ersten Blick abstrakt: Ressourcen lassen sich bedarfsgerecht skalieren, Speicherkapazitäten flexibel zuweisen, Daten dynamisch verschieben. Doch hinter jedem On-Demand-Modell steht eine physische Infrastruktur, die maßgeblich darüber entscheidet, wie performant, zuverlässig und erweiterbar eine Speicherlösung ist. Die Basis dafür bilden unterschiedliche Speicherarchitekturen: allen voran DAS (Direct Attached Storage), NAS (Network Attached Storage) und SAN (Storage Area Network).

Diese Architekturen unterscheiden sich darin, wie Speicher angebunden wird, wie viele Systeme gleichzeitig darauf zugreifen können und welche Rolle dabei Netzwerk, Protokolle und Management-Software spielen. Die Wahl des passenden Modells hängt stark vom jeweiligen Anwendungsfall ab, sowohl technisch als auch wirtschaftlich.

DAS – lokal angebundener Speicher ohne Netzwerkanbindung

Direct Attached Storage (DAS) bezeichnet einen physisch direkt an einen Server angeschlossenen Speicher, etwa über SATA, SAS oder PCI-Express. Er ist ausschließlich lokal nutzbar und nicht für den Zugriff durch andere Systeme im Netzwerk vorgesehen. Diese Architektur ist einfach, kosteneffizient und ermöglicht sehr geringe Latenzen, da keine Netzwerkkommunikation erforderlich ist.

Ein typisches Einsatzszenario für DAS ist ein dedizierter Datenbankserver, der ausschließlich lokale I/O-Lasten bewältigen muss. Auch bei bestimmten Appliances oder Monitoring-Systemen, die ihre Daten nicht zentral ablegen müssen, bietet DAS die passende Lösung.

Die Einschränkungen liegen jedoch auf der Hand: Weder Hochverfügbarkeit noch gemeinsame Nutzung durch mehrere Systeme sind ohne weiteres möglich. Fällt der zugehörige Server aus, ist auch der Speicher nicht mehr erreichbar. Zudem fehlt es an Skalierbarkeit: Der verfügbare Speicherplatz ist auf die im Server vorhandenen Laufwerk-Slots begrenzt.

NAS – netzwerkbasierter Zugriff auf Dateisysteme

Network Attached Storage (NAS) erweitert das Konzept, indem der Speicher über das Netzwerk für mehrere Clients verfügbar gemacht wird. Der Zugriff erfolgt dateibasiert über Protokolle wie NFS (für Unix-/Linux-Systeme) oder SMB (für Windows-Umgebungen). Der Speicher erscheint aus Sicht der Clients wie ein zusätzliches Netzlaufwerk und kann zentral verwaltet werden.

Typische Einsatzszenarien sind dateibasierte Workloads: Zum Beispiel in einer Kreativagentur, wo mehrere Mitarbeiter gleichzeitig auf Grafiken, Präsentationen oder Videodateien zugreifen. Auch als zentrale Backup-Zielstruktur oder für den Austausch großer Datenmengen in Büro- oder Entwicklungsumgebungen ist NAS weit verbreitet. Dabei ist NAS gerade für kleine und mittelständische Unternehmen eine kostengünstige und beliebte Lösung, da sie mit vielen Zusatzfunktionen erweiterbar ist und die monetäre Einstiegshürde niedrig ist. 

Die Vorteile liegen in der einfachen Integration, zentralen Verwaltung und der gemeinsamen Nutzung. Gleichzeitig ist NAS technisch limitiert, insbesondere im Hinblick auf parallele Zugriffe, hohe I/O-Lasten und Performanceanforderungen in virtualisierten Umgebungen. Zudem hängt die Ausfallsicherheit stark von der konkreten Umsetzung ab: Ein einzelnes NAS-System kann einen Single Point of Failure (SPoF) darstellen, wenn keine Redundanz-Mechanismen vorhanden sind.

SAN – hochverfügbare Speicherarchitektur für professionelle Workloads

Ein Storage Area Network (SAN) geht über die Möglichkeiten von DAS und NAS deutlich hinaus. Im Gegensatz zum dateibasierten Zugriff bei NAS erfolgt der Zugriff bei SAN blockbasiert: auf Ebene einzelner Datenblöcke, vergleichbar mit lokalen Festplatten. Dadurch lassen sich höhere Performance-Werte und eine feinere Steuerung der Speicherzugriffe realisieren.

Ein SAN besteht aus einem dedizierten Speicher-Netzwerk, das über Fibre Channel, InfiniBand oder spezielle Protokolle wie iSCSI kommuniziert. Es ist physisch vom Produktionsnetzwerk getrennt und auf sehr hohe Datenraten und maximale Ausfallsicherheit ausgelegt. In größeren Rechenzentrumsumgebungen ist ein SAN häufig die zentrale Speicherplattform für virtualisierte Serverlandschaften, Datenbanken oder geschäftskritische Anwendungen.

Ein Beispiel: In einer virtualisierten Umgebung greifen Dutzende von virtuellen Maschinen gleichzeitig auf gemeinsam genutzte Datenspeicher zu. Ein SAN stellt sicher, dass diese Zugriffe parallel, performant und ausfallsicher erfolgen, selbst bei hoher Last. Die Verfügbarkeit kann durch redundante Controller, Multipathing und automatisches Failover abgesichert werden. 

So betreibt etwa das CERN, die europäische Organisation für Kernforschung, eine Ceph‑basierte SAN‑Clusterarchitektur mit rund 30 PB nutzbarem Speicher und kontinuierlicher Leseleistung von ca. 30 GB/s, um die enormen Datenmengen der LHC-Experimente effizient zu verarbeiten.

Ein weiterer Vorteil ist die Flexibilität bei der Zuweisung und Verwaltung von Speicherressourcen: Virtuelle Volumes können dynamisch bereitgestellt, vergrößert oder migriert werden, ohne dass physisch eingegriffen werden muss. Gleichzeitig erfordert der Betrieb eines SANs eine entsprechende Infrastruktur, Fachwissen sowie Investitionen in Hardware, Netzwerkkomponenten und Management-Tools.

Fazit: Auswahl der Speicherarchitektur nach Bedarf

DAS, NAS und SAN bilden die physische Grundlage jeder Speicherlösung, auch im Kontext von „Storage on Demand“. Während DAS für lokal begrenzte Szenarien geeignet ist (Beispiel: der Betrieb hochperformanter Datenbanken), bietet NAS netzwerkbasierten Zugriff auf gemeinsam genutzte Dateien. SAN wiederum stellt eine leistungsstarke und ausfallsichere Lösung für anspruchsvolle Workloads dar (wie etwa beim Teilchenbeschleuniger des CERN).

Welche Architektur zum Einsatz kommt, hängt sowohl vom konkreten Anwendungsfall ab als auch von den Anforderungen an Performance, Skalierbarkeit, Verfügbarkeit und Verwaltung. Moderne Speicherplattformen kombinieren oft mehrere Technologien und abstrahieren diese über ein zentrales Software-Management. Dadurch lassen sich selbst komplexe Speicherlandschaften bedarfsgerecht und flexibel betreiben.

Jetzt Platz sichern

Sie wollen digital zukunftsfähig sein und Ihre Datensouveränität wahren?
Jetzt Kapazitäten sichern
im AI-Ready Rechenzentrum in Rosbach bei FFM.

Jerome Evans

Jerome Evans ist seit über 15 Jahren in der IT-Branche tätig und gründete das Unternehmen firstcolo GmbH. Er ist verantwortlich für den Aufbau und Betrieb von Rechenzentren und zunehmend auch für Cloud-basierte Serverinfrastrukturen. 

Setzen Sie auf nachhaltige Colocation, die spart!

Sie wollen IT-Kosten senken und die wirtschaftliche Effizienz Ihres Unternehmens steigern?

Wir beraten Sie gern.

WordPress Cookie Hinweis von Real Cookie Banner