Skip to main content

WAL/DB Konfiguration in eEKAS (Ceph OSD Optimierung)

Übersicht

In eEKAS sind WAL (Write-Ahead Log) und DB (RocksDB Metadaten) zentrale Komponenten der Ceph OSDs (Object Storage Daemons). Sie dienen der Optimierung von SchreibvorgÀngen sowie der effizienten Verarbeitung von Metadaten im Storage-Cluster.

StandardmĂ€ĂŸig befinden sich diese Komponenten auf denselben DatentrĂ€gern wie die OSD-Daten. eEKAS ermöglicht jedoch den Einsatz von dedizierten WAL/DB-GerĂ€ten, wodurch Performance und StabilitĂ€t insbesondere in hybriden Umgebungen (z. B. HDD + SSD/NVMe) deutlich verbessert werden können.

Select_DB_WAL_Option_en.png

Architektur und Funktion

WAL (Write-Ahead Log)

Das WAL speichert Schreiboperationen temporÀr, bevor sie dauerhaft auf die Daten-OSDs geschrieben werden. Dies stellt die Datenkonsistenz bei unerwarteten AusfÀllen sicher und reduziert die Latenz durch effizientere, sequenzielle SchreibvorgÀnge.

DB (RocksDB Metadaten)

Die DB enthĂ€lt wichtige Metadaten wie Objektindizes, Placement-Group-Informationen sowie interne Strukturen fĂŒr schnellen Zugriff und effiziente Verarbeitung.

Ablauf eines Schreibvorgangs

  1. Eine Schreibanforderung erreicht den OSD
  2. Die Operation wird zunÀchst im WAL gespeichert
  3. Metadaten werden in der DB aktualisiert
  4. Die Daten werden auf den eigentlichen OSD-DatentrÀger geschrieben

Vorteile dedizierter WAL/DB-GerÀte

Performance

  • Geringere Latenz: Schnellere BestĂ€tigung von Schreiboperationen
  • Höhere IOPS: Besonders bei kleinen, zufĂ€lligen SchreibvorgĂ€ngen
  • Optimierte HDD-Nutzung: Daten auf HDD, Metadaten und Logs auf SSD/NVMe
  • Stabileres Verhalten unter Last

Cluster-Effizienz

  • Verbesserte Performance bei Rebalancing und Recovery
  • Bessere Performance bei metadatenintensiven Workloads
  • Vorteilhaft bei Erasure Coding und S3 Object Storage

Konfiguration in eEKAS

Auswahlregeln fĂŒr DatentrĂ€ger

Bei der Konfiguration von WAL/DB mĂŒssen entweder 2 oder 4 DatentrĂ€ger pro Node ausgewĂ€hlt werden:

  • 2 DatentrĂ€ger: RAID 1 (Spiegelung)
  • 4 DatentrĂ€ger: RAID 10 (Striping + Spiegelung)

Wichtig: WAL/DB enthÀlt kritische Metadaten der OSDs. Bei Ausfall ohne RAID-Schutz gehen alle Daten der betroffenen OSDs verloren. Daher ist RAID zwingend erforderlich.

Sizing (KapazitÀtsplanung)

FĂŒr die Dimensionierung von WAL/DB wird folgende großzĂŒgige Mindestempfehlung gegeben:

Minimale WAL/DB-KapazitĂ€t = Anzahl OSDs pro Node × 50 GB

Formel:

WAL/DB KapazitĂ€t pro Node = Anzahl OSDs × 50 GB

Empfehlung: Diese großzĂŒgige MindestgrĂ¶ĂŸe stellt ausreichend Reserve fĂŒr Metadatenwachstum, Recovery-Prozesse und metadatenintensive Workloads (z. B. S3 oder viele kleine Dateien) sicher.

Beispiele

  • 8 OSDs → mindestens 400 GB
  • 12 OSDs → mindestens 600 GB
  • 24 OSDs → mindestens 1200 GB

Bei der Auswahl von 2 oder 4 WAL/DB-Disks muss sichergestellt werden, dass die nutzbare RAID-KapazitĂ€t diese Anforderungen erfĂŒllt.

Risiken und Hinweise

Ohne ausreichenden Schutz

  • Verlust von WAL/DB fĂŒhrt zum Verlust von Metadaten
  • OSDs werden unbrauchbar
  • Alle Daten der betroffenen OSDs gehen verloren
  • Neuaufbau und Rebalancing erforderlich

Fehlkonfiguration

  • Langsame DatentrĂ€ger reduzieren den Performance-Vorteil
  • Zu geringe KapazitĂ€t kann Performance-Probleme verursachen
  • Gemischte Medien können zu inkonsistentem Verhalten fĂŒhren

Best Practices

  • Enterprise SSD oder NVMe verwenden
  • Hohe IOPS und geringe Latenz bevorzugen
  • Einheitliche Hardware pro Cluster einsetzen
  • ZusĂ€tzliche Reserve fĂŒr S3, Erasure Coding und viele kleine Objekte einplanen

Zusammenfassung

Dedizierte WAL/DB-GerÀte verbessern Performance und StabilitÀt von Ceph-Clustern erheblich. Durch die Auslagerung von Metadaten und Log-Operationen auf schnelle Medien wird das Gesamtsystem effizienter und reaktionsschneller.

Da diese Komponenten kritische Metadaten enthalten, ist RAID-Schutz zwingend erforderlich. Als einfache und sichere Planungsregel sollten mindestens 50 GB WAL/DB pro OSD eingeplant werden.