Multipathing und Bonding bieten unterschiedliche Ansätze zur Netzwerkredundanz Linux. Während Multipathing auf Storage-Zugriffe spezialisiert ist, kombiniert Bonding mehrere Netzwerkschnittstellen und erhöht so Bandbreite und Fehlertoleranz. Die Wahl hängt stark von Anforderungen und Infrastruktur ab.
Zentrale Punkte
- Multipathing optimiert Storage-Zugriffe und erhöht die Resilienz bei Speicherverbindungen.
- Bonding steigert Bandbreite und Ausfallsicherheit auf Netzwerkebene.
- Linux unterstützt beide Technologien durch integrierte Kernel-Module.
- Performance: Multipathing liefert beim Lesen deutlich höhere Geschwindigkeiten.
- Flexibilität: Beide Lösungen lassen sich auch kombiniert einsetzen.

Grundlagen: Was unterscheidet Multipathing von Bonding?
Multipathing nutzt mehrere unabhängige Pfade zu Massenspeichern, etwa in SAN-Konfigurationen (Storage Area Networks). Es sorgt dafür, dass ein Geräteausfall einzelne Verbindungen nicht unterbricht. Bonding hingegen bündelt mehrere physikalische Netzwerkinterfaces zu einer einzigen logischen Verbindung. Damit lassen sich Bandbreite erhöhen, Paketverluste vermindern und Failover realisieren. In einer typischen Hosting-Architektur erlaubt Bonding die kombinierte Nutzung verfügbarer Leitungen und verbessert dadurch die Verfügbarkeit nach außen. Bei Multipathing liegt der Fokus auf dem internen Datenzugriff auf Blockspeicher. Beide Techniken setzen an unterschiedlichen Layers im OSI-Modell an und lassen sich nicht direkt miteinander vergleichen – sie erfüllen jeweils unterschiedliche Aufgaben.Technische Funktionsweise im Detail
Multipathing wird unter Linux über das Device Mapper-Framework (DM-MP) aktiviert. Dabei identifiziert das System mehrere Pfade zu einem Speichermedium und verteilt die I/O-Last über diese Pfade. Je nach Konfiguration (z. B. Round-Robin oder Multibus) nutzt das System diese Kanäle gleichzeitig oder sequenziell. Bonding hingegen basiert auf virtuellen Netzwerkinterfaces. Durch die Bündelung realer Interfaces entsteht ein neues logisches Interface (z. B. bond0). Abhängig vom Modus werden alle verfügbaren Interfaces gleichzeitig genutzt oder stehen im aktiv/passiven Verhältnis zueinander. Die Konfiguration ist relativ unkompliziert und erfolgt über Netzwerk-Interfaces oder Systemdienste.
Erweiterte Praxis: Multipathing in Virtualisierungsumgebungen
In virtualisierten Umgebungen, beispielsweise bei VMware oder KVM, steht die Frage im Raum, wie sich Multipathing optimal integrieren lässt. Hier spielen die hypervisorseitigen Einstellungen und die Anbindung der virtuellen Maschinen an virtuelle Switches eine wichtige Rolle. Damit Multipathing effizient genutzt wird, sollte das virtuelle SAN ebenfalls mehrere Pfade anbieten können. Besonders, wenn Storage-Systeme wie ein Fibre Channel- oder iSCSI-Storage im Hintergrund laufen, lohnt sich die Einrichtung mehrerer redundanter Leitungen. In diesem Fall kann das Device Mapper-Framework auf dem Host sicherstellen, dass die virtuellen Maschinen selbst bei Ausfall eines Netzwerkpfades weiterhin Zugriff auf ihre virtuellen Datenspeicher haben.Erweiterte Praxis: Bonding in Container-Orchestrierung
Container-Orchestrierungssysteme wie Kubernetes oder Docker Swarm profitieren ebenfalls von Bonding. Durch das Bündeln mehrerer physischer Interfaces kann das Overlay-Netzwerk im Cluster hohe Datendurchsätze erzielen. Zudem lassen sich kurze Ausfallzeiten beim Umschalten auf ein Backup-Interface realisieren. In Umgebungen mit vielen Containern und hohem Netzwerk-Traffic – etwa bei Microservices-Architekturen mit starkem I/O im Netzwerk – verschafft Bonding einen echten Vorteil: weniger Engpässe und stabilere Verbindungen zwischen den Knoten im Cluster.Performance richtig bewerten: Wann lohnt sich welche Technik?
Tests zeigen, dass Multipathing vor allem beim Lesen von Daten deutliche Vorteile bringt. In Benchmarks übertrifft es Bonding bei Leseoperationen mit bis zu 62 MB/s gegenüber 35 MB/s. Beim Schreiben ist der Unterschied geringer (6 MB/s zugunsten von Multipathing). Für speicherintensive Applikationen mit vielen Lesezugriffen ist Multipathing die bessere Wahl. Bonding spielt seine Stärken aus, wenn eine hohe Verfügbarkeit über generelle Netzwerkschnittstellen gefragt ist. Besonders in Kombination mit Dynamic Link Aggregation (802.3ad) lässt sich die Bandbreite skalieren – unter Voraussetzung entsprechender Switch-Unterstützung für Lastverteilung.Praxisnahe Kennzahlen besser verstehen
Beim Performance-Vergleich ist zu beachten, dass die konkreten Werte stark von der jeweiligen Hardware, dem Protokoll und der Infrastruktur abhängen. So kann das verwendete Dateisystem (etwa ext4, XFS oder ZFS) einen großen Einfluss auf den Durchsatz haben. Auch die RAID-Konfiguration des Speichers oder die Cache-Richtlinien von SAN-Systemen spielen eine Rolle. Werden beispielsweise SSDs im SAN verbaut und Multipathing korrekt eingerichtet, können Lese- und Schreibraten weit über den oben genannten Werten liegen. Auch Bonding kann durch schnelle 10-Gigabit- oder 25-Gigabit-Ethernet-Schnittstellen enorme Bandbreiten freisetzen, sofern das restliche Netzwerk entsprechend skaliert ist.Wann setzt man was ein?
Für Blockspeicher mit hoher Anforderung an Geschwindigkeit und Fehlertoleranz ist Multipathing nahezu unverzichtbar. Typische Einsatzfelder sind: – Virtualisierte Server-Umgebungen mit zentralem SAN – Datenbanken mit hochfrequentem Lesezugriff – Performance-kritischer Storage-Zugriff bei Clustern Bonding eignet sich besonders in Netzwerksituationen, in denen die Übertragung über mehrere physikalische Ports verteilt werden soll – besonders dann, wenn keine Spezialspeicher beteiligt sind: – Webserver mit redundanter Internetanbindung – Failover-Netzwerke – Systeme mit mehreren Ethernet-Ports In Hochverfügbarkeits-Szenarien lassen sich beide Technologien kombinieren: Storage-Zugriff via Multipathing, Netzwerk in den Load Balancer via Bonding.Skalierung und Wachstum
Wer sich langfristig auf die wachsenden Anforderungen in einem Rechenzentrum vorbereitet, sollte für ausreichende Skalierungsoptionen sorgen. Multipathing lässt sich im Nachhinein erweitern, indem weitere Pfade oder zusätzliche Hosts an das SAN angebunden werden. Bonding kann ebenso Schritt halten, wenn zusätzliche Netzwerkschnittstellen oder leistungsfähigere Switche hinzukommen. Die Entscheidung, welche Technologie zuerst zum Einsatz kommt, orientiert sich an den aktuellen Engpässen: Liegt das primäre Nadelöhr beim Speicherzugriff, hilft Multipathing als Erstes weiter. Ist stattdessen das Netzwerk überlastet oder fehlt eine Redundanz gegen Netzwerkausfälle, so ist Bonding die naheliegende Wahl.
Vergleichstabelle: Multipathing vs. Bonding
Kriterium | Multipathing | Bonding |
---|---|---|
Einsatzschwerpunkt | Speicherzugriff (iSCSI, Fibre Channel) | Netzwerkredundanz / Bandbreite |
Netzwerkeinbindung | Separate IPs, unterschiedliche Subnetze | Eine IP über logisches Interface |
Lesedurchsatz | Höher (bis zu 62 MB/s) | 35 MB/s (abhängig vom Bond-Modus) |
Fehlertoleranz | Ja – bei Pfadausfall automatische Umschaltung | Ja – je nach Modus aktiv/passiv oder simultan |
Konfiguration | Komplexer (multipath.conf) | Einfacher (Interfaces-Dateien) |

Multipathing unter Linux einrichten
Ich starte mit der Installation von multipath-tools. Je nach Distribution erfolgt dies per apt oder yum. Danach bearbeite ich die Datei/etc/multipath.conf
, in der ich nutzerfreundliche Namen und Blacklists definiere. Anschließend aktiviere ich den Dienst multipathd
und überprüfe die Konfiguration via multipath -ll
.
Dieses System eignet sich gut für dedizierte Storage-Umgebungen. Für ein SAN mit mehreren Pfaden lohnt sich die korrekte Einrichtung unbedingt. Die Lastverteilung über bis zu 16 Pfade rechnet sich spätestens bei Lesezugriffen im Terabytebereich täglich.
Best Practices und mögliche Stolpersteine
In produktiven Umgebungen gilt es, einige Punkte zu beachten. Erstens sind die Firmware-Versionen und Treiber für HBA-Karten (Host-Bus-Adapter) oder NICs kritisch: Veraltete Treiber können die Gesamtperformance stark einschränken. Zweitens ist es sinnvoll, vor dem Aktivieren von Multipathing sorgfältig zu prüfen, ob alle Speicherpfade sauber erkannt werden. Im Zweifel hilft ein Blick indmesg
oder in Protokolle unter /var/log/messages
, um Fehlerquellen wie inkonsistente Device-Namen zu identifizieren.
Nicht zuletzt sollte man bedenken, dass Multipathing bei komplexen SAN-Strukturen fortlaufend überwacht werden muss. Ein Monitoring-Tool, das regelmäßig die Pfadzustände analysiert und gegebenenfalls Alarme sendet, ist in großen Umgebungen nahezu Pflicht.
Bonding unter Linux konfigurieren
Ich lade das Kernelmodul „bonding“ und editiere die Konfigurationsdateien. Bei Debian-artigen Systemen trage ich die Parameter direkt in/etc/network/interfaces
ein. Für Bonding-Modus 802.3ad nutze ich „bond-mode
“, „miimon
“ und die Namen der physikalischen Interfaces über „bond-slaves
“. Anschließend starte ich das Netzwerk neu und prüfe den Bonding-Status via cat /proc/net/bonding/bond0
.
In Kombination mit einem leistungsfähigen Switch nutze ich Bonding für maximale Bandbreite. Vor allem bei redundanten Internetleitungen oder interner Netzlastverteilung bringt mir das Mehrwert.
Tipps für den reibungslosen Betrieb
Bei der Nutzung von Bonding ist ein genauer Blick auf die Switch-Konfiguration unverzichtbar. Ein häufiger Fehler ist das falsche Einrichten von LACP (Link Aggregation Control Protocol): Wenn der Switch LACP erwartet, der Host aber ein statisches Bonding betreibt (oder umgekehrt), kann dies zu Paketverlust, Netzwerkflapping oder einer deutlichen Bandbreiteneinbuße führen. Zusätzlich ist auf die Konfiguration des Spanning Tree Protocol (STP) zu achten. In manchen Fällen kann es von Vorteil sein, Rapid STP (RSTP) oder andere schnellere Stufen des Spanning Tree zu aktivieren, damit ein Failover schneller reagiert. Dies gilt besonders bei größeren Switch-Topologien, in denen mehrere Switch-Layer involviert sind.
Mehr Redundanz dank Layer-3-Bonding und PRP
Layer-3-Bonding schafft Redundanz unabhängig vom Protokoll. Das unterscheidet es von Multipath-TCP-Proxies, die sich nur auf TCP-Verbindung fokussieren. Ich kann damit auch UDP-Streams ausfallresilient übertragen. Das macht die Methode ideal für Audio-/Videoübertragungen oder Cloud-Gaming-Anwendungen mit Paketverlusttoleranz. PRP (Parallel Redundancy Protocol) realisiert echte Netzwerkkopien. Zwei identische Netzwerke verwenden jeweils eigene Interfaces, Pakete werden doppelt gesendet. Bei Ausfall eines Netzes greifen Empfänger automatisch auf das intakte Pendant zu. Diese Technik vermeidet spürbare Umschaltzeiten – ideal für industrielle Systeme, z. B. in Energieverteilnetzen oder Messsystemen.Proaktive Überwachung und Health-Checks
Wer Layer-3-Bonding oder PRP einsetzt, muss bedenken, dass mehr Schnittstellen und mehr Pfade per se zu einer erhöhten Komplexität führen. Gerade in sensiblen Produktivumgebungen ist ein unterbrechungsfreier Betrieb jedoch enorm wichtig. Health-Checks, die automatisch regelmäßig prüfen, ob alle parallelen Netze verfügbar sind, helfen, frühzeitig fehlerhafte Leitungen zu erkennen. Zudem kann man die System-Logs zentralisieren und mithilfe von Log-Management-Tools analysieren, um Trends zu erkennen. So lassen sich schleichende Fehler auf Interfaces aufdecken, bevor diese zu echten Ausfällen führen.Multipathing und Bonding kombinieren
Ich kann Multipathing und Bonding sehr gut parallel betreiben. Bei einer redundanten iSCSI-SAN-Verbindung lasse ich Multipathing für Speicher aktiv und Bonding für die Netzwerkanbindung zu Clients. So decke ich unterschiedliche Ausfallpotenziale ab – Netzwerkinformationen bleiben verfügbar, selbst wenn ein Pfad zur Storage-Umgebung ausfällt. Dadurch erreiche ich eine hohe Serviceverfügbarkeit. Bei Einsatz von Linux in privaten Cloudstrukturen, z. B. mit OpenStack oder CloudStack, wird diese Kombination wichtig. Es verbessert die Resilienz virtueller Maschinen und verteilt Lasten effizient.
Planung und Testphasen
Wer Multipathing und Bonding gleichzeitig einsetzt, sollte im Vorfeld umfangreiche Testphasen in einer produktionsnahen Umgebung durchführen. Hierbei ist zu prüfen:- Wie verhält sich das schreibt- und leseintensive Storage, wenn einer der Pfade ausfällt?
- Erholen sich die Bonding-Interfaces schnell genug von einem Interface-Ausfall?
- Sind die Netzwerkpfade (Switches, Router, Kabel) tatsächlich in getrennten Segmenten verlegt, um Single Points of Failure zu vermeiden?