RS1221+ VMware ESXi MPIO RoundRobin nur max 100MB/s

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

conrad.fuchs

Benutzer
Registriert
09. Juli 2021
Beiträge
4
Reaktionspunkte
0
Punkte
1
bei 8 Sata HDDs (Raid5) und einer iSCSI Anbindung über 2 dedizierte Nics in eigenen Subnetzen, werden pro Pfad maximal 50MB/s transferiert. Wenn das System auf 3 Nics, mit resultierend 3 MPIO Pfaden, erweitert wird, wird pro Pfad nur 33MB/s transferiert. Wenn zwischen ESXi und Syno nur ein Pfad konfiguriert wird, transferiert dieser ca. 100MB/s. Auf Syno Seite ist das Target auf nic2 und nic3 gebunden, ESXi seitig aufgrund der dedizierten Subnetze keine PortBindung auf Kernel-Ebene.

Kein Bond auf Syno-Seite. JumboFrames durchgehend aktiv. Ein vmkping -d -s 8800 auf die Syno Target Nics geht erfolgreich durch.

Kann es sein, dass die 4 Gigabit Nics der Syno auf der Backplane auf einen Gigabit-Port gebündelt werden? Auch der Test, durch eine zweite iSCSI LUN zusätzliche Bandbreite zu generieren, schlägt fehl. Auch dann werden von jeder Lun nur ca 50MB/s, also in Summe wieder 100MB/s verarbeitet. Das RoundRobin IO auf 1 zu reduzieren, hat keinen merklichen Effekt.

Der Test:
Von einer VM, die auf einem lokalen Datastore eines ESXi liegt und eine weitere vHDD (vmdk und rawdevice getestet) auf dem Synology liegen hat, wird eine 4GB Datei von C: nach D: kopiert und wieder zurück. Die Leistungsdaten des Explorers können mit esxtop nachvollzogen werden, ebenso die gleichmäßige Verteilung der Last auf die beiden iSCSI Nics. Über die Synology GUI kann man sehen, dass nic2 und nic3 auch entsprechend gleichmäßig belastet sind, aber nie mehr als ca 50% oder bei 3 Pfaden jeweils nicht mehr als ca 33%.

Der local DS des ESXi ist vollFlash, sollte also in diesem Szenario keine Rolle spielen.

Wo liegt der Hund begraben?
 
evtl. bei den Platten und RAID5. Du hast gemessen, ob die überhaupt den Durchsatz bringen? RAID 10 ist schneller. Checke auf der DS nicht nur die NIC Auslastung sondern auch die des Volumes.
 
Aber dann würden ja auch keine Bonds funktionieren, oder?
Ja, so sehe ich das auch. Ein Bond ermöglicht mehrere parallele Streams und aggregiert somit mehrere Gigabit-Ressourcen (mit oder ohne lacp trunk am switch). Ein VMware MPIO stellt pro Pfad aber auch einen isolierten Stream dar, sodass das Target aus verschiedenen Subnetzen pro Nic angesprochen wird.
Wenn das beobachtete Verhalten eine Eigenheit der 1221+ wäre, würde das nicht sehr für das Produkt sprechen.

Gibt es hier keine User, die eine 1221+ über iSCSI an eine VMware angebunden haben?

So oder so beschränkt sich die Thematik auf den Netzwerk-Stack zwischen ESXi und Synology. Eine 1221+ mit 10GbE Karte ermöglicht beim gleichen Test 280MB/s und mehr, was m.E.n. eher der Leistung des Platten-Stacks entspricht.

Aber warum die 1GbE Lösung derart lahmt, keinen blassen Schimmer.
 

Vielen dank für den link! Aber so wie ich das lese, testet der Kollege lediglich die interne Performance der Syno LUN read/write mit einem Benchmark tool. Wenn ich das mache, erreiche ich auch weitaus höhere Werte.

Problematisch ist wirklich der Durchsatz der iSCSI Verbindungen, also Nics ESXi -> LAN-Kabel -> Nics Synology. Also wenn Dateien zwischen interner ESXi und Syno LUN transferiert werden.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat