Link Aggregation sinnvoll?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

wired2051

Benutzer
Registriert
17. März 2010
Beiträge
927
Reaktionspunkte
12
Punkte
44
Ich habe eine neue DS 420+ mit 2 LAN Ports, die ich hauptsächlich für Backups und synchronisation (calDAV, cardDAV) nutzen will und bin nun zufällig auf das Thema Link Aggregation gekommen - ist sie für mich überhaupts sinnvoll oder sollte ich lieber den LAN Port für weitere Geräte nutzen/freihalten?

Ich habe einen FritzBox 7490 Roter und D-Link DGS-108 Switch.
 
Weder deine Fritzbox noch dein Switch unterstützen LAG.
Solange nicht mehrere Clients gleichzeitig auf dein NAS zugreifen und keiner deiner Clients mehr als GBit Anbindung hat macht es keinen Sinn.
Und für LAG müsstest du einen Switch kaufen, der das unterstützt.
 
@ctrlaltdelete: LAG im Modus „ Adaptive Load Balancing“ geht immer. Unabhängig von der anderen Hardware (Switch, Router).

@wired2051: Kann dir was bringen, muss es aber nicht. Kommt auf dein Setup an.
Mit nur einem Gerät bringt es nichts.
Mit 2 Geräten könntest du dann je 1Gb ausnutzen.
Kannst du dir so vorstellen wie wenn du LAN1 und LAN2 ansteckst und dann 2 IPs hast. Und mit Gerät 1 gehst du über LAN1, mit Gerät 2 dann über LAN2. Beide können dann theoretisch das ganze Gb voll ausnutzen unabhängig voneinander.

Bei LAG mit Adaptive Load Balancing ist das auch möglich, Unterschied ist, du hast nur eine IP.

Ich habe bei mir zB. via Netgear switch IEEE 802.3ad bei der 920+ und 416play am Laufen, und kann dann zwischen den beiden NAS auch per 2Gb kopieren.
 
  • Like
Reaktionen: ctrlaltdelete
@tproko Danke für den Hinweis, die Möglichkeit vergesse ich immer.
 
...gut, das ich gefragt habe. Wieder was gelernt.

Vielen Dank für Eure Hilfe! (y)
 
150-155MB waren da beim initalen Datenkopieren bei mir drin. Denke da hat dann zum Teil beim Rüberkopieren die alte „fehlerhafte“ Platte etwas gebremst und generell auch der Raid/LVM hat ja einen Overhead.

Aber war froh das es quasi doch fast doppelt so schnell rüber kopiert war damals.
Das externe Backup war damals kurzfristig auch defekt, und eine der 2 Raid1 HDDs eben auch mit Fehlern.

Seitdem gibt es bei mir NAS, Backup NAS und externes USB Backup ?
 
  • Like
Reaktionen: vater
150-155MB waren da beim initalen Datenkopieren bei mir drin
und das mit 2x 1GbE ??? ?
da scheint das (oder der?) Overhead doch immens zu sein. ?
zwischen meinem Arbeitsgerät und der NAS liegt eine abenteuerliche Verkabelung, und trotzdem erreiche ich ca. 110MB/s
manchmal wünsche ich mir, es wäre mind. doppelt so schnell, bei min. Investition; aber wie es aussieht, kommt man nicht drumherum, etwas mehr investieren zu müssen, damit es wesentlich schneller wird ?
 
aber wie es aussieht, kommt man nicht drumherum, etwas mehr investieren zu müssen, damit es wesentlich schneller wird ?
Wenn es mehr Verbreitung findet und mehr verkauft wird, dann wird es bestimmt günstiger
und wenn es günstiger wird, verbreitet es sich bestimmt mehr.

Und ich hoffe die nötigen eigentlich bereits vorhandenen Energierichtlinien verbreiten sich auch mehr, bei den Herstellern, damit die meißten 10 GBE (Kupfer) nicht mehr dauerhaft so viel Energie verbraten, auch wenn sie grade mal garnichts machen.
 
@Guckweg wenn ich eine große Datei verschiebe geht sicher auch mehr.

Kann ich gern mal wieder machen und schauen wie schnell es geht.

Aber das Backup damals waren ca. 2TB und 80% kleine Dateien wie Fotos. Und da war ich über die Geschwindigkeit soweit happy. Hat sicher was gebracht.
Das Vollbackup ist bei mir quasi jetzt nicht mehr nötig, und ab jetzt ist bei mir wohl auch die 2Gbit Luxus ?

Die theoretischen 125MB vom Gigabit habe ich bei mir sowieso noch nie gesehen, eher 110MB bei großen Dateien und 75-85 beim Foto kopieren. Hängt wohl auch von den Clients ab. (Das war Laptop auf nas)
 
Aber das Backup damals
das dumme ist, wenn es ein handelsübliche HDD ist (was meine Bkp Platte ist, muss nur halten, aber nicht schnell sein), dann ist man sowieso nicht viel schneller als ca. 160 MB/s (bei der WD red Plus sind das 'up to 180MB/s')
das Problem habe ich wenn ich intern kopiere zwischen Volumes; da bin ich auch nicht wesentlich schneller
aber wie du sagtest: es kommt selten vor, dass man diese Menge an Daten bewegen muss (nur wenn man die Platte austauscht oder ein Fullbackup zurücksichern muss)
hättest du deine 2x 4TB Platten in RAID 0 (kein SHR) geschaltet, würde das die Zugriffe verdoppeln - würde ich aber nur empfehlen, wenn man von Backup ein Backup hat ? weil in dieser Konstellation, wenn eine Platte ausfällt ist alles futsch; no risk no fun ?

und 75-85 beim Foto kopieren
die Empfehlung dabei ist Verzeichnisse oder Shares zu zippen (packen) bevor man die verschiebt oder kopiert, dann geht es als eine grosse Datei rüber (= schneller) ?
 
die Empfehlung dabei ist Verzeichnisse oder Shares zu zippen (packen) bevor man die verschiebt oder kopiert, dann geht es als eine grosse Datei rüber (= schneller)
Funktioniert nicht, denn du hast dabei vergessen den Zeitbedarf für das Erstellen der Datei und dem Entpacken zu berücksichtigen. Der frisst die Ersparnis der schnelleren Übertragung übers Netzwerk mehr als auf.
 
du hast dabei vergessen den Zeitbedarf für das Erstellen der Datei und dem Entpacken zu berücksichtigen
da muss ich dir Recht geben ?
gerade wenn man es direkt in der NAS zipped, dauert es außergewöhnlich länger als auf einer Windows Machine; verstehe ich auch nicht warum. ?
insofern ist die Empfehlung "Schrott" ?
 
noch schlimmer, wenn da dann die CPU
meinst du wirklich?
bei meiner DS1621+ langweilt sich die CPU dabei, es ist nur einfach langsam; auch wenn ich sage, es soll nicht komprimieren, sondern nur "kopieren"; krass ?

Bildschirmfoto 2021-08-26 um 09.13.35.png

Bildschirmfoto 2021-08-26 um 09.13.56.png
 
Ja eine limitierende CPU führt bei deinem nicht funktionierenden Vorschlag dazu, dass der noch mehr Zeit benötigt, als bei limitierenden Platten.

Ausgangspunkt war doch dass ein Bond aus 2×1 GbE dank limitierender Platten nicht gesättigt wird. Du wolltest das Problem lösen, in dem du die Daten vorher packst. Nur bekommst du bei limitierenden Platten die Daten beim Packen auch nicht schneller von den Platten, beim Entpacken nicht schneller drauf und da das Ganze in der Regel nacheinander passiert, braucht das dann insgesamt trotzdem wesentlich mehr Zeit als bei direkter Übertragung ohne die Daten temporär in ein Zip-Archiv zur Übertragung zu packen.

Selbst wenn man das so optimiert, dass das alles parallel läuft, gewinnst du keine Zeit, sondern verbrätst nur unnötig Rechenleistung. Denn die Platten limitieren nach wie vor und bestimmen daher die Zeit. Wenn dabei wegen des Packens oder Entpackens nicht mehr die Platten, sondern die CPU limitiert, dauert das alles noch länger.
 
was wäre das so für Transferraten möglich? hast du da eine Ziffer?
nur mal so, interessehalber
PC >>>> RS1221+

uebertragung_pc_rs1221_920mbs.png
mehr schafft der PC nicht.

rs1221_einsteckkarte1.png

So viel zur Frage was möglich wäre.
Die E25G21-F2 kann ich leider nur in der langsamen Verbindung anbinden, die Karte selbst hat SFP28 Einschübe, also 2 x 25 GbE, das wären im Bond 50 GbE.
Ich kann aber nur SFP+ ( 10 GbE) verbinden, die im Bond ergeben oben die 20 GbE Verbindung.

Wie schon erwähnt wurde, mit 10 GbE geht es gut, ABER leider noch nicht so weit verbreitet und die Preise der erforderlichen Komponenten sind ggü. 1 GbE enorm hoch im Vergleich.
Nicht zu Unterschätzen die Abwärme welche durch die 10 GbE Teile entsteht!

Braucht man es, nein.
Es ist dzt immer noch eine techn. Spielerei. Ich kopiere hauptsächlich Videos von der gopro mit privaten Aufnahmen der Kids und natürlich ging das auch bisher mit ~ 115 MB/s (1 GbE) aber mit 10 GbE geht es deutlich schneller.
Bei der ersten Übertragung war ich nicht mal sicher ob überhaupt etwas kopiert wurde, ich war das "Warten" auf das Ende vom Kopiervorgang schon gewöhnt mit 1 GbE.

Aber noch mal, der Preis ist enorm welchen man dzt für eine vernünftige 10 GbE Verbindung bezahlt im Vergleich zu 1 GbE Anbindungen.
Ebenso die Wärme die dabei produziert wird!
 
  • Like
Reaktionen: Ulfhednir
die Empfehlung dabei ist Verzeichnisse oder Shares zu zippen (packen) bevor man die verschiebt oder kopiert, dann geht es als eine grosse Datei rüber (= schneller) ?
Hab ich auch schon gemacht, also gezippt und in der File Station wieder entpackt.

Das ist leider auch ein Grund, warum der Active Backup for Businiess Agent so lahm ist. :cry:


mehr schafft der PC nicht.
Ist da der BOND nicht etwas übertrieben, wenn das ein Anschluß alleine schafft?

noch schlimmer, wenn da dann die CPU
Also bei knapp 1,5 Millionen winzigen Dateien mit langsamen WD-Red in einer 918+,
ergibt es dennoch einen enormen Schub.
 
Ist da der BOND nicht etwas übertrieben, wenn das ein Anschluß alleine schafft?
JA selbstverständlich, ich hatte ja geschrieben es ist eine technische Spielerei.
Switch ist dafür vorhanden, Karte in der RS bietet 2 SFP28 Ports.
Also habe ich nochmal 2 Transceivermodule SFP+ (Paarpreis ~ 44 Euro) und 2m ODN-Glasfaserkabel (LC/LC um 7 Euro) gesamt also 51 Euro organisiert und so die Verbindung realisiert im Bond mit 20 GbE, in Anbetracht der restlichen Ausgaben die geringste Investition.
Wie erwähnt, braucht man (ich) es, NEIN.
Kann ich es im Moment voll Ausnutzen: NEIN.
Erst wenn irgendwann ein zweiter Client welcher ebenfalls 10 GbE "zuliefert" ins Haus kommt und BEIDE GLEICHZEITIG übertragen benötige ich die 20 GbE.
Bis dahin langweilt sich der Bond auf der RS1221+.

Es war lediglich die Antwort auf Guckweg was an Transferrate möglich wäre.
Natürlich kann man auch 4 Stück SFP28 Transeivermodule besorgen und so im Bond 50 GbE realisieren, da fehlt mir aber der notwendige Switch dazu. Ich bräuchte dann einen LAG fähigen SFP28+ Switch um die 50 GbE zu realisieren.
Vielleicht mit einem Spendenaufruf?
https://www.bechtle.com/at/shop/hpe-flexfabric-5945-48-sfp28-switch--4287097--p
:D:love:

und natürlich auch die passende Synology um diese ankommende Datenmenge "wegzuschreiben":
https://www.reichelt.de/de/de/nas-s...leergehaeuse-synology-fs3600-p283867.html?r=1
das ist OHNE HDDs.
:)

Also "nach oben" sind dem Wahnsinn keine Grenzen gesetzt.
 
Zuletzt bearbeitet:
Also bei knapp 1,5 Millionen winzigen Dateien mit langsamen WD-Red in einer 918+,
ergibt es dennoch einen enormen Schub.
Der Schub nützt dir gar nichts, wenn du die Archivdatei für die Übertragung erst erstellen und die Archivdatei nach der Übertragung auch wieder auspacken musst. Denn das frisst die Zeitersparnis bei der Übertragung mehr als auf.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat