Cloud Station ShareSync extrem langsam

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

nelbar

Benutzer
Registriert
27. Mai 2021
Beiträge
2
Reaktionspunkte
0
Punkte
1
Liebes Forum

Wir benutzen zwei Synology NAS und benutzen ShareSync um diese übers Internet zu spiegeln.
Dies klappte eigentlich ganz gut, heute ist es aber extrem langsam.
Hier ein Screenshot:
1622125901079.png

Normalerweise haben wir hier Verbindungsgeschwindigkeiten von mehreren MBs, heute sind wir aber nur im kB Bereich.

Es wurden viele kleine Dateien dem NAS hinzugefügt. Evtl. hat es damit Probleme?

Auch habe ich gelesen, dass die Verbindung über QuickConnect Probleme bereiten kann. Wobei das bei uns bis jetzt gut geklappt hat. Wenn ich das wechseln will eine Frage, kann ich eine Bestehende Verbindung anapssen? Wenn ich auf "Verbindung bearbeiten" klicke kann ich das QuickConnect/IP Feld nicht bearbeiten. Oder soll ich die jetzige Verbindung löschen und eine neue aufsetzen? Und wenn ich schon frage.. welche Ports müssen zwingend offen sein für die Synchronization direkt zur IP?

Bin über jeden Tipp dankbar!

Grüsse
Nelbar
 
Es wurden viele kleine Dateien dem NAS hinzugefügt. Evtl. hat es damit Probleme?
Genau so ist es :)

EDIT: Kleiner Nachtrag: Stell Dir vor Du hast 10 LKWs (mit Anhänger) die Ware transportieren. Die kommen ganz gut durch. Wenn Du das jetzt aber auf 1000 kleine Autos verteilst, sieht der ganze Spass schon wieder anders aus. Ist im Prinzip nix anderes - jeder Übertragungsvorgang "startet", "übertragt daten", "wird gestoppt". Dabei wird die Übertragungsgeschwindigkeit jedes mal relativ klein anfangen und dann immer weiter ansteigen bis zur maximalen Geschwindigkeit (Window-Scaling). Bei großen Dateien funktioniert das ganz gut, bei kleinen Dateien kommt es meist erst garnicht soweit, da die Datei i.d.R. recht schnell (maximal ein paar Sekunden) übertragen ist.

Schau mal hier rein, ist eigentlich das gleiche: https://qastack.com.de/superuser/80...-so-much-longer-than-one-large-file-duplicate
 
Zuletzt bearbeitet:
Danke blurrrr ja macht Sinn.

Allerdings ist es so langsam (über Nacht wurden gerade mal 1000 dieser Dateien abgearbeitet). Da stimmt was nicht.

Window-Scaling würde ja auch benutzt, wenn es eine direkte Verbindung wäre? Resp. was wäre dein Tipp um dieses Problem zu lösen?
 
Da gibt es keinen "Tip", manche Dinge sind einfach wie sie sind (ich weiss ja auch nicht, wie groß Deine Dateien "wirklich" sind). Ich kann auch gern nochmal ein anderes Beispiel nennen:

Wir beide sollen mit unserem Porsche 100km weit fahren.

1) Ich darf einfach direkt auf die freie Autobahn und durchbrettern.
2) Dir sagt man, dass Du aber nur genau "1m" weit fahren darfst und dann wieder anhalten musst....komm, simma nicht unfähr...10m! Danach musst Du aber erstmal wieder "stehen" und wieder anfahren.

(Der Vergleich trifft es irgendwie sogar ganz gut)

Window-Scaling würde ja auch benutzt, wenn es eine direkte Verbindung wäre?

Ich übersetz das mit dem Window-Scaling mal ins einfache: Dir steht es frei, ob Du mit Deinem Auto jetzt nur 20cm, 30cm, 50cm oder gar den ganzen Meter auf einmal fährst, darfst aber nach wie vor nur maximal 1 Meter weit fahren, bevor Du wieder stoppen musst (1m halt als Beispiel für eine kleine Datei).

Jetzt die (dümmliche) Frage: Wer hat seine 100km schneller weg? Genau.... also auch keine Frage. Warum? Weil Du einfach nicht richtig Fahrt aufnehmen kannst, wenn Du spätestens nach jedem Meter wieder stoppen musst. Das ist bei der Übertragung von vielen kleinen Dateien ebenso (und betrifft ebenso das Window-Scaling - bei z.B. 1KB-Dateien ist halt einfach nicht viel zu holen).

Resp. was wäre dein Tipp um dieses Problem zu lösen?

Was man dagegen tun könnte? Najo, man könnte Dir ja sagen, dass Du mehr als 10m/Anlauf fahren darfst. Übersetzt hiesse das dann wohl, dass viele kleine Dateien auf "einmal" übertragen werden sollten... wie erreicht man sowas? Zum Beispiel, indem man die Dateien vorher "packt".

Ein gutes Beispiel sind hier übrigens die typischen Webseiten-Dinger... so ein CMS hat mitunter auch 1000+ winzig kleiner PHP-Dateien... den ganzen Kram einzeln zu übertragen dauert i.d.R. EWIG... packste alles zusammen in 1 Datei, ist die ratzfatz übertragen. Das "entpacken" findet dann einfach auf dem Server statt. Heisst: Statt ewig bei der Übertragung zu warten, gehste hin, packst lokal erstmal alles zusammen, schmeisst es dann rüber und bei der Synchronisation/Sicherung wird dann nur noch 1 Datei übertragen (oder mehrere größere), was dann wesentlich flotter geht. Kannst natürlich auch remote entpacken, aber wenn es sich um z.B. ein Backup handelt, ist es auch nicht schlimm, wenn es alles in einer Datei liegt. Diese kann man dann ja "bei Bedarf" wieder entpacken. So läuft das auch üblicherweise mit Website-Backups... werden auf dem Webserver gepackt (inkl. SQL-Dump) und man lädt einfach nur noch "1" Datei herunter. :)
 
verlangsament kommt dazu, dass Drive/ShareSync bei der Erstbefüllung oder einem Schwung neuer Dateien nicht der große Renner ist... es müssen nicht nur die Dateien übertragen werden, sondern sie müssen auch noch in die Datenbank... bei ext4 kommen sie wirklich als Version in die Datenbank, bei btrfs kommt vermutlich nur ein Verweis auf die Version im Dateisystem in die Datenbank...

Also einfach warten, bis der Sync durch ist...

Stefan
 
  • Like
Reaktionen: blurrrr
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat