pyload als Docker Container verbraucht immer 2GB ram

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

3x3cut0r

Benutzer
Registriert
21. Mai 2011
Beiträge
507
Reaktionspunkte
15
Punkte
44
Hi
ich habe, nachdem pyload als spk und nativ unter ipkg immer wieder probleme nach DSM Updates macht,
mich dazu entschieden pyload als Docker Container laufen zu lassen.
Ich nutze das writl/pyload image und das webinterface läuft wegen https als "threaded" Server.
Soweit so gut.
Alles läuft wie es soll nur steigt der RAM Verbrauch dieses Containers immer auf 2GB wenn ich Downloads starte.
Dieser bleibt so lange belegt bis ich den Container neu starte. Danach solange unbelegt, bis wieder ein Download startet.

Der RAM scheint mir parallel zur gedownloadeten Dateigröße zu wachsen.
Sprich, lade ich eine 1GB Datei, wächst der RAM auf 1GB.
Lediglich bei Downloads über 2GB, wächst der RAM nur auf 2GB an.

Begrenze ich den RAM des Containers auf z.B. 512MB, wächst er logischerweise auch nur bis dahin.
So kann ich es zwar etwas zügeln, gefallen tut mir das aber ehrlich gesagt nicht.

Hat jemand das selbe Problem, oder eine Idee für einen eleganten Lösungsansatz?

Gruß
 
Hi,

das Problem hatte ich bisher noch nicht und nutze pyload täglich.
Evtl. ist aber kein Docker typische Phänomen: https://github.com/pyload/pyload/issues/1149
Du könntest dich in den laufenden Container einklinken und die Größe der files.db prüfen.

Bob
 
Das ist der einzige link den man so direkt bei google findet und das habe ich schon überprüft.
Meine files.db hat wenige KB und der RAM verändert sich auch nach dem löschen dieses Files nicht ... nur nach einem pyload restart.
 
Ich halte das Ganze für einen Darstellungsfehler in der Syno-Docker-UI.

Bei mir wird für Gitlab immer anzeigt dass 2GB RAM verwendet würden. Klickt man aber auf den Reiter "Prozess" kann man sehen, dass die ausgeführten Prozesse tatsächlich weniger verwenden. In Summe verwenden die Prozesse meines Giltab-Containers 510MB.
 
Mit dem Docker Package Version 1.11.2-270 ist der Anzeigefehler behoben.

update: doch nicht... wobei jetzt Zahlen > 2GB angezeigt werden (die trotdem falsch sind...)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat