Glacier Backup Amazon Glacier

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.
Hätte ich auch erwartet. Allerdings war ich mir nicht sicher, ob/wie das bei den Vaults funktioniert. Aber dann ist ja gut, danke!
 
Moin zusammen - ich hab heute auch mal angefangen ein paar ZIPs mit mein Original-Fotos bei Glacier zu uppen - als erster Testballon ( 3 ZIPs mit insgesamt 7,73 GB).

Jetzt zu meinem Problem - welches möglicherweise gar keins ist: die DS lädt jetzt seit 5 Stunden hoch - im Mittel gefühlt mit 550kb/s (optischer Mittelwert aus dem Ressourcen-Manager - und warum auch immer so langsam)

rein rechnerisch hätte der Upload also vor einer Stunde beendet gewesen sein müssen - ist er defacto noch nicht - der Online-Zähler der fritzbox meldet jetzt 10GB Upload heute (was mit der Upload-Rate korrespondiert) und der Datensicherungsstatus in der DS sagt seit etwa 2 Stunden (da hab ich zum ersten Mal reingeschaut) 2,88 von 7,2 GB.

Was lädt er denn da die ganze Zeit, wenn nichts im Status weitergeht und der Gesamttransfer derzeit schon bei fast 150% liegt?
 
Aus Kostengründen ist es ja am sinnvollsten immer nur Archive hochzuladen, also nicht 50000 einzelne Fotos, korrekt? Ich hab das jetzt so gemacht, dass ich einen Ordner ausgewählt, den er hochladen soll, und dort lade ich jeweils eine zip-Datei mit dem jeweiligen Jahr hoch.

Also 2009.zip, 2010.zip usw.

Ist doch so am sinnvollsten, oder mache ich hier einen Denkfehler?
Übermäßig groß sind die nicht, max. 5 GB pro Archiv
 
Dazu eine Frage:

Habe mit der Glacier-App mal was hochgeladen, habe für den Abrechnungszeitraum jetzt 1500 Resquests... wieso habe ich soviele? Das waren doch nur 3 (große) Zipdateien die ich da hochgeladen habe.
 
Wollte 115 GB hochladen. Bei 109 GB ist der upload abgebrochen. Als ich neu gestartet habe fing er wieder bei 0 an. Dazu wurde mir noch 3 cent/GB für die vorzeitige löschung der schon hochgeladenen 109 GB in rechnung gestellt :-( mal schauen ob er jetzt durchläuft.

dann hab ich noch das problem das mein Upload nicht vollständig ausgelastet wird. habe 5 mbit upload. er nutzt diesen für jeweils 3-4 sekunden aus, danach geht die CPU auslastung der DS von 5% auf 100% hoch und mein upload stürzt auf 0 kbit/s, nach einer sekunde geht die CPU auslastung wieder auf 5% und mein upload auf 5 mbit. das wiederholt sich alle 3-4 sekunden.

Laut resourcenmonitor liegt die CPU auslastung für die jeweilige sekunde an python...

hat jemand das gleiche problem? liegt wohl an der Glacier app.
 
Hm. ärgerlich. Aus dem Grund habe ich auch nicht alles auf einen Rutsch hochgeladen, sondern immer in kleinen Häppchen. Eben um solchen Fehler vorzubeugen.
 
Aus Kostengründen ist es ja am sinnvollsten immer nur Archive hochzuladen, also nicht 50000 einzelne Fotos, korrekt? Ich hab das jetzt so gemacht, dass ich einen Ordner ausgewählt, den er hochladen soll, und dort lade ich jeweils eine zip-Datei mit dem jeweiligen Jahr hoch.

Also 2009.zip, 2010.zip usw.

Ist doch so am sinnvollsten, oder mache ich hier einen Denkfehler?
Übermäßig groß sind die nicht, max. 5 GB pro Archiv

Amazon Glacier hat doch 4GB max Filesize ..oder?
 
Hallo,

lade jetzt alles in S3 hoch und verschiebe es dann in Glacier (insgesamt 400GB). Ich habe meine Fotos/Videos immer nach Jahren geordnet. Alles bis 2012 wird einmal hochgeladen und dann bleibt dies in Glacier.

Meine Frage ist folgende. Wenn ich die daten von 2013 jetzt hochlade und nach glacier verschiebe, muss ich bei einer erneuten sicherung in sagen wir 4 monaten die daten erst anfordern oder kann ich einfach das update starten und dann werden automatisch nur die daten hochgeladen die neu hinzu gekommen sind???
 
Hallo!

Ich habe nun meine Fotos/Videos bei Glacier liegen, alles funktioniert soweit prima. Bevor ich jedoch meine Daten endgültig hochgeladen habe, habe ich zwei Test-Backup-Tasks erstellt und anschließend wieder gelöscht. Dabei ist anscheinend ein Fehler aufgetretet, denn obwohl die beiden Tasks nicht mehr in der GlacierApp angezeigt werden erscheinen sie in Form eines Errors regelmäßig im Log (Tast [gelöschter Task] failed).
Im Verzeichnis /volume1/appstore/GlacierBackup ist auch kein Hinweis auf die beiden alten Tasks zu finden.

Ich konnte bisher nichts dazu finden, hat jemand eine Idee?

Vielen Dank!
 
Also ich habe 1700Gb zu sichern....sehr viele fotos, music etc. - das rechnet sich ueberhaupt nicht !
das soll mal abgesehen vom upload dann monatlich 40 tacken kosten....da kaufe ich mir ein 2tes nas, halt ein kleines mit 2 platten und stell das zu meinen eltern oder meiner schwester, das habe ich in 6 monaten bezahlt bei den preisen....und dann habe ich ein schoenes ;-)

allein schon der unterschied zwischen usa und europa aergert mich etwas.....
 
Also, ich bin mit der Glacier-App alles andere als zufrieden, hier die Frustrationsliste (Stand DS 4.2, glacier backup beta):
- Möchte insgesamt Fotos von 10 Jahren sichern, also 10 Archive, variierend in der Größe von ein paar MB bis hin zu 18 GB. Insgesamt ca. 40 GB (damit geschätzte Kosten 40 Cent / Monat, ohne die einmaligen Uploadkosten), laut AWS FAQ werden Archive bis 40 TB Größe unterstützt, sollte also kein Problem sein
- Ich habe den Upload nun mehrere Male angestartet, jedes Mal ist der Upload mit einem Request Timeout abgebrochen, längster Lauf: 3 Tage
- jedes Mal beginnt der Upload von vorn, es ist nicht erkennbar, welche Archive bereits erfolgreich hochgeladen wurden
- die Glacier-Software hat höchstens Alpha-Status, außerdem lassen sich nur ganze Odner archivieren, keine einzelnen Dateien, gleiches gilt für die Wiederherstellung, daher folgende Strategie: ein Ordner für archivierte Fotos, darin findet man ein verschlüsseltes ZIP-File pro Jahr, sollte ich also aus Platzgründen mal ein Archiv löschen, es später wiederherstellen wollen, starte ich den Wiederherstellungsjob für meinen Fotos-Archivordner und es würde NUR das lokal fehlende ZIP-File wiederhergestellt werden (zumindest sah es bei den Tests mit kleinen Dateien so aus), was ok ist. Bei größeren Archiven kann man überhaupt nicht einschätzen, wie der Status der Sicherung ist :-(
- Name des Jobs geht bei der Wiederherstellung des Jobs verloren, man kann bei mehreren Jobs nur noch raten, welcher Job für welche Archive zuständig ist (-> Alphastatus), Dateien kann man nur anhand der File-Größe erkennen, Mapping auf Namen exisitiert nicht, vielleicht ist dafür zukünftig der Vault mit dem Postfix _map vorgesehen, im Moment ist da leider nichts auswertbares drin
- ich werde es nun wie folgt noch einmal probieren: nach und nach ein Archiv hochladen, in der Hoffnung, dass ich so den Sicherungsstatus besser einschätzen kann... Ich hoffe, die App wird stabiler und komfortabler..., außerdem würde ich gern selbst festlegen können, wie viele Requests ich pro Upload zulasse und natürlich wie viel an Bandbreite für den Upload maximal zulässig ist, im Moment behelfe ich mir über QOS der Diskstation und gestatte 100 KB/s, wenn ich surfen können will, sonst läuft der Upload mit voller Bandbreite, dann ist aber Surfen nicht mehr möglich, in einer Arbeitswoche wäre das verschmerzbar, wenn der Upload wenigstens nicht wiederholt in einen Timeout laufen würde :-(
- auf ein Neues, sollten meine Versuche in absehbarer Zeit scheitern, wird für meine Archive ein NAS bei meinen Eltern herhalten müssen..., mehr meiner kostbaren Zeit möchte ich beim besten Willen nicht mehr damit vergeuden
 
Zuletzt bearbeitet:
Hallo, ich spiele auch gerade mit Glacier ein wenig rum ;-) was stellt ihr bei Multipart für eine Größe ein? Wenn ich jetzt z.B. 512 Mb einstelle und ich sichere jetzt Bilder, dann passen jetzt sage ich mal 100 Bilder in diese Archiv. Wenn ich jetzt nur ein Bild ändere und starte das Backup neu, wird dann das ganze Paket neu hoch geladen?
Habe ich einen Nachteil wenn ich nur 16 Mb oder so einstelle?
 
Hallo, ich spiele auch gerade mit Glacier ein wenig rum ;-) was stellt ihr bei Multipart für eine Größe ein? Wenn ich jetzt z.B. 512 Mb einstelle und ich sichere jetzt Bilder, dann passen jetzt sage ich mal 100 Bilder in diese Archiv. Wenn ich jetzt nur ein Bild ändere und starte das Backup neu, wird dann das ganze Paket neu hoch geladen?
Habe ich einen Nachteil wenn ich nur 16 Mb oder so einstelle?

Archive oder Dateien lassen sich in Glacier nicht überschreiben. Glacier ist eine reine Archivierungsplattform, d.h. typischerweise ZIP-Datei anlegen, in glacier archivieren, fertig. Solltest du also ein Archiv (ZIP-Datei) ändern, dieses vorher bereits hochgeladen haben, dann passiert bei einer erneuten Archivierung per Glacier mit dem selben Archivierungsjob gar nichts. Du könntest allerdings einen neuen Job für ein neues Vault anlegen und das geänderte Archiv dort erneut hochladen, ist aber nicht wirklich epfehlenswert. Ein Archiv oder eine andere Datei wird immer vollständig hochgeladen oder gar nicht. Ich würde mir an deiner Stelle die Archivierungsstrategie noch einmal überdenken, denn Backup und Archivierung sind zwei unterschiedliche Themen mit unterschiedlichen Strategien. Bei einer Archivierung sichere ich Daten, die sich typischerweise nicht mehr ändern. Fotos für das Jahr 2010 sind beispielsweise ein abgeschlossenes Kapitel. Hiervon ein Archiv erstellen und auf glacier hochladen, fertig. Archivierung ist meist auch nur in eine Richtung gedacht, Archivieren und vergessen. Nur im äußersten Notfall soll es zu einer Wiederherstellung der archivierten Dateien kommen.
 
Zuletzt bearbeitet:
Ich bin auch mal dabei, es auszuprobieren. Ein erstes RAR Archiv mit nur 1.29 GB (die anderen werden alle grösser sein) ist schon seit einigen Stunden am hochladen und immer noch ist die Anzeige bei 0.00 MB, dabei ist kein Zeitplan aktiv.
Das ist doch nicht normal?
Bei einem Upload von brutto 62.5 kB/s müssten doch schon die ersten paar 10 kB längst hochgeladen sein...?

Hier im Thread steht auch, dass die zu erwartende Dauer angezeigt wird - bei mir ist das nicht der Fall. Ich sehe nur "Datensicherung läuft".
 
Ich habe da mal ne Frage.
Wenn der Ordner der zu Glacier hocheladen werden soll als verschlüsselter Ordner in Synology angelegt wurde, sind dann die Daten die zu Glacier hochgeladen werden verschlüsselt oder muss ch die nochmals in nem zip/rar/tar Archiv verschlüsseln, damit sie bei Glacier wirklich verschlüsselt liegen?
 
Hier benutzen ja viele Glacier und viele haben das auch schon getestet. Ist es normal, dass 1.3 GB stundenlang dauern, um hochzuladen?
Während er im "hochladen"-Mode war, war er nicht normal abschaltbar. Am Abend das Herunterfahren angefordert per Powerknopf, und am folgenden Morgen war er immer noch im "Herunterfahren angefordert" Modus. Da ging nur abwürgen.
 
Super, wie einem hier geholfen wird.... :(
Sicherlich ist dies nicht der offizielle Synolgy Support, aber die 8 Seiten zeigen doch dass es zahlreiche Glacier User gibt die meine Frage beantworten könnten.
 
Dein Upload ist wesentlich geriner als dein Download. Darum dauert das hochladen auch sehr lange. Wie hoch ist dein Upload?

Das mit dem Runterfahren kann auch ein Bug sein. Schreib am besten mal den Support an, wenn dich das stört.
 
Dein Upload ist wesentlich geriner als dein Download. Darum dauert das hochladen auch sehr lange. Wie hoch ist dein Upload?
Ist mir bekannt. Aber ich habe >50 kB/s Upload (5000er Leitung). Und 50 kB/s ergibt rund 175 MB/h, sprich etwas mehr als 7h bis das Ding oben ist. Dann müsste der Fortschritt nach 1h aber schon bei 13% sein.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat