Hetzner vs C2

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Okay, ich hab noch Platz und könnte das mit Spieldaten testen.
 
  • Haha
Reaktionen: ctrlaltdelete
Auja, machmal :cool:
 
Würde ich so nicht machen. Sichere einfach nur TM auf der DS und dieses Backupziel wiederum sicherst du auf Hetzner
 
Verstehe nicht genau was du meinst. Ich muss ja ein Backup Ziel anwählen in der TimeMachine? Und genau der Schritt geht ja nicht.
 
Es geht eher um eine zusätzliche "Sicherungsebene". Ich sichere täglich auf die DS und der TM-Backup-Order auf der DS ist Bestandteil des HB-Jobs für Hetzner.
 
  • Like
Reaktionen: maxblank
Genau, und der Schritt TimeMachine auf DS sichern klappt nicht…
 
Hast du das Volume vorher gemounted?
 
So, ich habe mit meinem "DockerPi-Backup" getestet (ca. 15GB, +Pi Backup als Differenz laufen lassen). Der Speed war bei beiden gut, sehe aber aktuell den Vorteil in Echte Dateisystem-nahe Synchronisation.

DietPi sichert als cronjob per rsync fehlerfrei auf's NAS. Nur HyperBackup kennt das Dateiformat nicht und markiert es im Log als "Error" (>100 Einträge). Ist mit dem Entwickler (MichaIng) geklärt, ist nur "Kosmetik", kein Datenfehler.

Auch die *.sparsebundle-Datei beim TM-Backup ist ähnlich aufgebaut, so dass mir eine "sauberere" Datenübertragung aus dem Bauch raus besser gefällt.

Kurzum, in der StorageBox einen Subaccount angelegt und mit dem neuen Nutzer die alten HB-Jobs verknüpft.
 
@*kw* das verstehe ich leider nicht, was meinst du damit?
Der Speed war bei beiden gut, sehe aber aktuell den Vorteil in Echte Dateisystem-nahe Synchronisation.
 
Sorry, ich hatte nebenbei noch woanders über die Unterschiede gelesen und in der Kürze nur einen Vorteil aus deiner Auflistung zitiert.

WebDAV scheint bei der Übertragung der Daten noch anders "rumzuwurschteln" (ich krieg's nicht mehr zusammen). Rsync verfährt wohl nach dem Motto: leave as it is. Daher das Beispiel mit dem DockerPi-Backup.

Viele kleine Dateien, inkrementell, stabil...genau meine Bedingungen. Dann wird halt jetzt ge-rsync-t.
 
  • Like
Reaktionen: ctrlaltdelete
Ich habe mir ein Bash Script schreiben lassen und teste morgen um 3:00 Uhr mal den Speed bei meiner Storage Box.
[2025-04-17 17:54:53] Downloaddauer: 233 Sekunden, Geschwindigkeit: 4.6 MB/s
Bash:
#!/bin/bash

# Konfiguration
USER="hier_muss_die_Hauptuser_ID_Hetzner_rein"
HOST="XXXXXXX.your-storagebox.de"
PORT=23
LOGFILE="/volume1/script/logs/speedtest_hetzner.log" # oder wo du willst
DATUM=$(date '+%Y-%m-%d %H:%M:%S')

# Testgröße in MB
COUNT=1024

echo "[$DATUM] Starte Download-Speedtest von Hetzner Storage Box..." | tee -a "$LOGFILE"

# Zeitmessung starten
START=$(date +%s)

# Ausführung: Storage Box erzeugt Daten, NAS schreibt sie ins Nichts
SPEED_OUTPUT=$(ssh -p "$PORT" "$USER@$HOST" "dd if=/dev/zero bs=1M count=$COUNT" 2>&1 | dd of=/dev/null 2>&1)

# Zeitmessung beenden
ENDE=$(date +%s)
DAUER=$((ENDE - START))

# Ergebnis extrahieren (letzte Zeile von dd = Speed)
MB_PER_SEC=$(echo "$SPEED_OUTPUT" | grep -Eo '[0-9.]+ MB/s' | tail -n1)

echo "[$DATUM] Downloaddauer: $DAUER Sekunden, Geschwindigkeit: $MB_PER_SEC" | tee -a "$LOGFILE"
echo "------------------------------------------------------------------" >> "$LOGFILE"
Edit: Vorher musst du einen SSH Key erstellen auf der DS und ihn auf der Storagebox installieren!
https://docs.hetzner.com/de/storage/storage-box/backup-space-ssh-keys/

Edit2: Meine Internetverbindung, Screenshot Speedtest
 

Anhänge

  • 1744906646413.png
    1744906646413.png
    16,5 KB · Aufrufe: 13
Zuletzt bearbeitet:
[2025-04-17 22:07:53] Starte Download-Speedtest von Hetzner Storage Box...
[2025-04-17 22:07:53] Downloaddauer: 108 Sekunden, Geschwindigkeit: 9.9 MB/s
 
Ich hab jetzt alle HB-Jobs auf rsync übertragen und im Anschluss Integritätsprüfungen durchgeführt. Letztere laufen deutlich schneller. Aber in Summe erhoffe ich mir den Vorteil bei inkrementellen Backups i.VM. mit vielen (kleinen) Dateien.

Das mit dem Test schaue ich mir morgen mal an.
 
  • Like
Reaktionen: ctrlaltdelete
Etwas ernüchternd:
[2025-04-18 03:00:01] Starte Download-Speedtest von Hetzner Storage Box...
[2025-04-18 03:00:01] Downloaddauer: 289 Sekunden, Geschwindigkeit: 3.7 MB/s
Das Problem liegt daran, dass meine Storagebox in Helsinki gehosted ist und ein bescheidens Routing hat.
 
Was mir aufgefallen ist, dass seit rsync i.V.m. Übertragungsverschlüsselung die CPU-Auslastung deutlich höher (>80%) ist, zumindest den Großteil der Zeit. Zum Ende hin normalisiert es sich wieder(<30%).

Die Dauer ist okay (wie bisher) und mache mir da keine weiteren Gedanken.
 
  • Like
Reaktionen: ctrlaltdelete
Hast du das Volume vorher gemounted?
Ja, also das NAS per se ist gemounted. Den Share für TimeMachine habe ich nicht separat gemounted. Aber beim einrichten muss ich ja ein Volume auswählen, da wähle ich das der TimeMachine, dann fragt er nach Benutzername/Passwort, wo ich den dafür angelegten Nutzer eingebe und danach kommt eben jene Fehlermeldung.

Interessant: Wollte gerade mal im Finder per Go -> Connect to Server den TimeMachine Folder direkt mounten, habe dafür via IP des Synology diese Liste erhalten, bei der ich TimeMachine nicht auswählen kann...
Screenshot 2025-04-18 at 13.17.43.png
 
War glaube ich ein Berechtigungs-Thema... Denke die Gruppenberechtigungen haben die individuellen Userberechtigungen overruled...? Jedenfalls hab ich nun die Berechtigungen nochmal alle neu gesetzt und jetzt klappt es.
 
Falls nicht so umgesetzt, empfiehlt sich immer ein separater TM-Backup-User pro Client, der sonst nix können dürfen soll. Dann hakt's auch nicht.
 
  • Like
Reaktionen: FizzyMUC
Ja genau, so hab ich es gemacht. Aber irgendwo war wohl ein Haken falsch gesetzt... Backup arbeitet jetzt brav im Hintergrund. Allerdings kann ich jetzt vermutlich meine neue StorageBox direkt auf 5TB erweitern, weil die Syno allein schon den Großteil von 1TB gefüllt hat... :D
 

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat