Homepage auf DS sichern/backup

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

WHS2

Benutzer
Registriert
20. Jan. 2010
Beiträge
83
Reaktionspunkte
1
Punkte
8
Hallo liebe Freunde,

ich möchte gern meine Homepage automatisch auf meine Diskstation sichern.

Momentan mache ich das manuell mit ncftpget.exe in einer batch.
D.h. ich lade automatisch alles von der Homepage per FTP auf meinen Rechner.

Gibt es eine einfache Möglichkeit, daß von der DS machen zu lassen?

Vielen Dank und Grüße !
whs2
 
Wie kannst du denn die Daten der Homepage erreichen? Am einfachsten wäre es wenn du dir die Daten via FTP auf deine DS in ein Backupverzeichnis lädst. Dann könntest du wget (auf der Kommandozeile) verwenden und mal das folgende probieren
Code:
[FONT=monospace]
[/FONT]wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -o /volume1/backup/meineWebseite
 
Hallo liebe Freunde,

ich möchte gern meine Homepage automatisch auf meine Diskstation sichern.

Momentan mache ich das manuell mit ncftpget.exe in einer batch.
D.h. ich lade automatisch alles von der Homepage per FTP auf meinen Rechner.

Gibt es eine einfache Möglichkeit, daß von der DS machen zu lassen?

Vielen Dank und Grüße !
whs2

Da unter der DS ein Linux sitzt, hast du da viele Möglichkeiten.

Z.B. per Cron Job alles packen und dann irgendwo hin kopieren lassen. Kommt immer darauf an, was du dir so vorstellst und wie dein Backup medium so aussieht.

Gruß

Janus
 
Danke Jahlives & Janus,

ich habe das hinbekommen, allerdings -o nach -r geändert (rekursiv).
Funktioniert ganz gut und der wget befehl scheint ganz schön mächtig zu sein.
Ganz schönes Sache, nachdem ich herausgefunden habe, wie ich über Telnet in die Komandozeile gekommen bin....:)



wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -r /volume 1/backup/meineWebseite

Frage: Wie Janus andeutete, wäre es komfortabler, eine Art batch Datei zu haben, die wget ausführt und mir wäre lieb, wenn es nach Abschluß das Ganze Verzeichnis zippen würde, vielleicht mit dem Datum als Dateiname. :cool:

Könnt Ihr mir hier mit so einer Art Linux Batch helfen?
Vielen Dank schon mal.
 
Danke Jahlives & Janus,

ich habe das hinbekommen, allerdings -o nach -r geändert (rekursiv).
Funktioniert ganz gut und der wget befehl scheint ganz schön mächtig zu sein.
Ganz schönes Sache, nachdem ich herausgefunden habe, wie ich über Telnet in die Komandozeile gekommen bin....:)



wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -r /volume 1/backup/meineWebseite

Frage: Wie Janus andeutete, wäre es komfortabler, eine Art batch Datei zu haben, die wget ausführt und mir wäre lieb, wenn es nach Abschluß das Ganze Verzeichnis zippen würde, vielleicht mit dem Datum als Dateiname. :cool:

Könnt Ihr mir hier mit so einer Art Linux Batch helfen?
Vielen Dank schon mal.

Muss ich mal bei Gelegenheit im Wiki schauen, wo ich ein Beispielscript abgelegt habe. Entweder im Bereich IPKG oder bei PyLoad.

Gruß

Janus
 
Bei mir wird folgendes Script via cron aufgerufen:
Code:
#!/bin/sh
myDate=`date +%y%m%d`
cd /volume1/backup

#### Backup löschen wenn älter als X Tage (X=65)####
find /volume1/backup -name '*.tar.gz' -mtime +65 -exec rm {} \;
find /volume1/backup -name '*.log' -mtime +65 -exec rm {} \;

#### Backup <Domainname>  ####
myDomain=domain.tld
wget -r -np -nc --ftp-user=<username> --ftp-password=<passwort> ftp://ftp.$myDomain/ > ./logs/backup_$myDomain\_$myDate.log 2>&1
tar -czf ./$myDomain\_$myDate.tar.gz ./ftp.$myDomain/*
rm -r ./ftp.$myDomain/

Danach gibt es dann eine Datei z.B. domain.tld_101224.tar.gz und im Unterverzeichnis logs noch die dazugehörige backup_domain.tld_101224.tar.gz.
Diese Dateien werden bei mir gelöscht, wenn Sie beim Scriptaufruf älter als 65 Tage sind.
Da ich mehrere Seite sichere, muss ich innerhalb des Scriptes nur den Teil nach #### Backup <Domainname> #### duplizieren und anpassen.

Das ganze speicherst du in einer Datei z.B. backup.sh und änderst die Rechte, damit sie ausgeführt werden kann.
Diese Datei kannst du dann als Cronjob in /etc/crontab eintragen.

HTH
 
Bei mir wird folgendes Script via cron aufgerufen:
Code:
#!/bin/sh
myDate=`date +%y%m%d`
cd /volume1/backup

#### Backup löschen wenn älter als X Tage (X=65)####
find /volume1/backup -name '*.tar.gz' -mtime +65 -exec rm {} \;
find /volume1/backup -name '*.log' -mtime +65 -exec rm {} \;

#### Backup <Domainname>  ####
myDomain=domain.tld
wget -r -np -nc --ftp-user=<username> --ftp-password=<passwort> ftp://ftp.$myDomain/ > ./logs/backup_$myDomain\_$myDate.log 2>&1
tar -czf ./$myDomain\_$myDate.tar.gz ./ftp.$myDomain/*
rm -r ./ftp.$myDomain/

Danach gibt es dann eine Datei z.B. domain.tld_101224.tar.gz und im Unterverzeichnis logs noch die dazugehörige backup_domain.tld_101224.tar.gz.
Diese Dateien werden bei mir gelöscht, wenn Sie beim Scriptaufruf älter als 65 Tage sind.
Da ich mehrere Seite sichere, muss ich innerhalb des Scriptes nur den Teil nach #### Backup <Domainname> #### duplizieren und anpassen.

Das ganze speicherst du in einer Datei z.B. backup.sh und änderst die Rechte, damit sie ausgeführt werden kann.
Diese Datei kannst du dann als Cronjob in /etc/crontab eintragen.

HTH

Moin,
wenn ich direkten Zugriff auf die Dateien des Webservers habe, würde ich diese nicht per wget holen und sichern. Per TAR ist das ganze viel zielgerichteter und auch umfangreicher möglich. -> Siehe Wiki IPKG Installation, ganz unten.

Was die Häufigkeit des Backups angeht, ich habe kürzlich die Idee aufgegriffen, einfach den Wochentag für das Backup zu missbrauchen. Dann wird das Backup jede Woche überschrieben und man hat 7 Tage Zeit sich über einen Fehler klar zu werden. Das macht die Sache einfach. Erst wenn die Anforderungen wachsen, würde ich weiteres probieren.

Gruß

Janus
 
Danke Chrunchy.
dann werde ich das mal probieren. Kann mich dann auch gleich in cronjobs einarbeiten....:) :D
 
Danke Crunchy für dein Script.
Hat heute Nacht wunderbar geklappt und alles fein gesichert.
 
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.
 
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.
 
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.

Hi,
In dem falle des Webservers ist tar natürlich etwas schwieriger einzusetzen.

Geht, wenn man will und Shell Zugriff hat, aber auch.

Gruß

Janus
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat