Homepage auf DS sichern/backup

Status
Für weitere Antworten geschlossen.

WHS2

Benutzer
Mitglied seit
20. Jan 2010
Beiträge
83
Punkte für Reaktionen
1
Punkte
8
Hallo liebe Freunde,

ich möchte gern meine Homepage automatisch auf meine Diskstation sichern.

Momentan mache ich das manuell mit ncftpget.exe in einer batch.
D.h. ich lade automatisch alles von der Homepage per FTP auf meinen Rechner.

Gibt es eine einfache Möglichkeit, daß von der DS machen zu lassen?

Vielen Dank und Grüße !
whs2
 

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Wie kannst du denn die Daten der Homepage erreichen? Am einfachsten wäre es wenn du dir die Daten via FTP auf deine DS in ein Backupverzeichnis lädst. Dann könntest du wget (auf der Kommandozeile) verwenden und mal das folgende probieren
Code:
[FONT=monospace]
[/FONT]wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -o /volume1/backup/meineWebseite
 

janus

Benutzer
Mitglied seit
07. Sep 2010
Beiträge
667
Punkte für Reaktionen
0
Punkte
0
Hallo liebe Freunde,

ich möchte gern meine Homepage automatisch auf meine Diskstation sichern.

Momentan mache ich das manuell mit ncftpget.exe in einer batch.
D.h. ich lade automatisch alles von der Homepage per FTP auf meinen Rechner.

Gibt es eine einfache Möglichkeit, daß von der DS machen zu lassen?

Vielen Dank und Grüße !
whs2

Da unter der DS ein Linux sitzt, hast du da viele Möglichkeiten.

Z.B. per Cron Job alles packen und dann irgendwo hin kopieren lassen. Kommt immer darauf an, was du dir so vorstellst und wie dein Backup medium so aussieht.

Gruß

Janus
 

WHS2

Benutzer
Mitglied seit
20. Jan 2010
Beiträge
83
Punkte für Reaktionen
1
Punkte
8
Danke Jahlives & Janus,

ich habe das hinbekommen, allerdings -o nach -r geändert (rekursiv).
Funktioniert ganz gut und der wget befehl scheint ganz schön mächtig zu sein.
Ganz schönes Sache, nachdem ich herausgefunden habe, wie ich über Telnet in die Komandozeile gekommen bin....:)



wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -r /volume 1/backup/meineWebseite

Frage: Wie Janus andeutete, wäre es komfortabler, eine Art batch Datei zu haben, die wget ausführt und mir wäre lieb, wenn es nach Abschluß das Ganze Verzeichnis zippen würde, vielleicht mit dem Datum als Dateiname. :cool:

Könnt Ihr mir hier mit so einer Art Linux Batch helfen?
Vielen Dank schon mal.
 

janus

Benutzer
Mitglied seit
07. Sep 2010
Beiträge
667
Punkte für Reaktionen
0
Punkte
0
Danke Jahlives & Janus,

ich habe das hinbekommen, allerdings -o nach -r geändert (rekursiv).
Funktioniert ganz gut und der wget befehl scheint ganz schön mächtig zu sein.
Ganz schönes Sache, nachdem ich herausgefunden habe, wie ich über Telnet in die Komandozeile gekommen bin....:)



wget --mirror ftp://USERNAME:PASSWORT@DEIN_SERVER/verzeichnis/ -r /volume 1/backup/meineWebseite

Frage: Wie Janus andeutete, wäre es komfortabler, eine Art batch Datei zu haben, die wget ausführt und mir wäre lieb, wenn es nach Abschluß das Ganze Verzeichnis zippen würde, vielleicht mit dem Datum als Dateiname. :cool:

Könnt Ihr mir hier mit so einer Art Linux Batch helfen?
Vielen Dank schon mal.

Muss ich mal bei Gelegenheit im Wiki schauen, wo ich ein Beispielscript abgelegt habe. Entweder im Bereich IPKG oder bei PyLoad.

Gruß

Janus
 

Chrunchy

Benutzer
Mitglied seit
05. Mrz 2007
Beiträge
470
Punkte für Reaktionen
0
Punkte
16
Bei mir wird folgendes Script via cron aufgerufen:
Code:
#!/bin/sh
myDate=`date +%y%m%d`
cd /volume1/backup

#### Backup löschen wenn älter als X Tage (X=65)####
find /volume1/backup -name '*.tar.gz' -mtime +65 -exec rm {} \;
find /volume1/backup -name '*.log' -mtime +65 -exec rm {} \;

#### Backup <Domainname>  ####
myDomain=domain.tld
wget -r -np -nc --ftp-user=<username> --ftp-password=<passwort> ftp://ftp.$myDomain/ > ./logs/backup_$myDomain\_$myDate.log 2>&1
tar -czf ./$myDomain\_$myDate.tar.gz ./ftp.$myDomain/*
rm -r ./ftp.$myDomain/

Danach gibt es dann eine Datei z.B. domain.tld_101224.tar.gz und im Unterverzeichnis logs noch die dazugehörige backup_domain.tld_101224.tar.gz.
Diese Dateien werden bei mir gelöscht, wenn Sie beim Scriptaufruf älter als 65 Tage sind.
Da ich mehrere Seite sichere, muss ich innerhalb des Scriptes nur den Teil nach #### Backup <Domainname> #### duplizieren und anpassen.

Das ganze speicherst du in einer Datei z.B. backup.sh und änderst die Rechte, damit sie ausgeführt werden kann.
Diese Datei kannst du dann als Cronjob in /etc/crontab eintragen.

HTH
 

janus

Benutzer
Mitglied seit
07. Sep 2010
Beiträge
667
Punkte für Reaktionen
0
Punkte
0
Bei mir wird folgendes Script via cron aufgerufen:
Code:
#!/bin/sh
myDate=`date +%y%m%d`
cd /volume1/backup

#### Backup löschen wenn älter als X Tage (X=65)####
find /volume1/backup -name '*.tar.gz' -mtime +65 -exec rm {} \;
find /volume1/backup -name '*.log' -mtime +65 -exec rm {} \;

#### Backup <Domainname>  ####
myDomain=domain.tld
wget -r -np -nc --ftp-user=<username> --ftp-password=<passwort> ftp://ftp.$myDomain/ > ./logs/backup_$myDomain\_$myDate.log 2>&1
tar -czf ./$myDomain\_$myDate.tar.gz ./ftp.$myDomain/*
rm -r ./ftp.$myDomain/

Danach gibt es dann eine Datei z.B. domain.tld_101224.tar.gz und im Unterverzeichnis logs noch die dazugehörige backup_domain.tld_101224.tar.gz.
Diese Dateien werden bei mir gelöscht, wenn Sie beim Scriptaufruf älter als 65 Tage sind.
Da ich mehrere Seite sichere, muss ich innerhalb des Scriptes nur den Teil nach #### Backup <Domainname> #### duplizieren und anpassen.

Das ganze speicherst du in einer Datei z.B. backup.sh und änderst die Rechte, damit sie ausgeführt werden kann.
Diese Datei kannst du dann als Cronjob in /etc/crontab eintragen.

HTH

Moin,
wenn ich direkten Zugriff auf die Dateien des Webservers habe, würde ich diese nicht per wget holen und sichern. Per TAR ist das ganze viel zielgerichteter und auch umfangreicher möglich. -> Siehe Wiki IPKG Installation, ganz unten.

Was die Häufigkeit des Backups angeht, ich habe kürzlich die Idee aufgegriffen, einfach den Wochentag für das Backup zu missbrauchen. Dann wird das Backup jede Woche überschrieben und man hat 7 Tage Zeit sich über einen Fehler klar zu werden. Das macht die Sache einfach. Erst wenn die Anforderungen wachsen, würde ich weiteres probieren.

Gruß

Janus
 

WHS2

Benutzer
Mitglied seit
20. Jan 2010
Beiträge
83
Punkte für Reaktionen
1
Punkte
8
Danke Chrunchy.
dann werde ich das mal probieren. Kann mich dann auch gleich in cronjobs einarbeiten....:) :D
 

smithi

Benutzer
Mitglied seit
20. Nov 2010
Beiträge
15
Punkte für Reaktionen
0
Punkte
0
Danke Crunchy für dein Script.
Hat heute Nacht wunderbar geklappt und alles fein gesichert.
 

Chrunchy

Benutzer
Mitglied seit
05. Mrz 2007
Beiträge
470
Punkte für Reaktionen
0
Punkte
16
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.
 

Chrunchy

Benutzer
Mitglied seit
05. Mrz 2007
Beiträge
470
Punkte für Reaktionen
0
Punkte
16
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.
 

janus

Benutzer
Mitglied seit
07. Sep 2010
Beiträge
667
Punkte für Reaktionen
0
Punkte
0
@Janus,
tar funktioniert soweit ich weiß nur bzw. erst, wenn die Daten lokal, also auf der DS vorliegen.

Ich habe den OP so verstanden, dass er Webspace bei einem Anbieter wie z.B. 1&1 oder Strato o.ä. hat und diesen auf der DS sichern will. Da reicht IMO TAR nicht aus.

Hi,
In dem falle des Webservers ist tar natürlich etwas schwieriger einzusetzen.

Geht, wenn man will und Shell Zugriff hat, aber auch.

Gruß

Janus
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat