Raspberry Pi auf Synology NAS per rsync sichern

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.051
Punkte für Reaktionen
900
Punkte
204
Dann aber auch bitte folgende Parameter anpassen, damit Paperless-ngx wartet, bis die Datei vollständig übertragen ist.

PAPERLESS_CONSUMER_POLLING=<num>
Specify a polling interval in seconds here, which will then cause paperless to periodically check your consumption directory for changes

PAPERLESS_CONSUMER_POLLING_DELAY=<num>
If consumer polling is enabled, sets the number of times paperless will check for a file to remain unmodified.
 
  • Like
Reaktionen: derzwaenn

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Den Ordner habe ich nun gefunden, allerdings kann ich bspw. per rsync dort keine Daten hinsenden:
/usr/bin/rsync -avz -e /volume1/_DMS/Import ssh root@192.168.xxx.xxx:/docker/paperless/consume/ >> /volume1/_DMS/backup.log 2>&1 bringt den Fehler
rsync: Failed to exec /volume1/_DMS/Import: Permission denied (13)
Also klappt diese Richtung wohl so nicht.
 

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Ich hatte gehofft, auf dem Weg zu testen, dass ich was an den Ordner schicken kann.
 

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Bash:
ssh pi@raspi 'sudo /usr/bin/mysqldump -u root   --single-transaction owncloud > /home/pi/owncloud-mysql-dump.sql'
sudo -E rsync -avh   pi@raspi:/var/www/owncloud/data/admin       /opt/containers/oc-compose/owncloud/files  >> /home/pi/rsync-log-data-a.log
sudo -E rsync -avh   pi@raspi:/home/pi/owncloud-mysql-dump.sql   /opt/containers/oc-compose/mariadb/backup/ >> /home/pi/rsync-log-sql.log
Gibt es irgendwo eine Übersicht über die Parameter? Ich möchte bspw. gern, dass beim sync auch Dateien (und Ordner) gelöscht werden, die auf der Quelle nicht mehr vorhanden sind.
 

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Ok, gefunden: /usr/bin/rsync -avz -e ssh root@192.168.xxx.xxx:/docker/paperless/archive/ /volume1/_DMS/Archiv --delete >> /volume1/_DMS/backup.log 2>&1
 
Zuletzt bearbeitet von einem Moderator:

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Dann aber auch bitte folgende Parameter anpassen, damit Paperless-ngx wartet, bis die Datei vollständig übertragen ist.

PAPERLESS_CONSUMER_POLLING=<num>
Specify a polling interval in seconds here, which will then cause paperless to periodically check your consumption directory for changes

PAPERLESS_CONSUMER_POLLING_DELAY=<num>
If consumer polling is enabled, sets the number of times paperless will check for a file to remain unmodified.
Danke für die Hinweise! Bei der Recherche bin ich zudem auf die nützlichen Parameter gestoßen:
PAPERLESS_CONSUMER_RECURSIVE: true

PAPERLESS_CONSUMER_SUBDIRS_AS_TAGS: true
 

derzwaenn

Benutzer
Mitglied seit
08. Aug 2023
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Den Ordner habe ich nun gefunden, allerdings kann ich bspw. per rsync dort keine Daten hinsenden:
/usr/bin/rsync -avz -e /volume1/_DMS/Import ssh root@192.168.xxx.xxx:/docker/paperless/consume/ >> /volume1/_DMS/backup.log 2>&1 bringt den Fehler

Also klappt diese Richtung wohl so nicht.
Der Vollständigkeit halber: Das klappt mit
/usr/bin/rsync -avz -e ssh /volume1/_DMS/Import --exclude '@eaDir' --exclude '#recycle' --remove-source-files root@192.168.xxx.xxx:/docker/paperless/consume/ >> /volume1/_DMS/backup.log 2>&1
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat