Zeitgesteueter Download einer Webseite

Status
Für weitere Antworten geschlossen.

insai

Benutzer
Mitglied seit
06. Jan 2020
Beiträge
43
Punkte für Reaktionen
5
Punkte
8
Hallo Leute

ich bin der neue hier im Forum und versuche soeben die ersten erweiterten Gehversuche mit meiner neuen DS218j , Version DSM 6.2.3-25426.
Mein heutiges Ziel ist eine einzelne Webseite (http://kccn.tunegenie.com/tophits/) aus dem Internet zu downloaden und zu speichern als html/pdf/txt. (outputformat ist noch nicht ganz definiert).
Das ganze soll alle 2 Stunden geschehen. Eine weitere Bearbeitung der Files erfolgt dann in weiteren Schritten ausserhalb der Synology.

Ich habe es bereits versucht mit der DownloadStation aber da finde ich leider nichts um das ganze alle 2 Stunden durchzuführen

Wer hat einen guten Typ für mich wie ich das am besten anfangen?

Herzlichen Dank für die Hilfe im voraus.
Insai
 

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
5.555
Punkte für Reaktionen
1.394
Punkte
234
Hallo Insai,
herzlich Willkommen im Forum.

Für deinen Zweck würde ich auf der Konsole (Stichwort SSH und Putty) das Tool wget benutzen. Das ist sehr mächtig und kann alles runterladen was du möchtest. Alternativ kann man wget auch über den Aufgabenplaner starten, sprich ohne Konsole. Dafür benötigt man neben der URL auch den Pfad (z.B. /volume1/gemeinsamerOrdner/unterverzeichnis1/), wo wget die Daten speichern soll.

Zu wget ein paar weiterführende Links:
https://www.zechendorf.com/blog/2017/mit-wget-vollstaendige-webseite-herunterladen/
https://www.pro-linux.de/artikel/2/624/webseiten-herunterladen-mit-gnu-wget.html
https://wiki.ubuntuusers.de/wget/
 
  • Like
Reaktionen: insai
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat