jDownloader RSScrawler 3.0 (noarch) / Paketzentrum (JDownloader Add-on)

Status
Für weitere Antworten geschlossen.

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Hi

Seit Wochen läuft alles prima auch die Updates des Crawlers per Console.

Nun ist Version 4.01 da. Ich mach es wie immer will aber nicht mehr.

Wähle immer 2 Synology aus.
Läuft durch nur das ich immer noch die alte Version habe danach.


Was mache ich falsch ?

Das gebe ich ein :


wget https://raw.githubusercontent.com/rix1337/RSScrawler/master/setup.sh

chmod +x setup.sh

bash setup.sh
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
Hey @neutron, hättest Du mal Zeit, das Paket zu aktualisieren? Das installiert immernoch die v3, es kommt aber ständig neues.
Wäre es auch möglich, eine Update-Funktion bzw. Check einzubauen?
 

sweatcher

Benutzer
Mitglied seit
26. Apr 2014
Beiträge
40
Punkte für Reaktionen
0
Punkte
6
Hab auch jedesmal mühe mit dem manuelen updaten.

Wie macht ihr das jeweils?

Aktuell gibt es ja V4.0.5 oder so
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
Ich hab mir dafür ein bash Script gebastelt. Hab aber seit neuestem das Problem, dass im Log bei jedem Abruf Starting new HTTP connection (1): www.imdb.com steht, und das bei 3x am Tag = 100 Log Einträge. Ich vermute stark dass da Altlasten von der v3 kommen, weil Einstellungen ja nicht upgedatet wird.
 

*deLuXe*

Benutzer
Mitglied seit
30. Mrz 2013
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
Hallo, gibt es die Möglichkeit, eigene RSS Feeds hinzuzüfügen? Könnte für einige Nutzer interessant sein, denen MB und SJ nicht aussreichen...
Ich denke zB an DD.tv, das funktioniert mit pyload ja hervorragend...
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Solche Fragen würde ich direkt dem Entwickler stellen, hier wird dir dazu leider keiner was sagen können:
https://github.com/rix1337/RSScrawler/issues

Generell denke ich aber, dass das nicht so einfach möglich ist, da die Suche sicher auch an diese anderen RSS Feeds (die vermutlich nicht alle gleich arbeiten) angepasst werden müsste...aber ist nur eine Vermutung mach besser ein Issue dazu auf bei RIX!
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Ich glaube nicht, da er meines Wissens gar keine Synology hat ;)
Finde auch keinen User namens Rix, was aber nichts heißen muss...

Ein Github Account ist ja schnell erstellt und so kann man ihn auch gleich abonnieren und bleibt am Laufenden :)


BTW:
Was ist dd.tv, die Seite bringt nichts was mit Filmen/Serien zu tun hat!
 

*deLuXe*

Benutzer
Mitglied seit
30. Mrz 2013
Beiträge
6
Punkte für Reaktionen
0
Punkte
1
ich hab noch eine Verständnisfrage... und zwar als Synology-User wird der RSScrawler.py ja lt. Wiki per Aufgabenplaner gestartet... Dort kann man in DSM jetzt nicht definieren "nach jedem Hochfahren" sondern nur zB 1x täglich/wöchentlich usw.
Jetzt habe ich zB 1x täglich eingestellt, was mir reicht - wenn es perfekt läuft.
Allerdings - theoretisch - startet er ja jetzt auch 1x täglich, egal ob das Skript schon läuft (in der Regel) oder nicht (nur nach Neustart der Syno)... Dh. irgendwann laufen zig Instanzen, oder? (--> dann kommt bei jeder zusätzlich Instanz der Fehler: "Port schon in use"...).
Wie könnte man das umgehen?
Oder ist eine Funktion eingebaut, dass das .py Skript nur einmal laufen kann? (<-- glaube ich eher nicht)
 

Feuerwasser

Benutzer
Mitglied seit
28. Aug 2012
Beiträge
245
Punkte für Reaktionen
0
Punkte
22
1. Es gibt ein Paket, das nutze ich zb. Fährt dann automatisch mit der DS hoch. Für Updates habe ich mir ein Skript gebastelt.
2. Klar kann man Aufgaben auch "bei jedem hochfahren" oder "bei jedem runterfahren" starten.
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Die Seite heißt DirectDo*nload.tv :)

Die Funktionalität würde völlig unkompliziert und sauschnell mit eingebaut :cool:

Gratuliere, dass das so schnell ging!

Kenne die Seite nicht, sehe aber gerade dass man eine Art Einladung braucht?!
 

mandragora

Benutzer
Mitglied seit
25. Jan 2012
Beiträge
35
Punkte für Reaktionen
0
Punkte
6
Hallo Leute,

Auf die Gefahr hin das ich jetzt blöd frage (Hab nichts gefunden oder hier gelesen).

Laut den Infos steht hier : Der RSScrawler holt von diversen Seiten entsprechende Informationen und speichert diese im Folderwatch-Format für JDownloader.

Kann man irgendwo einsehen welche Seiten da vom RSScrawler durchsucht werden ?
Und ist es ev. möglich selbst Seiten oder RSS Feeds hinzuzufügen ?

Oder verstehe ich das Ganze irgendwie nicht richtig ?

Bitte um kurze Info und Aufklärung :)

Danke euch
lg
mandragora
 

sweatcher

Benutzer
Mitglied seit
26. Apr 2014
Beiträge
40
Punkte für Reaktionen
0
Punkte
6
naja es sind glaube ich 2-3 Seiten, welche genau kannst du auf der Entwickler Seite oder im Hilfe Chat rausfinden, denke man darf hier die Namen nicht nennen.
 

Misaal

Benutzer
Mitglied seit
18. Sep 2014
Beiträge
124
Punkte für Reaktionen
0
Punkte
16
Hallo

Ich habe das Problem, dass sich das Paket automatisch stoppt. Keine Ahnung wieso, ich muss es jeden Tag wieder von Hand ausführen.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat