jDownloader RSScrawler (noarch) / Paketzentrum (JDownloader Add-on)

Status
Für weitere Antworten geschlossen.

pigaso

Benutzer
Mitglied seit
13. Nov 2014
Beiträge
37
Punkte für Reaktionen
0
Punkte
0
Wie ist das wen ich z.b. die serie Alles Klara Staffel 1 und 2 schon habe, jetz aber will das er nur noch die neuen Links ab Staffel 3 hinzufügt und die Staffel 4 die evtl. in einem halben Jahr kommen wird?

@dkeppi kannst du evtl. schrieben was du alles angepast hast oder ein kleines how to mit den wichtigsten punkten?

Danke
 

yavaz

Benutzer
Mitglied seit
08. Nov 2010
Beiträge
21
Punkte für Reaktionen
0
Punkte
0
Irgendwie funktioniert das ganze bei mir nicht automatisch.
Folderwatch ist in JD eingeschalten, mit dem Pfad auf:
["/volume1/@appstore/RSScrawler/Folderwatch"]
Es werden aber keine neuen Episoden gepusht.

Mit einem:
usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
klappt es allerdings, alle neuen Episoden werden gepusht.

Was habe ich falsch eingestellt?
Habe JD und RSScrawler bereits neugestartet, es passiert allerdings nichts.


Vielen Dank
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Das er Episoden die du bereits während des manuellen Abruf's abgerufen hast, nicht noch einmal abrufst, ist dir bewußt ? Sonst gibt es keinen Unterschied, was während des Test's funktioniert hat, funktioniert auch via normalen Start danach. Einfach etwas Geduld.
 

yavaz

Benutzer
Mitglied seit
08. Nov 2010
Beiträge
21
Punkte für Reaktionen
0
Punkte
0
Ist mir vollkommen bewusst, ja.
Deshalb habe ich einfach so zum testen in /volume1/@appstore/RSScrawler/Settings/Lists/Shows.txt eine weitere Staffel (in diese Beispiel: kalkofes.mattscheibe.rekalked) hinzugefügt.
Da nichts gepusht wurde und auch nichts in der Reject list steht von dieser Staffel, habe ich JD und RSScrawler restartet, leider wurde auch danach nichts gepusht.

Nun habe ich aber eben gesehen, dass über Nacht eine andere Episode heruntergeladen wurde..
Sehe leider nur den Grund nicht, weshalb von dieser Staffel keine Episode heruntergeladen wird, obwohl eine Episode im Feed hinterlegt ist ([DEUTSCH] Kalkofes.Mattscheibe.Rekalked.S04E04.GERMAN.WS.dTV.x264).

Habe es noch nicht getestet, aber mit einem manuellen Abruf werden die Episoden von der Staffeln kalkofes.mattscheibe.rekalked ganz sicher gepusht.
Dieses Vorhergehen habe ich gestern mit anderen Staffeln auch ausprobiert.
 
Zuletzt bearbeitet:

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Ist mir noch nicht aufgefallen, wenn das aber ein nachvollziehbarer Fehler ist, dann geh doch bitte auf Github, Link findest du über das Paketzentrum, und reporte das da. Das muss ja dann der Coder fixen.
 

yavaz

Benutzer
Mitglied seit
08. Nov 2010
Beiträge
21
Punkte für Reaktionen
0
Punkte
0
Alles klar, werde ich machen!
Vielen Dank für dein Paket :)
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hi,

ich bekomme das Paket RSSCrawler auf meiner 1515+ nicht zum laufen. Ich habe genau den Fehler von DKeppi aus Beitrag #4.
PIP findet docopt bei mir unter dem Pfad "docopt in /volume1/@appstore/python/lib/python2.7/site-packages". Bin momentan etwas ratlos...

*UPDATE: Ok, RSSCrawler scheint doch zu laufen. Allerdings steht das Paket im Paketzentrum auf angehalten --> Anzeigefehler?
Ein ps | grep RSScrawler zeigt aber an dass es läuft. Jetzt muss ich schauen wie ich den JD mit Daten fülle :)

Gruß
Bob
 
Zuletzt bearbeitet:

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Das sollte so nicht sein. Stopp es noch mal und starte es wieder. Python von Synocommunity verwendest du ?
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.208
Punkte für Reaktionen
63
Punkte
114
Ich habe genau den Fehler von DKeppi aus Beitrag #4.
PIP findet docopt bei mir unter dem Pfad "docopt in /volume1/@appstore/python/lib/python2.7/site-packages".

Den Fehler scheint jeder zu bekommen wenn man es mit phyton RSScrwaler.py probiert

usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG ist der korrekte Aufruf um über die Kommandozeile zu testen ;)
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hi,

Danke für die Antworten!

Habe festgestellt, dass RSScrawler bei mir doch nicht richtig läuft. Ja, ich habe Python 2.7 von der Community installiert.
DKeppi hat recht. Wenn man nur Python RSScrawler.py eingibt kommt bereits genannter Fehler. Wenn ich RSScrawler anders starte kommen auch die korrekten Folgen in der Debug Meldung die in der Shows.txt eingetragen wurden. Aber halt nur dieses eine Mal!
Übers Paketzentrum starten geht nicht --> steht dauernd auf angehalten.
Habe dann versucht ein cronjob anzulegen der halt einmal am Tag läuft... das geht auch nicht. Nur der manuelle Aufruf scheint zu klappen. Irgendwie merkwürdig...

Gruß
Bob
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Also bei mir läuft das wunderbar, mittlerweile so automatisch, das er alles direkt runter lädt usw...Wenn du die Shows.txt einmal eingepasst hast und gesehen hast das diese per DEBUG richtig alles holt, dann tut Sie dies auch wenn das Skript richtig läuft, da sieht oftmals die Ungeduld weil es eben einfach sehr lange dauert (meist wöchentlich) bis was neues da ist. Alle bereits herunter geholten Folgen werden außerdem in einer Datenbank gespeichert, diese holt er also nicht noch einmal herunter!

Was den Status angeht, bei mir steht da läuft und es läuft auch. Da hilft nur noch analysieren. Starte das Paket im Paketzentrum, schau dann mal auf der Shell in der Prozessliste ob es einen Python Prozess gibt. Gibt es diesen, ruft mal das start-stop-status skript mit "status" auf, was da raus kommt. Aber da es in einem Cron auch fehlschlägt ist da bei dir irgendwas im argen was man raus finden muss.
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Wir Ihr seht ist nun der Eingangspost aktualisiert, hier gab es kleine Differenzen mit dem Author die aber nun geklärt sind. Das letzte Update hat eine neue Funktion gebracht, solltet Ihr also die RegEx Suche verwenden, gibt es dazu nun eine Extra Datei. Ist im Eingangspost erwähnt, ansonsten bitte das Readme lesen, dort steht alles drin. Bei Problemen einfach melden.

Wie oft ich den Eingangspost noch aktualisieren kann, z.B. mit FAQ und ähnlichem, ist fraglich, ich wurde hier auch schon von einem Mod ermahnt das ich dies nicht dauernd machen könne. Leider ist man seitens der Administration dieses Boards nicht willens und/oder in der Lage den Thread-Erstellern, zumindest denen die hier schon einige Posts inne habe, das editieren Ihrer eigenen Posts zu erlauben. vBulleting hat dafür eigens Möglichkeiten und Berechtigungen, aber scheinbar möchte man das eben nicht. Im schlimmsten Fall muss ich für jede neue Version einen neuen Thread erstellen.
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hi,

sorry, konnte mich nicht eher melden.

Im Paketzentrum sieht es bei mir so aus:

RSScrawler_status.jpg

Über ein "ps" in der Konsole gibt er mir folgende Meldung:

ps_grep.jpg

Nach Ausfürung des start-stop-status scripts kommt dann folgendes:

start-stop-status.jpg

Ich schau mal, ob im Systemlog irgendwas dazu zu finden ist...

Gruß
Bob
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hi,

Mittlerweile weitet sich mein Problem aus. Momentan kann ich nichtmal mehr von SJ hinzugefügte Links Captchas lösen.
Normalerweise erscheint ja im MyJDownloader unten rechts an dem Symbol eine 1 auf die man klickt. Dann geht ein neues Fenster auf und man löst das Captcha. Kann nun klicken wie ich will, da passiert nix mehr...

Im Log des JDownloader auf der DS ist dann folgender Fehlerauswurf zu finden:

jDownloader_log.jpg

Hat jemand dasselbe oder ein ähnliches Problem?

Gruß
Bob
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Mix bitte nicht die Threads, für jd gibt es einen eigenen, das hier ist für den crawler. Zu deinem Problem, dein ps kennt das Argument -a nicht, hast du ein altes optware oder so?
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hi neutron,

ne habe kein zusätzlichen Paketmanager laufen. Alles Standard was so im DSM enthalten ist. Abgesehen von den installierten Community Paketen über das Paketzentrum.

Gruß
Bob
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
Hm, was mir gerade so aufgefallen ist...
DKeppi und du verwenden DSM 6. Ich weiß jetzt natürlich nicht was Synology hier "unter der Haube" geändert hat. Evtl. hat es damit was zu tun, dass bei mir solche Sachen auftreten?

Gruß
Bob
 

neutron

Benutzer
Mitglied seit
16. Jul 2015
Beiträge
462
Punkte für Reaktionen
0
Punkte
16
Kann sein. Installier mal den "Easy Bootstrap Installer" von QTip und wähle "entware" bei der Installation, dann noch mal probieren.
 

Cyberbob19

Benutzer
Mitglied seit
05. Mai 2011
Beiträge
231
Punkte für Reaktionen
0
Punkte
22
"entware" ist von QTip für armv7, armv7l angegeben. Das alles läuft auf meiner 1515+
Ich denke "optware" wäre hier die richtige Wahl.

Gruß
Bob
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat 

 
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten. Dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit hohem technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive Werbung und bemühen uns um eine dezente Integration.

Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.

Du kannst uns auch über unseren Kaffeautomat einen Kaffe ausgeben oder ein PUR Abo abschließen und das Forum so werbefrei nutzen.

Vielen Dank für Deine Unterstützung!