jDownloader RSScrawler (noarch) / Paketzentrum (JDownloader Add-on)

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.
Morgen oder übermorgen gibt es ein größeres Update für den Crawler. Aktuell sind übrigens die Feeds von SJ und evtl. auch DJ kaputt, also nicht wundern das nix gefunden wird.
 
Was auch immer für dich richtig ist, auf jeden Fall sollte es danach gehen.

Ein Kollege von mir hat dasselbe Phänomen auf einer xpenology mit DSM 5.2.-5644-5.
Paket bleibt auf angehalten aber der Crawler läuft.
Installation von EBI/optware hat keine Änderung gebracht.

Nachdem es aber läuft (gecheckt per ps) ist das Problem eher nebensächlich ;)


P.S.: Wann kommt das Crawler Update bzw. was wirst du verbessern?
 
Liegt wie gesagt am PS Befehl der das Parameter -a nicht kann. Das Paket werde ich zeitnah aktualisieren, da gibt es mittlerweile eine ganz neue Version von dem RSScrawler. Und DKeppi, wie schon Eingangs erwähnt, ich schnüre nur das Paket, der Code selbst ist nicht von mir. Ich werde dazu aber einen neuen Thread aufmachen.
 
Ich habe ein Problem, wenn ich lxml installieren will. Ich bekomme immer die Fehlermeldung:

" Setup script exited with error: command '/usr/local/x86_64-pc-linux-gnu/bin/x86_64-pc-linux-gnu-ccache-gcc' failed with exit status 1"

Wenn ich "gcc -v" eingebe -> gcc version 5.3.0 (GCC)

Vielen Dank schonmal für die Hilfe :)

Edit: Habe DSM 6.0 installiert
 
Hallo zusammen,

eig. habe ich alles soweit hinbekommen, er crawlt wunderbar etc. pp.
Ich habe 9KW als Captcha-Lösung auch eingestellt, jedoch scheint es so als ob er z.B SJ Links nicht wirklich einfügt es kommen Offline-Links aufgrund falscher Adresse (nicht encrypted), gibt es hier eine Lösung?

LG Itsie
 
Erst einmal: Grandiose Idee! Ich suche schon lange nach einer Möglichkeit, die Vorteile des Usenets im Hinblick auf Automatisierung auch auf die OCH's bzw. den JDownloader zu übertragen. Nur leider funktioniert der automatische Download bei mir nicht. Python sowie Python3 und auch Optware sind installiert, der Crawler lässt sich jedoch nach einem Restart des NAS nicht mehr ausführen.

Anbei mal die Config Daten, falls da noch etwas im Argen liegt:

RSSCrawler.ini:
# Dieser Pfad muss das exakte Verzeichnis des JDownloaders sein, sonst funktioniert das Script nicht!
jdownloader = /volume1/@appstore/JDownloader
# Das Suchintervall in Minuten sollte nicht zu niedrig angesetzt werden um keinen Ban zu riskieren
interval = 10
# Um ueber hinzugefuegte Releases informiert zu werden hier den Pushbullet API-Key eintragen
pushbulletapi = o.2s5bvVr1bGAoM4BQbCJ9Stxxxxxxxxxx
# Hier den gewuenschten Hoster eintragen (Uploaded oder Share-Online)
hoster = Share-Online

Rest wurde nicht verändert.

MB_Staffeln/SJ_Serien.txt:
DEUTSCH.*Mr.Robot.*.S02.*.720p.*
...
 
Hallo
Wenn ich versuche RSSCrawler zu starten bekomme ich diese Fehlermeldung:
Code:
NAS> python RSScrawler.py
Traceback (most recent call last):
  File "RSScrawler.py", line 44, in <module>
    import pycurl
ImportError: No module named pycurl
Wie bekomme ich dieses pycurl nachinstalliert?

Wenn ich easy_install pycurl eingebe kommt das:
Code:
NAS> easy_install pycurl
Searching for pycurl
Reading http://pypi.python.org/simple/pycurl/
Best match: pycurl 7.43.0
Downloading https://pypi.python.org/packages/12/3f/557356b60d8e59a1cce62ffc07ecc03e4f8a202c86adae34d895826281fb/pycurl-7.43.0.tar.gz#md5=c94bdba01da6004fa38325e9bd6b9760
Processing pycurl-7.43.0.tar.gz
Running pycurl-7.43.0/setup.py -q bdist_egg --dist-dir /tmp/easy_install-VZebhq/pycurl-7.43.0/egg-dist-tmp-LonCll
Using curl-config (libcurl 7.24.0)
warning: no files found matching 'src/Makefile'
unable to execute '/usr/local/i686-pc-linux-gnu/bin/i686-pc-linux-gnu-ccache-gcc': No such file or directory
error: Setup script exited with error: command '/usr/local/i686-pc-linux-gnu/bin/i686-pc-linux-gnu-ccache-gcc' failed with exit status 1
 
Probier es bitte mal mit:

Rich (BBCode):
/usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
 
Da bekomme ich:
Rich (BBCode):
NAS> /usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
-ash: /usr/local/python/bin/python: not found
 
Dann hast du wohl kein python installiert!
Nimm packages.synocommunity.com als Paketquelle und installier das mal...
 
python3 hatte ich installiert
habe jetzt nochmal python installiert
jetzt bekomme ich das als Meldung
Rich (BBCode):
NAS> /usr/local/python/bin/python RSScrawler.py --ontime --log-level=DEBUG
Traceback (most recent call last):
  File "RSScrawler.py", line 34, in <module>
    from docopt import docopt
ImportError: No module named docopt
 
Du brauchst python 2.7 nicht python 3.

Und dann die aufgezählten Pakete aus der https://github.com/rix1337/RSScrawler/blob/master/requirements.txt

Die aktuelle Version 2.0.3 des Scripts ist aber mittlerweile weit von diesem Paket entfernt. Sollte mal auf den neuesten Stand gebracht werden!

Gibt mittlerweile einen Webserver für die Einstellungen.. ist irgendwie bequemer als in der Konsole rumzufuhrwerken.
 
Hallo zusammen,

ich hätte da mal eine frage !
ist es möglich andere webseiten feed hinzuzufügen ?
oder gehn nur die beiden seiten die schon drinne sind.

freue mich über eine antwort

LG
 
Hallo zusammen

Bei mir kommt folgende Meldung:

Image 1.png

Wie kann ich es beheben?

Vielen Dank für die Hilfe
 
Hallo

Ok das PhantomJS hat nicht's mit dem Crowler zu tun. Entschuldigt. :)
 
@neutron, könntest du ggf. das Paket updaten?
 
+1 fürs Update, aber neutron war ewig nicht mehr online hier! :(
 
Schade das hier nichts mehr passiert.... :(

Hat evtl. jemand eine Idee/Anleitung wie man RSSCrawler mittels master.zip von rix1337 auf den aktuellen Stand bringen kann?!
 
Ist wirklich schade. Die Idee war gut aber seit kürzlich startet das Paket nicht mehr.
@Nä leider nicht.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat