RSSCrawler 4.01

Status
Für weitere Antworten geschlossen.

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Ich erlaube mir mal wegen dem Versions sprung einen neuen Blog zu eröffnen.

Mit 4.01 gab es wohl erhebliche Veränderungen im Webinterface und Code. Vielleicht ist das die Ursache für mein Problem.

Hat jemand den 4.01 schon am laufen ?

Hier mein Problem:


Seit Wochen läuft alles prima auch die Updates des Crawlers per Console.

Nun ist Version 4.01 da. Ich mach es wie immer will aber nicht mehr.

Wähle immer 2 Synology aus.
Läuft durch nur das ich immer noch die alte Version habe danach.


Was mache ich falsch ?

Das gebe ich ein :


wget https://raw.githubusercontent.com/ri...aster/setup.sh

chmod +x setup.sh

bash setup.sh
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.207
Punkte für Reaktionen
62
Punkte
114

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Habs so versucht

leider immer noch das alte. Vorab alle Verzeichne löschen ?

wget https://bootstrap.pypa.io/get-pip.py
Damit pip installiert
Code:
python get-pip.py
Und anschließend die Module nachinstalliert
Code:
pip install docopt
pip install flask
pip install feedparser
pip install requests
pip install BeautifulSoup
pip install lxml
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Hat jemand keine Idee wie ich auf die 4.02 umstelle ?
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.207
Punkte für Reaktionen
62
Punkte
114
Bei mir hat es auch etwas gezickt und ich mache das per Setup Script "Punkt 3 - Update" via git.
Ein Neustart hat dann aber geholfen! Probier das mal...

Sonst:
Ein
Rich (BBCode):
killall python
machen, damit auch wirklich nichts läuft,
alle Verzeichnisse von RSScrawler löschen und neu installieren!
Sichere dir aber vorher die ini und die Einstellungen...
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Habs versucht will noch nicht.

Bin nicht so der Fachmann. Das kommt zurück


wget https://raw.githubusercontent.com/rix1337/RSScrawler/mast
--2018-02-26 19:32:56-- https://raw.githubusercontent.com/rix1337/RSScrawler/master/setup.sh
Resolving raw.githubusercontent.com... 151.101.112.133
Connecting to raw.githubusercontent.com|151.101.112.133|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 3041 (3.0K) [text/plain]
Saving to: 'setup.sh.4'

100%[===============================================================>] 3,041 --.-K/s in 0s

2018-02-26 19:32:58 (28.2 MB/s) - 'setup.sh.4' saved [3041/3041]

root@VR_DSM_JM:~# chmod +x setup.sh
root@VR_DSM_JM:~# bash setup.sh
??????????????????????????????????????????????????????????
Programminfo: RSScrawler v.4.0.1 von RiX
Projektseite: https://github.com/rix1337/RSScrawler
??????????????????????????????????????????????????????????
Hinweise im Wiki: https://github.com/rix1337/RSScrawler/wiki
Bitte Plattform wählen:
1) Ubuntu/Debian
2) Synology
3) Update
4) Beenden
#? 3
Wo ist RSScrawler installiert? Pfad ohne / am Ende: /volume1/@appstore/RSScrawlerv3
setup.sh: line 59: git: command not found
setup.sh: line 60: git: command not found
setup.sh: line 61: git: command not found
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
das kommt über die andere Befehlskette

wget https://bootstrap.pypa.io/get-pip.py
--2018-02-26 19:39:41-- https://bootstrap.pypa.io/get-pip.py
Resolving bootstrap.pypa.io... 151.101.112.175
Connecting to bootstrap.pypa.io|151.101.112.175|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1595408 (1.5M) [text/x-python]
Saving to: 'get-pip.py.1'

100%[===============================================================>] 1,595,408 58.0KB/s in 21s

2018-02-26 19:40:03 (74.6 KB/s) - 'get-pip.py.1' saved [1595408/1595408]

root@VR_DSM_JM:~# python get-pip.py
Requirement already up-to-date: pip in /usr/lib/python2.7/site-packages
root@VR_DSM_JM:~# pip install docopt
Requirement already satisfied: docopt in /usr/lib/python2.7/site-packages
root@VR_DSM_JM:~#
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.207
Punkte für Reaktionen
62
Punkte
114
Damit das mit git funktioniert bedarf es ein paar Vorarbeiten:
http://www.synology-forum.de/showth...loader-Add-on)&p=693557&viewfull=1#post693557

Ich sehe aber grad das du wohl RSScrawler aus dem ursprüngliche angebotenen Paket updatest...wegen dem Pfad /@appstore/RSScrawlerv3
Wenn man es mit dem offiziellen Script von Rix installiert, liegt es unter /@appstore/RSScrawler-master - evtl. liegts daran.

Viell. ist eine komplette Neuinstallation die einfachste und schnellste Variante! ;)
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
So nach zig versuchen hab ich es nach deiner Anleitung hin bekommen.

Hast du nee Idee was ich eingeben muß wenn ich Ihn starten und stoppen via Aufgabenplaner will ?

Danke noch mal

Ergänzt :

Zu früh gefreut. Ich hatte alle Serien vorab gespeichert. Suche via Reg SJ.

Kann sie rein kopieren und speichern . Gehe rein und raus aus der Seite und alles wieder leer.

Mist
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Ich kann es mit python RSScrawler.py starten dann läuft er. Nur wenn ich Terminal zu mache ist er wieder aus
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
habs hin bekommen.

Muste nur noch in den Aufgabenplaner den crawler starten.

Danke für Hilfe.
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.207
Punkte für Reaktionen
62
Punkte
114
Schön zu hören dass es nun klappt :)
Ich habe einen Job im Aufgabenplaner der ihn alle 5 min. startet (das passiert eh nur wenn er nicht laufen sollte)
So startet er sich auch nach einem Reboot und läuft wirklich immer...
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
gut zuwissen habs auch mal auf 5 min gestellt.

Die Tage noch das Update was verfügbar ist angehen, aber froh das es erst mal läuf
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
DKeppi darf ich noch mal um Hilfe bitten ?

Hat nun Tage super gelaufen. Seit gestern komm ich nicht mehr aufs Web Interface. Naja dachte ich gibt ja auch nee neue Version mach die mal drauf.
Hab das via setup sh versucht und dann Punkt 2. Aber da kommen dann lauter Fehlermeldungen. Wie machst du dein update auf neue Versionen.

Warum ich das Webinterface nicht aufrufen kann verstehe ich auch nicht. Sieht so aus als ob alle läuft .

root@VR_DSM_JM:~# cd /volume1/@appstore/RSScrawler-master
root@VR_DSM_JM:/volume1/@appstore/RSScrawler-master# killall python
root@VR_DSM_JM:/volume1/@appstore/RSScrawler-master# python RSScrawler.py
??????????????????????????????????????????????????????????
Programminfo: RSScrawler v.4.0.2 von RiX
Projektseite: https://github.com/rix1337/RSScrawler
??????????????????????????????????????????????????????????
Nutze das "folderwatch" Unterverzeichnis von "/volume1/@appstore/JDownloader" für Crawljobs
Der Webserver ist erreichbar unter http://xxx.xx.xxx.xx:9090
Drücke [Strg] + [C] zum Beenden
2018-03-07 19:00:56 - Alle Suchfunktion gestartet.
Update steht bereit (v.4.0.5)! Weitere Informationen unter https://github.com/rix1337/RSScrawler/releases/latest
 

DKeppi

Benutzer
Mitglied seit
01. Apr 2011
Beiträge
3.207
Punkte für Reaktionen
62
Punkte
114

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Jeep hab ich

Hab anderen Verdacht warum es Ärger macht muß aber noch mal testen. Hab GIT via IPKGUI installiert. Das läuft auch nicht mehr. Vielleicht hat es damit zu tun das das alles als Virutal DSM läuft.
Wie gesagt ich teste mal.

Danke

Habs noch mal installiert :

Das ist der Fehler sagt er dir was ? :

Drücke [Strg] + [C] zum Beenden
2018-03-08 17:03:51 - Alle Suchfunktion gestartet.
Update steht bereit (v.4.0.5)! Weitere Informationen unter https://github.com/rix1337/RSScrawler/releases/latest
Process Process-1:
Traceback (most recent call last):
File "/usr/lib/python2.7/multiprocessing/process.py", line 258, in _bootstrap
self.run()
File "/usr/lib/python2.7/multiprocessing/process.py", line 114, in run
self._target(*self._args, **self._kwargs)
File "RSScrawler.py", line 56, in web_server
start(port, docker)
File "/volume1/@appstore/RSScrawler-master/web.py", line 373, in start
app.run(host='0.0.0.0', port=port)
File "/usr/lib/python2.7/site-packages/flask/app.py", line 841, in run
run_simple(host, port, self, **options)
File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 694, in run_simple
inner()
File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 656, in inner
fd=fd)
File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 550, in make_server
passthrough_errors, ssl_context, fd=fd)
File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 464, in __init__
HTTPServer.__init__(self, (host, int(port)), handler)
File "/usr/lib/python2.7/SocketServer.py", line 417, in __init__
self.server_bind()
File "/usr/lib/python2.7/BaseHTTPServer.py", line 108, in server_bind
SocketServer.TCPServer.server_bind(self)
File "/usr/lib/python2.7/SocketServer.py", line 431, in server_bind
self.socket.bind(self.server_address)
File "/usr/lib/python2.7/socket.py", line 228, in meth
return getattr(self._sock,name)(*args)
error: [Errno 98] Address already in use
 
Zuletzt bearbeitet:

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Hängt irgent wie an dem Git.

root@VR_DSM_JM:~# cd /volume1/Tausch
root@VR_DSM_JM:/volume1/Tausch# git clone https://github.com/rix1337/RSScrawler.git
-ash: git: command not found
root@VR_DSM_JM:/volume1/Tausch#


git nun am laufen aber nächste Fehler

root@VR_DSM_JM:/volume1/Tausch# git clone https://github.com/rix1337/RSScrawler.git
Cloning into 'RSScrawler'...
fatal: Unable to find remote helper for 'https'
 

HaraldB1966

Benutzer
Mitglied seit
23. Mai 2015
Beiträge
380
Punkte für Reaktionen
0
Punkte
0
Alles gelöscht von null angefangen . Läuft alles ohne Fehler durch. Wenn ich auf der Konsole starte sehe ich das er läuft und auch was findet.
Aber ich bekomme einfach nicht die Webseite aufgerufen.

Keine Idee mehr


sag dir der Fehler was ?

root@VR_DSM_JM:/volume1/@appstore/RSScrawler-master# python RSScrawler.py
/usr/local/lib/python2.7/site-packages/cffi/model.py:526: UserWarning: 'point_conversion_form_t' has no values explicitly defined; next version will refuse to guess which integer type it is meant to be (unsigned/signed, int/long)
% self._get_c_name())
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat