Seite 3 von 15 ErsteErste 1234513 ... LetzteLetzte
Ergebnis 21 bis 30 von 150
  1. #21
    Anwender Avatar von DKeppi
    Registriert seit
    01.04.2011
    Beiträge
    2.870

    Standard

    Zitat Zitat von HaraldB1966 Beitrag anzeigen
    git nun am laufen aber nächste Fehler

    root@VR_DSM_JM:/volume1/Tausch# git clone https://github.com/rix1337/RSScrawler.git
    Cloning into 'RSScrawler'...
    fatal: Unable to find remote helper for 'https'
    Sorry total vergessen, du brauchst auch noch git-https!
    Gibts auch über ipkg
    DS916+ | 8GB RAM | 6.2.1-23824-4 | 3TB SHR / 1TB Basic | 24/7
    DS116 |
    6.2.1-23824-4 | 4TB Basic | Backup

    APC Back-UPS CS350 | Netgear GS108Tv2 | AirportExtreme | Huawei B618


    DSFinder | DSFile | DSCloud | DSPhoto | Photostation | Cloudstation | CloudSync | Webstation | DHCP-/DNS-/Proxyserver | VPNServer | HyperBackup | TimeMachine
    Java
    | VMM | lcd4linux | RSScrawler | jD2 | filebot | Plex | Docker | Portainer | sspks | watchtower | PDFViewer | MariaDB | phpMyAdmin | Joomla | MediaWiki | NUT

  2. #22
    Anwender
    Registriert seit
    23.05.2015
    Beiträge
    363

    Standard

    ich verzweifel langsam

    Immer norch Fehler auf der Konsole.

    Traceback (most recent call last):
    File "/usr/lib/python2.7/multiprocessing/process.py", line 258, in _bootstrap
    self.run()
    File "/usr/lib/python2.7/multiprocessing/process.py", line 114, in run
    self._target(*self._args, **self._kwargs)
    File "RSScrawler.py", line 56, in web_server
    start(port, docker)
    File "/volume1/@appstore/RSScrawler/web.py", line 389, in start
    app.run(host='0.0.0.0', port=port)
    File "/usr/lib/python2.7/site-packages/flask/app.py", line 841, in run
    run_simple(host, port, self, **options)
    File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 694, in run_simple
    inner()
    File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 656, in inner
    fd=fd)
    File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 550, in make_server
    passthrough_errors, ssl_context, fd=fd)
    File "/usr/local/lib/python2.7/site-packages/werkzeug/serving.py", line 464, in __init__
    HTTPServer.__init__(self, (host, int(port)), handler)
    File "/usr/lib/python2.7/SocketServer.py", line 417, in __init__
    self.server_bind()
    File "/usr/lib/python2.7/BaseHTTPServer.py", line 108, in server_bind
    SocketServer.TCPServer.server_bind(self)
    File "/usr/lib/python2.7/SocketServer.py", line 431, in server_bind
    self.socket.bind(self.server_address)
    File "/usr/lib/python2.7/socket.py", line 228, in meth
    return getattr(self._sock,name)(*args)
    error: [Errno 98] Address already in use
    2018-03-09 17:13:09 - Alle Suchfunktion gestartet.

  3. #23
    Anwender
    Registriert seit
    23.05.2015
    Beiträge
    363

    Standard

    Noch mal alles gelöscht und Schritt für Schritt.


    Ich denke er läuft aber webseite erreiche ich nicht. Aber auch einen Fehler von Python 2.7.
    Keine Idee mehr was ich noch versuchen soll.

    root@VR_DSM_JM:~# python RSScrawler.py/usr/local/lib/python2.7/site-packages/cffi/model.py:526: UserWarning: 'point_conversion_form_t' has no values explicitly defined; next version will refuse to guess which integer type it is meant to be (unsigned/signed, int/long)

    % self._get_c_name())
    ┌───────────────────────────────────────────────── ───────┐
    Programminfo: RSScrawler v.4.0.5 von RiX
    Projektseite: https://github.com/rix1337/RSScrawler
    └───────────────────────────────────────────────── ───────┘
    Der Ordner "Einstellungen" wurde erstellt.
    Die Einstellungen und Listen sind jetzt im Webinterface anpassbar.
    Nutze das "folderwatch" Unterverzeichnis von "/volume1/@appstore/JDownloader" für Crawljobs
    Der Webserver ist erreichbar unter http://xxx.xx.252.74:9090
    Drücke [Strg] + [C] zum Beenden
    2018-03-10 15:38:33 - Alle Suchfunktion gestartet.
    2018-03-10 15:39:30 - Alle Suchfunktion ausgeführt (Dauer: 57.4 Sekunden)!

  4. #24
    Anwender
    Registriert seit
    23.05.2015
    Beiträge
    363

    Standard

    liegt so weit ich das bis dato herausfinden konnte am Module cffi. Wenn ich das richtig gelesen habe Probleme mit VR Maschinen


    xxCollecting cffi==1.7.0
    Using cached cffi-1.7.0-cp27-cp27mu-manylinux1_x86_64.whl
    Requirement already satisfied: pycparser in /usr/local/lib/python2.7/site-packages (from cffi==1.7.0)
    Installing collected packages: cffi
    Found existing installation: cffi 1.6.0
    Uninstalling cffi-1.6.0:
    Exception:
    Traceback (most recent call last):
    File "/usr/lib/python2.7/site-packages/pip/basecommand.py", line 215, in main
    status = self.run(options, args)
    File "/usr/lib/python2.7/site-packages/pip/commands/install.py", line 342, in run
    prefix=options.prefix_path,
    File "/usr/lib/python2.7/site-packages/pip/req/req_set.py", line 778, in install
    requirement.uninstall(auto_confirm=True)
    File "/usr/lib/python2.7/site-packages/pip/req/req_install.py", line 754, in uninstall
    paths_to_remove.remove(auto_confirm)
    File "/usr/lib/python2.7/site-packages/pip/req/req_uninstall.py", line 115, in remove
    renames(path, new_path)
    File "/usr/lib/python2.7/site-packages/pip/utils/__init__.py", line 267, in renames
    shutil.move(old, new)
    File "/usr/lib/python2.7/shutil.py", line 300, in move
    rmtree(src)
    File "/usr/lib/python2.7/shutil.py", line 232, in rmtree
    onerror(os.path.islink, path, sys.exc_info())
    File "/usr/lib/python2.7/shutil.py", line 230, in rmtree
    raise OSError("Cannot call rmtree on a symbolic link")
    OSError: Cannot call rmtree on a symbolic link

  5. #25
    Anwender Avatar von DKeppi
    Registriert seit
    01.04.2011
    Beiträge
    2.870

    Standard

    Zitat Zitat von HaraldB1966 Beitrag anzeigen
    Wenn ich das richtig gelesen habe Probleme mit VR Maschinen
    Du hast RSSCrawler auf einer virtuellen Maschine, oder was meinst du damit?
    DS916+ | 8GB RAM | 6.2.1-23824-4 | 3TB SHR / 1TB Basic | 24/7
    DS116 |
    6.2.1-23824-4 | 4TB Basic | Backup

    APC Back-UPS CS350 | Netgear GS108Tv2 | AirportExtreme | Huawei B618


    DSFinder | DSFile | DSCloud | DSPhoto | Photostation | Cloudstation | CloudSync | Webstation | DHCP-/DNS-/Proxyserver | VPNServer | HyperBackup | TimeMachine
    Java
    | VMM | lcd4linux | RSScrawler | jD2 | filebot | Plex | Docker | Portainer | sspks | watchtower | PDFViewer | MariaDB | phpMyAdmin | Joomla | MediaWiki | NUT

  6. #26
    Anwender
    Registriert seit
    23.05.2015
    Beiträge
    363

    Standard

    Ja läuft auf einer Virtuelle Maschine ( DSM )

  7. #27
    Anwender Avatar von DKeppi
    Registriert seit
    01.04.2011
    Beiträge
    2.870

    Standard

    Dann verhält sich da wohl wirklich was anders...wusste nicht dass du virtuell unterwegs bist
    DS916+ | 8GB RAM | 6.2.1-23824-4 | 3TB SHR / 1TB Basic | 24/7
    DS116 |
    6.2.1-23824-4 | 4TB Basic | Backup

    APC Back-UPS CS350 | Netgear GS108Tv2 | AirportExtreme | Huawei B618


    DSFinder | DSFile | DSCloud | DSPhoto | Photostation | Cloudstation | CloudSync | Webstation | DHCP-/DNS-/Proxyserver | VPNServer | HyperBackup | TimeMachine
    Java
    | VMM | lcd4linux | RSScrawler | jD2 | filebot | Plex | Docker | Portainer | sspks | watchtower | PDFViewer | MariaDB | phpMyAdmin | Joomla | MediaWiki | NUT

  8. #28
    Anwender
    Registriert seit
    16.05.2012
    Beiträge
    54

    Standard

    Moin an alle!
    Bei mir läuft RSScrawler docker. Alles läuft wunderbar, außer das
    ich das Problem habe das keine Dateien im Ordner Folderwatch gespeichert werden.
    Er zeigt mir die auf der RSScrawler Seite an aber sie sind nicht im Folderwatch Ordner vom JDownloader.
    Kann mir da jemand helfen. Vielleicht fehlt dem dicker die Berechtigung?
    Geändert von DrSniper (08.05.2018 um 07:12 Uhr)

  9. #29
    Anwender
    Registriert seit
    16.05.2012
    Beiträge
    54

    Standard

    ???

  10. #30
    Anwender
    Registriert seit
    23.05.2015
    Beiträge
    363

    Standard

    Kann dir leider nicht helfen.

    Ich hab nicht verstanden wo ich was eintragen muß. Hab aber auch wenig Zeit grade mich damit zu beschäftigen. Wenn du es hin bekommst würde ich mich freuen mal paar Screen Shots zu senden wo du was eingetragen hast.

    Viel Glück das du es hin bekommst

    Harald

Seite 3 von 15 ErsteErste 1234513 ... LetzteLetzte

Ähnliche Themen

  1. RSScrawler V2 neuste Version (JDownloader Add-on)
    Von sweatcher im Forum Andere 3rd Party Anwendungen
    Antworten: 78
    Letzter Beitrag: 29.08.2018, 20:57
  2. RSScrawler 3.0 (noarch) / Paketzentrum (JDownloader Add-on)
    Von neutron im Forum Andere 3rd Party Anwendungen
    Antworten: 93
    Letzter Beitrag: 18.05.2018, 20:22
  3. RSScrawler (noarch) / Paketzentrum (JDownloader Add-on)
    Von neutron im Forum Andere 3rd Party Anwendungen
    Antworten: 66
    Letzter Beitrag: 09.01.2017, 23:23
  4. RSScrawler 1.6.5 (noarch) / Paketzentrum (JDownloader Add-on)
    Von neutron im Forum Andere 3rd Party Anwendungen
    Antworten: 24
    Letzter Beitrag: 09.01.2017, 23:20

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •