Vermutlich die 1000. Frage wegen Ruhezustand

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Hallo,

ich habe eine Frage/Problem mit dem Ruhezustand. Ich hab auch schon ein wenig durchs Internet und das Forum hier geguckt aber noch keine Lösung für mich selber gefunden.

NAS: DS920+
HDDs: 2x 6TB WD + 2x 4TB Seagate (Alles CMR) (Volume2)
2 NVMe SSDs - diese allerdings nicht mehr als Cache sondern als weiteres Volume (Volume1) eingebunden für Apps, Docker etc.

ich habe auch mal mit dem Befehl beide Volumes "überorüft"
find /volume1 -cmin -5

Bei Volume 1 (NVMe SSDs) kommt - wie erwartet Docker - bei Volume 2 (HDDs) kommt nichts, also dürfte da in den letzten 5 Minuten nichts gelaufen haben.

Dennoch gehen die HDDs nicht auf Standby (10 Minuten eingestellt) und laufen durch.

Kann es sein, das die Platten auch dann nicht in Standby gehen wenn die SSDs genutzt werden?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Du vergisst, dass der DSM immer als Raid1 über alle Platten liegt, unabhängig von der Aufteilung deiner Datenpartitionen.
Wenn also der DSM selbst etwas schreibt (Logs z.B.) laufen auch die Platten bzw. gehen nicht schlafen.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Aber ich habe doch zwei Datenpools, einmal die 4 Platten und einmal die 2 SSDs - die sind doch komplett von einander getrennt?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Eben nicht ganz. Der DSM (und auch der Swap-Bereich) liegt unabhängig davon als Raid1 über allen.

Schau dir mal die Ausgabe von "cat /proc/mdstat" an. Die liefert (bei mir) z.B.
Code:
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md3 : active raid1 sdd3[0]
      112398784 blocks super 1.2 [1/1] [U]

md2 : active raid5 sda3[0] sdc3[2] sdb3[1]
      11711400832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md1 : active raid1 sda2[0] sdd2[3] sdc2[2] sdb2[1]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      2490176 blocks [4/4] [UUUU]

unused devices: <none>
md0 ist der DSM, md1 der Swap, md2 ein Raid5 aus 3 Platten, md3 eine einzelne SSD als Basis.

Du müsstest da mit deinem find viel tiefer ansetzen. Probier mal z.B.
Code:
find / -cmin -5 -not -path "/proc/*" -not -path "/sys/*"
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Einmal meine Volumes:

Code:
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md4 : active raid5 sata1p5[0] sata4p5[3] sata3p5[2] sata2p5[1]
      11706562368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md2 : active raid1 sata3p6[0] sata4p6[1]
      1953494912 blocks super 1.2 [2/2] [UU]

md3 : active raid1 nvme0n1p3[0] nvme1n1p3[1]
      229708864 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata4p2[3] sata3p2[2] sata2p2[1]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sata1p1[0] sata4p1[3] sata3p1[2] sata2p1[1]
      2490176 blocks [4/4] [UUUU]


Und die Ausgabe vom Befehl:

Code:
/var/log/auth.log
/var/log/bash_history.log
/run
/run/systempwarning
/run/sudo/ts/sirana
/run/docker/runtime-runc/moby/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba
/run/docker/runtime-runc/moby/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a
/run/docker/containerd/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba
/run/docker/containerd/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a
/run/docker/containerd/daemon/io.containerd.runtime.v2.task/moby/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba
/run/docker/containerd/daemon/io.containerd.runtime.v2.task/moby/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a
/run/hwmon
/run/hwmon/sys_current_sensor.json
/run/hwmon/hdd_backplane_status.json
/run/hwmon/cpu_temperature.json
/run/mib_disklatency/syno-disk-latency-anchor-sata4
/run/mib_disklatency/syno-disk-latency-anchor-sata3
/run/mib_disklatency/syno-disk-latency-anchor-sata2
/run/mib_disklatency/syno-disk-latency-anchor-sata1
/run/ActiveInsight
/run/ActiveInsight/.mib_upload_success.metrics
/run/ActiveInsight/.mib_collect_success.metrics
/run/ActiveInsight/.mib_collect_success.status
/run/ActiveInsight/.mib_upload_success.status
/run/ActiveInsight/prom_data/wal/00000004
/run/blkid
/run/blkid/blkid.tab
/run/blkid/blkid.tab.old
/run/samba/msg.sock
/run/samba/msg.lock
/run/synostorage/disks/sata2
/run/synostorage/disks/sata2/temperature
/run/synostorage/disks/sata4
/run/synostorage/disks/sata4/temperature
/run/synostorage/disks/sata3
/run/synostorage/disks/sata3/temperature
/run/synostorage/disks/sata1
/run/synostorage/disks/sata1/temperature
/run/synostorage/disks/nvme0n1
/run/synostorage/disks/nvme0n1/temperature
/run/synostorage/disks/nvme1n1
/run/synostorage/disks/nvme1n1/temperature
/run/synosdk/lock/lock_scemd_connector
/run/lock/synoccc
/run/lock/vspace_layer.lock
/run/log/journal/cff0d799c6e7456281a08507f3719aac
/run/log/journal/cff0d799c6e7456281a08507f3719aac/system.journal
/run/log/journal/cff0d799c6e7456281a08507f3719aac/system@44f7cb65260e4034b4d08fcb14f06c45-00000000010a5c06-0005d36a33dd7ead.journal
/config/target
/config/target/vhost
/config/target/vhost/throttle_interval_msec
/config/target/vhost/version
/config/target/loopback
/config/target/loopback/version
/config/target/iscsi
/config/target/iscsi/discovery_auth
/config/target/iscsi/discovery_auth/enforce_discovery_auth
/config/target/iscsi/discovery_auth/password_mutual
/config/target/iscsi/discovery_auth/userid_mutual
/config/target/iscsi/discovery_auth/authenticate_target
/config/target/iscsi/discovery_auth/password
/config/target/iscsi/discovery_auth/userid
/config/target/iscsi/global_np_enable
/config/target/iscsi/lio_version
/config/target/core/epio_0
/config/target/core/epio_0/odx_info
/config/target/core/epio_0/odx_mode
/config/target/core/epio_0/hba_mode
/config/target/core/epio_0/hba_info
/config/target/core/epio_1
/config/target/core/epio_1/odx_info
/config/target/core/epio_1/odx_mode
/config/target/core/epio_1/hba_mode
/config/target/core/epio_1/hba_info
/config/target/core/multifile_0
/config/target/core/multifile_0/odx_info
/config/target/core/multifile_0/odx_mode
/config/target/core/multifile_0/hba_mode
/config/target/core/multifile_0/hba_info
/config/target/core/fileio_0
/config/target/core/fileio_0/odx_info
/config/target/core/fileio_0/odx_mode
/config/target/core/fileio_0/hba_mode
/config/target/core/fileio_0/hba_info
/config/target/core/iblock_0
/config/target/core/iblock_0/odx_info
/config/target/core/iblock_0/odx_mode
/config/target/core/iblock_0/hba_mode
/config/target/core/iblock_0/hba_info
/config/target/core/alua/lu_gps/default_lu_gp
/config/target/core/alua/lu_gps/default_lu_gp/members
/config/target/core/alua/lu_gps/default_lu_gp/lu_gp_id
/config/target/lio_event
/config/target/io_delay_per_io
/config/target/io_delay_msec
/config/target/dbroot
/config/target/version
/config/vsys
/config/vsys/help
/config/pool
/config/pool/preread_control
/config/pool/ext_jnl_cache_cnt
/config/pool/ext_jnl_suspend
/config/pool/ext_jnl_enable
/config/pool/ext_jnl_path
/config/pool/cache_info
/config/pool/help
/config/rodsys
/config/rodsys/throttle_interval_msec
/config/rodsys/local_key
/config/rodsys/help
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a/hostconfig.json
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a/config.v2.json
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba/hostconfig.json
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba/config.v2.json
/volume1/@appdata/Docker/docker/btrfs/subvolumes/78d322905ac6991b290c0e06521cf7b4a5e9107b825339f3e6fb20c9647a0876/tmp/hsperfdata_root/18
/volume1/@appdata/Docker/docker/btrfs/subvolumes/fc9001cf1b6f38df25ad7cea5d9726725b7e0e1ee340085ad2fba46c2f1a11fc/var/log/pihole.log
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/journal/WiredTigerLog.0000000002
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/WiredTiger.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/sizeStorer.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data/metrics.2021-12-17T08-03-03Z-00000
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data/metrics.interim
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-327-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-328-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-174-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-175-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/WiredTiger.turtle
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/log/remote/192.168.250.137_7483c2338862.log
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/log/remote/192.168.250.163_f492bf20f2ab.log
/volume1/docker/pihole/pihole-configs
/volume1/docker/pihole/pihole-configs/pihole-FTL.db
/volume1/docker/sonarr/sonarr.db-wal
/volume1/docker/sonarr/sonarr.db-shm
/tmp
/tmp/ccc.stated.data
/tmp/ccc.stated.index
/tmp/enumlist_det
/tmp/iscsi/lun_notify/volume1
/tmp/iscsi/lun_notify/volume2
/tmp/dhcpcd-ovs_eth0.pid


Also seh ich das richtig das ich trotz das ich alles "aktive" an Programmen (tvheadend, emby, docker) auf die beiden SSDs geschoben habe keine möglichkeit habe die Platten in den Ruhezustand zu bekommen?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Das kommt halt drauf an. Alles was auf Platte liegt muss man halt ruhig bekommen. Schau dir mal "df -h" an
Code:
Filesystem              Size  Used Avail Use% Mounted on
/dev/md0                2.3G  1.4G  862M  62% /
devtmpfs                3.9G     0  3.9G   0% /dev
tmpfs                   3.9G  244K  3.9G   1% /dev/shm
tmpfs                   3.9G   33M  3.9G   1% /run
tmpfs                   3.9G     0  3.9G   0% /sys/fs/cgroup
tmpfs                   3.9G  2.5M  3.9G   1% /tmp
/dev/mapper/cachedev_0  103G   48G   56G  47% /volume2
/dev/mapper/cachedev_1   11T  4.9T  6.0T  45% /volume1
Das Filesystem beginnt bei /, es gibt aber auch Zweige, die auf RAM-Disk liegen (z.B. /tmp, /run), die könnte man der Suche auch noch ausnehmen. /volume1 in deinem Fall ebenso.
Unsicher bin ich mir beim /config-Zweig. Keine Ahnung, was das ist, ob es RAM oder Platte ist, und wieso da soviel lebt. Bei mir lebt da auch viel, aber meine Platten schlafen.

Code:
 find / -cmin -5 -not -path "/proc/*" -not -path "/sys/*" -not -path "/run/*" -not -path "/tmp/*"
Forsch mal ein wenig weiter und verfeinere deinen find-Befehl.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Unten anbei einmal beide auflistungen.

bin mir eben nicht sicher ob die Docker sachen die auf /volume1/ sind (nur die SSDs) ob diese eben den ruhezustand der platten verursachen können

Code:
Filesystem              Size  Used Avail Use% Mounted on
/dev/md0                2.3G  1.3G  946M  58% /
devtmpfs                3.8G     0  3.8G   0% /dev
tmpfs                   3.9G  236K  3.9G   1% /dev/shm
tmpfs                   3.9G   23M  3.8G   1% /run
tmpfs                   3.9G     0  3.9G   0% /sys/fs/cgroup
tmpfs                   3.9G  2.7M  3.9G   1% /tmp
/dev/mapper/cachedev_1  211G  5.3G  206G   3% /volume1
/dev/mapper/cachedev_0   13T  8.4T  3.9T  69% /volume2
tmpfs                   1.0T     0  1.0T   0% /dev/virtualization
Code:
/var/log/auth.log
/var/log/bash_history.log
/run
/config/target
/config/target/vhost
/config/target/vhost/throttle_interval_msec
/config/target/vhost/version
/config/target/loopback
/config/target/loopback/version
/config/target/iscsi
/config/target/iscsi/discovery_auth
/config/target/iscsi/discovery_auth/enforce_discovery_auth
/config/target/iscsi/discovery_auth/password_mutual
/config/target/iscsi/discovery_auth/userid_mutual
/config/target/iscsi/discovery_auth/authenticate_target
/config/target/iscsi/discovery_auth/password
/config/target/iscsi/discovery_auth/userid
/config/target/iscsi/global_np_enable
/config/target/iscsi/lio_version
/config/target/core/epio_0
/config/target/core/epio_0/odx_info
/config/target/core/epio_0/odx_mode
/config/target/core/epio_0/hba_mode
/config/target/core/epio_0/hba_info
/config/target/core/epio_1
/config/target/core/epio_1/odx_info
/config/target/core/epio_1/odx_mode
/config/target/core/epio_1/hba_mode
/config/target/core/epio_1/hba_info
/config/target/core/multifile_0
/config/target/core/multifile_0/odx_info
/config/target/core/multifile_0/odx_mode
/config/target/core/multifile_0/hba_mode
/config/target/core/multifile_0/hba_info
/config/target/core/fileio_0
/config/target/core/fileio_0/odx_info
/config/target/core/fileio_0/odx_mode
/config/target/core/fileio_0/hba_mode
/config/target/core/fileio_0/hba_info
/config/target/core/iblock_0
/config/target/core/iblock_0/odx_info
/config/target/core/iblock_0/odx_mode
/config/target/core/iblock_0/hba_mode
/config/target/core/iblock_0/hba_info
/config/target/core/alua/lu_gps/default_lu_gp
/config/target/core/alua/lu_gps/default_lu_gp/members
/config/target/core/alua/lu_gps/default_lu_gp/lu_gp_id
/config/target/lio_event
/config/target/io_delay_per_io
/config/target/io_delay_msec
/config/target/dbroot
/config/target/version
/config/vsys
/config/vsys/help
/config/pool
/config/pool/preread_control
/config/pool/ext_jnl_cache_cnt
/config/pool/ext_jnl_suspend
/config/pool/ext_jnl_enable
/config/pool/ext_jnl_path
/config/pool/cache_info
/config/pool/help
/config/rodsys
/config/rodsys/throttle_interval_msec
/config/rodsys/local_key
/config/rodsys/help
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a/hostconfig.json
/volume1/@appdata/Docker/docker/containers/2d33dbd43ee26ad76f703ee4c340f5f34e85d88a64fe4e3dcf89842c8970e70a/config.v2.json
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba/hostconfig.json
/volume1/@appdata/Docker/docker/containers/ca773e72bcc83b92c60773c9aeb69d22743eca3c37560715be65820118b745ba/config.v2.json
/volume1/@appdata/Docker/docker/btrfs/subvolumes/78d322905ac6991b290c0e06521cf7b4a5e9107b825339f3e6fb20c9647a0876/tmp/hsperfdata_root/18
/volume1/@appdata/Docker/docker/btrfs/subvolumes/fc9001cf1b6f38df25ad7cea5d9726725b7e0e1ee340085ad2fba46c2f1a11fc/etc/.pihole/.git
/volume1/@appdata/Docker/docker/btrfs/subvolumes/fc9001cf1b6f38df25ad7cea5d9726725b7e0e1ee340085ad2fba46c2f1a11fc/var/log/pihole.log
/volume1/@appdata/Docker/docker/btrfs/subvolumes/fc9001cf1b6f38df25ad7cea5d9726725b7e0e1ee340085ad2fba46c2f1a11fc/var/www/html/admin/.git
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/journal/WiredTigerLog.0000000002
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/WiredTiger.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/sizeStorer.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data/metrics.2021-12-17T08-03-03Z-00000
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/diagnostic.data/metrics.interim
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-303-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-304-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-315-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-323-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-324-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-327-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-328-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/collection-333-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-334-5175733824248359249.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-93-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-94-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-95-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-96-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-97-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-148-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-155-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-169-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-174-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-175-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-186-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-187-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-211-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/index-212-8243478459970243041.wt
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/data/db/WiredTiger.turtle
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/log/remote/192.168.250.137_7483c2338862.log
/volume1/@appdata/Docker/docker/volumes/e93f0c10e465f3eb36c99deda21bb9f2d590c2578cb70f1aa1721e837073308f/_data/log/remote/192.168.250.163_f492bf20f2ab.log
/volume1/docker/pihole/pihole-configs
/volume1/docker/pihole/pihole-configs/localbranches
/volume1/docker/pihole/pihole-configs/localversions
/volume1/docker/pihole/pihole-configs/pihole-FTL.db
/volume1/docker/pihole/pihole-configs/dhcp.leases
/volume1/docker/sonarr/sonarr.db-wal
/volume1/docker/sonarr/sonarr.db-shm
/tmp
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Also mir fällt da jetzt nichts weiter auf. Ob es an Docker liegt, kannst du ja leicht feststellen, indem du die Container mal eine Zeit lang stoppst.
Docker allein stört den Ruhezustand nicht. Ich hab Docker auch ständig aktiv, aber keine Container.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Okay, hab mal alle Docker Container gestoppt, mal sehen ob in 15-20min die Platten in Ruhezustand gehen :)
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Mich wundert, dass bei deinen Ausgaben ständig /var/log/auth.log mit dabei ist. Meldest du dich ständig an und ab? Wenn nicht, schau mal rein.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Platten gingen leider nicht in Standby.
Anscheinend logge ich mich deutlich öfter ein/aus als ich dachte ... aber das log passt - glaube da sind so viele einträge weil ich sudo nutze anstatt mich mit root einzuloggen, scheint jedes mal einen neuen eintrag zu geben.

Habe jetzt noch den ~20min noch einmal eine neue ausgabe geben lassen:

Code:
/var/log/auth.log
/var/log/synolog
/var/log/synolog/.SYNOCONNDB-wal
/var/log/synolog/.SYNOCONNDB-shm
/var/log/synolog/.SYNOACCOUNTDB
/var/log/messages
/var/log/bash_history.log
/var/tmp/.bash_history
/run
/dev/pts/0
/volume2/@database/synolog/.SMBXFERDB-wal
/volume2/@database/synolog/.SMBXFERDB-shm
/config/target
/config/target/vhost
/config/target/vhost/throttle_interval_msec
/config/target/vhost/version
/config/target/loopback
/config/target/loopback/version
/config/target/iscsi
/config/target/iscsi/discovery_auth
/config/target/iscsi/discovery_auth/enforce_discovery_auth
/config/target/iscsi/discovery_auth/password_mutual
/config/target/iscsi/discovery_auth/userid_mutual
/config/target/iscsi/discovery_auth/authenticate_target
/config/target/iscsi/discovery_auth/password
/config/target/iscsi/discovery_auth/userid
/config/target/iscsi/global_np_enable
/config/target/iscsi/lio_version
/config/target/core/epio_0
/config/target/core/epio_0/odx_info
/config/target/core/epio_0/odx_mode
/config/target/core/epio_0/hba_mode
/config/target/core/epio_0/hba_info
/config/target/core/epio_1
/config/target/core/epio_1/odx_info
/config/target/core/epio_1/odx_mode
/config/target/core/epio_1/hba_mode
/config/target/core/epio_1/hba_info
/config/target/core/multifile_0
/config/target/core/multifile_0/odx_info
/config/target/core/multifile_0/odx_mode
/config/target/core/multifile_0/hba_mode
/config/target/core/multifile_0/hba_info
/config/target/core/fileio_0
/config/target/core/fileio_0/odx_info
/config/target/core/fileio_0/odx_mode
/config/target/core/fileio_0/hba_mode
/config/target/core/fileio_0/hba_info
/config/target/core/iblock_0
/config/target/core/iblock_0/odx_info
/config/target/core/iblock_0/odx_mode
/config/target/core/iblock_0/hba_mode
/config/target/core/iblock_0/hba_info
/config/target/core/alua/lu_gps/default_lu_gp
/config/target/core/alua/lu_gps/default_lu_gp/members
/config/target/core/alua/lu_gps/default_lu_gp/lu_gp_id
/config/target/lio_event
/config/target/io_delay_per_io
/config/target/io_delay_msec
/config/target/dbroot
/config/target/version
/config/vsys
/config/vsys/help
/config/pool
/config/pool/preread_control
/config/pool/ext_jnl_cache_cnt
/config/pool/ext_jnl_suspend
/config/pool/ext_jnl_enable
/config/pool/ext_jnl_path
/config/pool/cache_info
/config/pool/help
/config/rodsys
/config/rodsys/throttle_interval_msec
/config/rodsys/local_key
/config/rodsys/help
/volume1/@appdata/tvheadend/tvheadend.log
/tmp


Was ich absolut nicht zuordnen kann ist das hier:
Code:
/volume2/@database/synolog/.SMBXFERDB-wal
/volume2/@database/synolog/.SMBXFERDB-shm
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Gewöhn dir an, dich als admin anzumelden und dann einmalig mit "sudo -i" auf root umzuschalten. Dann brauchst du kein sudo mehr.
synolog ist die syslog-DB von Synology. Kann schon sein, dass da bei jeder Anmeldung auch was geloggt wird, aber das sollte rausaltern.

Gehen deine Platten denn nie schlafen? Mein Lieblingsbefehl, um das zu prüfen, ist
Code:
cat /var/log/scemd.log | grep "The internal disks wake up"
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Den Befehl hatte ich gleich als erstes versucht, leider nicht einmal schlafen gegangen...

Habe jetzt noch zum testen TVHeadend abgeschaltet - falls das auch nichts bewirkt werd ich gleich mal das LAN Kabel ziehen
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
So... leider hat beides nichts gebracht.

Neuste Ausgabe (die letzten ~15min war die Syno komplett ohne LAN)

Code:
/etc
/etc/sysconfig/network-scripts
/etc/sysconfig/network-scripts/ifcfg-ovs_eth1
/etc/portforward
/etc/portforward/rule.conf
/etc/iproute2/config
/etc/iproute2/config/multi_table_config
/etc/iproute2/config/ovs_eth1-table-rule-v6
/etc/iproute2/config/ovs_eth1-table-rule
/etc/iproute2/config/gateway_v4_priority
/etc/iproute2/config/gateway_database
/etc/iproute2/config/resolv4.conf
/etc/iproute2/config/gateway_v6_priority
/etc/iproute2/rt_tables
/var/log/nginx/error_default.log
/var/log/synorelayd.log
/var/log/auth.log
/var/log/synoplugin.log
/var/log/kern.log
/var/log/samba/log.nmbd
/var/log/router.log
/var/log/rm.log
/var/log/systemd/ssdp.service.log
/var/log/systemd/nginx.service.log
/var/log/systemd/ssdp-conf-gen.service.log
/var/log/synolog
/var/log/synolog/.SYNOCONNDB-wal
/var/log/synolog/.SYNOCONNDB-shm
/var/log/synolog/.SYNOACCOUNTDB
/var/log/synolog/.SYNOSYSDB-shm
/var/log/synolog/.SYNOSYSDB-wal
/var/log/synosystemd.log
/var/log/systemd.log
/var/log/messages
/var/log/bash_history.log
/var/packages
/var/tmp/nginx/test/plugin_config/sites-enabled
/var/tmp/nginx/test/plugin_config/sites-enabled/synowstransfer-nginx.conf
/var/tmp/nginx/test/plugin_config/conf.d
/var/tmp/nginx/test/plugin_config/conf.d/dsm.ssdp.conf
/var/tmp/.bash_history
/run
/dev/pts/0
/dev/shm/nginx_mod
/volume2/@database/synolog
/volume2/@database/synolog/.SMBXFERDB
/volume2/@SynoFinder-log/fileindexd.log
/volume2/@SynoFinder-log/synoelasticd.log
/volume2/@SynoFinder-log/appindex.log
/config/target
/config/target/vhost
/config/target/vhost/throttle_interval_msec
/config/target/vhost/version
/config/target/loopback
/config/target/loopback/version
/config/target/iscsi
/config/target/iscsi/discovery_auth
/config/target/iscsi/discovery_auth/enforce_discovery_auth
/config/target/iscsi/discovery_auth/password_mutual
/config/target/iscsi/discovery_auth/userid_mutual
/config/target/iscsi/discovery_auth/authenticate_target
/config/target/iscsi/discovery_auth/password
/config/target/iscsi/discovery_auth/userid
/config/target/iscsi/global_np_enable
/config/target/iscsi/lio_version
/config/target/core/epio_0
/config/target/core/epio_0/odx_info
/config/target/core/epio_0/odx_mode
/config/target/core/epio_0/hba_mode
/config/target/core/epio_0/hba_info
/config/target/core/epio_1
/config/target/core/epio_1/odx_info
/config/target/core/epio_1/odx_mode
/config/target/core/epio_1/hba_mode
/config/target/core/epio_1/hba_info
/config/target/core/multifile_0
/config/target/core/multifile_0/odx_info
/config/target/core/multifile_0/odx_mode
/config/target/core/multifile_0/hba_mode
/config/target/core/multifile_0/hba_info
/config/target/core/fileio_0
/config/target/core/fileio_0/odx_info
/config/target/core/fileio_0/odx_mode
/config/target/core/fileio_0/hba_mode
/config/target/core/fileio_0/hba_info
/config/target/core/iblock_0
/config/target/core/iblock_0/odx_info
/config/target/core/iblock_0/odx_mode
/config/target/core/iblock_0/hba_mode
/config/target/core/iblock_0/hba_info
/config/target/core/alua/lu_gps/default_lu_gp
/config/target/core/alua/lu_gps/default_lu_gp/members
/config/target/core/alua/lu_gps/default_lu_gp/lu_gp_id
/config/target/lio_event
/config/target/io_delay_per_io
/config/target/io_delay_msec
/config/target/dbroot
/config/target/version
/config/vsys
/config/vsys/help
/config/pool
/config/pool/preread_control
/config/pool/ext_jnl_cache_cnt
/config/pool/ext_jnl_suspend
/config/pool/ext_jnl_enable
/config/pool/ext_jnl_path
/config/pool/cache_info
/config/pool/help
/config/rodsys
/config/rodsys/throttle_interval_msec
/config/rodsys/local_key
/config/rodsys/help
/usr/syno/etc/www
/usr/syno/etc/www/nginx_config.json
/usr/syno/etc/synorelayd
/usr/syno/etc/synorelayd/services.conf
/usr/syno/etc/synorelayd/env.conf
/usr/syno/etc/synorelayd/synorelayd.conf
/usr/syno/synoman
/usr/syno/synoman/ssdp
/usr/syno/synoman/ssdp/desc-DSM-ovs_eth1.xml
/usr/local/etc/nginx/sites-enabled
/usr/local/etc/nginx/sites-enabled/synowstransfer-nginx.conf
/usr/local/etc/nginx/sites-available
/usr/local/etc/nginx/sites-available/56d8c320-f3a3-4cfe-b7dc-a41e9882e71a.w3conf
/usr/local/etc/nginx/conf.d
/usr/local/etc/nginx/conf.d/dsm.ssdp.conf
/usr/local/etc/rc.d
/usr/local/packages/@appdata/SMBService/log/synowstransfer.log
/volume1/@appdata/Docker/log/synodockerwebapi.log
/volume1/@appdata/EmbyServer/logs/embyserver.txt
/volume1/@appdata/Virtualization/log/libvirt/libvirtd.log
/volume1/@appdata/Virtualization/log/etcd.log
/volume1/@appdata/Virtualization/log/synovmm.log
/volume1/@appdata/Virtualization/log/syno-etcd-logd.log
/volume1/@tmp/nginx/ready
/tmp
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Ich denke nicht, dass das jetzt viel bringt. Da ist mit der Wiederherstellung der LAN-Verbindung wohl sehr viel modifiziert worden.
Das einzige, was du jetzt mehr weißt, ist, dass der "Störenfried" wohl auf der DS selbst zu Hause ist.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Es scheint wohl der Emby Server zu sein, seitdem ich den aus geht der Ruhezustand.

Dann mal sehen ob ich emby so geregelt bekomme das es auchd en Ruhezustand zulässt.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.553
Punkte für Reaktionen
2.999
Punkte
423
Schön, dass du was gefunden hast. Ich kenne den Emby Server nicht, aber er wird halt wohl irgendwas auf Platte schreiben. Fragt sich halt nur was und wohin. Wenn es irgendwelche Log-Einstellungen gibt, reduzier mal Minimum.
 

sirana

Benutzer
Mitglied seit
28. Apr 2010
Beiträge
42
Punkte für Reaktionen
0
Punkte
6
Okay, Emby ist geregelt... allerdings verhindern diese beiden noch den Ruhezustand:
- TVHeadend
- Docker (Unifi, Sonarr, SABnzbd, Pihole, oscam - egal welcher von denen an ist, alle aus ist Ok)

Ich befürchte die greifen wieso auch immer auf die HDDs (Volume2) zu anstatt auf die SSDs (Volume1) - obwohl alles nur auf Volume1 installiert ist.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat 

 
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten. Dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit hohem technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive Werbung und bemühen uns um eine dezente Integration.

Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.

Du kannst uns auch über unseren Kaffeautomat einen Kaffe ausgeben oder ein PUR Abo abschließen und das Forum so werbefrei nutzen.

Vielen Dank für Deine Unterstützung!