Btrfs volume am PC auslesen

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
DSM 6.2.3-25426 Update 3

vorher hatte ich mint 19, die jetzige Version ist 20, also was man gerade als neustes laden kann. Den Stick habe ich gestern neu erstellt, die beiden alten ubuntu und mint waren nicht persistent, der neue mint 20 Ulyana (~ ubuntu 20)



Code:
mint@mint:~$ sudo -i
root@mint:~# ls /dev/v*
/dev/vcs   /dev/vcs5   /dev/vcsa2  /dev/vcsa7  /dev/vcsu4        /dev/vhci
/dev/vcs1  /dev/vcs6   /dev/vcsa3  /dev/vcsu   /dev/vcsu5        /dev/vhost-net
/dev/vcs2  /dev/vcs7   /dev/vcsa4  /dev/vcsu1  /dev/vcsu6        /dev/vhost-vsock
/dev/vcs3  /dev/vcsa   /dev/vcsa5  /dev/vcsu2  /dev/vcsu7        /dev/video0
/dev/vcs4  /dev/vcsa1  /dev/vcsa6  /dev/vcsu3  /dev/vga_arbiter  /dev/video1

/dev/v4l:
by-id  by-path

/dev/vfio:
vfio

/dev/vg1000:
lv
root@mint:~# mount /dev/vg1000/lv /mnt -o ro
mount: /mnt: wrong fs type, bad option, bad superblock on /dev/mapper/vg1000-lv, missing codepage or helper program, or other error.
root@mint:~#

also ja, vg1000/lv ist nicht grundsätzlich falsch, scheint zu existieren, nur ergibt es den Fehler

Das ist mit beiden der HD aus der 218+
Alles bei der DS218+ ist auf standard , keine speziellen Sachen.
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Nun habe ich die gleichen Versuche mit zwei Platten aus einer 216+, auch hier ist DSM aktuell
Wieder mit dem Mint (ubuntu) 20. Persistent, also sind alle Sachen installeirt, die btrfs Tools auch.
dem neuen Adapter für 2 Platten.

zuerst versucht mit nur der Platte1

Code:
mint@mint:~$ sudo -i
root@mint:~# mdadm -Asf && vgchange -ay
mdadm: No arrays found in config file or automatically
root@mint:~# ls /dev/v*
/dev/vcs   /dev/vcs6   /dev/vcsa4  /dev/vcsu2  /dev/vga_arbiter
/dev/vcs1  /dev/vcs7   /dev/vcsa5  /dev/vcsu3  /dev/vhci
/dev/vcs2  /dev/vcsa   /dev/vcsa6  /dev/vcsu4  /dev/vhost-net
/dev/vcs3  /dev/vcsa1  /dev/vcsa7  /dev/vcsu5  /dev/vhost-vsock
/dev/vcs4  /dev/vcsa2  /dev/vcsu   /dev/vcsu6  /dev/video0
/dev/vcs5  /dev/vcsa3  /dev/vcsu1  /dev/vcsu7  /dev/video1

/dev/v4l:
by-id  by-path

/dev/vfio:
vfio

/dev/vg1000:
lv
root@mint:~# mount /dev/vg1000/lv /mnt -o ro
mount: /mnt: can't read superblock on /dev/mapper/vg1000-lv.
root@mint:~#


dann alles nochmals mit beiden Platten aus der 216+

Code:
mint@mint:~$ sudo -i
root@mint:~# mdadm -Asf && vgchange -ay
mdadm: Merging with already-assembled /dev/md/DiskStation:2_0
mdadm: failed to add /dev/sdf5 to /dev/md/DiskStation:2_0: Device or resource busy
mdadm: /dev/md/DiskStation:2_0 has been started with 1 drive (out of 2).
mdadm: Found some drive for an array that is already active: /dev/md/DiskStation:2_0
mdadm: giving up.
  WARNING: PV /dev/md126 in VG vg1000 is using an old PV header, modify the VG to update.
  device-mapper: create ioctl on vg1000-lv LVM-afm69ZySSBZcjsrmeJ4fegWNeLwqVnUTzBY0RKz33LgJQYcLsCcfTChXJcsBtfDF failed: Device or resource busy
  0 logical volume(s) in volume group "vg1000" now active
root@mint:~# ls /dev/v*
/dev/vcs   /dev/vcs3  /dev/vcs6  /dev/vcsa1  /dev/vcsa4  /dev/vcsa7  /dev/vcsu2  /dev/vcsu5  /dev/vga_arbiter  /dev/vhost-vsock
/dev/vcs1  /dev/vcs4  /dev/vcs7  /dev/vcsa2  /dev/vcsa5  /dev/vcsu   /dev/vcsu3  /dev/vcsu6  /dev/vhci         /dev/video0
/dev/vcs2  /dev/vcs5  /dev/vcsa  /dev/vcsa3  /dev/vcsa6  /dev/vcsu1  /dev/vcsu4  /dev/vcsu7  /dev/vhost-net    /dev/video1

/dev/v4l:
by-id  by-path

/dev/vfio:
vfio

/dev/vg1000:
lv
root@mint:~# mount /dev/vg1000/lv /mnt -o ro
mount: /mnt: can't read superblock on /dev/mapper/vg1000-lv.
root@mint:~#

verhalten leicht anders also bei der 216+, aber mounten geht auch hier nicht
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Vielleicht noch ein Detail:

mit gparted Platten angeschaut

Die Platten der 216+ sind beide 2T Platten.

sie erscheinen als /dev/sdf5 und /dev/sdg5, natürlich mit all der Partitionen drin

dazu erscheint ein dev/md126, mount point vg1000, file sys: lvm pv
das stellt vermutlich den Raid dar
 

gizmo21

Benutzer
Mitglied seit
16. Jul 2012
Beiträge
120
Punkte für Reaktionen
17
Punkte
18
Jetzt fällt mir tatsächlich auch nicht mehr viel ein, ausser anderer PC, Ubuntu 20 bootstick statt Mint (vielleicht ist es doch andere btrfs Tools Version?) und ein Ticket bei Synology mit Hinweis auf diesen Thread.

Vielleicht probiere ich es auch mal mit mint 20 stick.
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
btrfs tools sind gleich, Repos sind bei Mint und Ubuntu gleich.

Ich habe es versucht vorher mit ubuntu 19 und auch ubuntu?? auf welchem das Desinfekt von Heisse aufgebaut ist.
Das Beste was ich erreichen konnte war der Fehler mit dem Filesystem.

Momentan scheint es mir dass eine Disk gar nicht richtig erkannt wird, wenn ich beide Anschliesse, dann gibt es Anzeichen dass etwas erkannt wird.

***Geht es bei dir nur mit einer Disk? Oder wie genau schliesst du die Disk an?***


Gparted zeigt die Disk mehr oder weniger korrekt an denke ich.
Wenn beide Disk vorhanden sind, dann merkt System dass dies zusammengehört und es erscheint zusätzlich als ein raid.
Also Gparted zeigt die beiden Disk individuell, mit dev/sd... und allen Partitionen UND zusätzlich eine dritte Disk, den Raid.
Raid heisst md126 und mount point vg1000

Aber lesen kann man kein einziges Teil davon.
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Für Fehlersuche ein anderes PC genommen. aber auch normalen w10.

USB Adapter immer noch gleich
Platte 1 aus 218+ (DSM aktuell, SHR raid1)

Code:
mint@mint:~$ sudo -i
root@mint:~# mdadm -Asf && vgchange -ay
mdadm: No arrays found in config file or automatically
root@mint:~# ls /dev/v*
/dev/vcs   /dev/vcs3  /dev/vcs6  /dev/vcsa1  /dev/vcsa4  /dev/vcsa7  /dev/vcsu2  /dev/vcsu5  /dev/vga_arbiter  /dev/vhost-vsock
/dev/vcs1  /dev/vcs4  /dev/vcs7  /dev/vcsa2  /dev/vcsa5  /dev/vcsu   /dev/vcsu3  /dev/vcsu6  /dev/vhci
/dev/vcs2  /dev/vcs5  /dev/vcsa  /dev/vcsa3  /dev/vcsa6  /dev/vcsu1  /dev/vcsu4  /dev/vcsu7  /dev/vhost-net

/dev/vfio:
vfio

/dev/vg1000:
lv
root@mint:~# mount /dev/vg1000/lv /mnt -o ro
mount: /mnt: wrong fs type, bad option, bad superblock on /dev/mapper/vg1000-lv, missing codepage or helper program, or other error.
root@mint:~#
root@mint:~#

Screenshot at 2021-01-02 14-53-05.png
 

Anhänge

  • Screenshot at 2021-01-02 14-56-07.png
    Screenshot at 2021-01-02 14-56-07.png
    32,9 KB · Aufrufe: 6

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
mount /dev/vg1000/lv /media/bla -t btrfs
gib das dateisystem explizit an.
Falls es dann nicht funktioniert schau per dmesg in die logs or in /var/log/messages.

auch das mit -t btrfs hat keine Wirkung

dmesg ist eine grosse Datei. Nach was ganz genau muss man drin suchen?
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
was sagt das hier aus?

Code:
root@mint:~# lvdisplay
  WARNING: PV /dev/md127 in VG vg1000 is using an old PV header, modify the VG to update.
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                M6bTkJ-z58G-xDNR-rfup-75W0-1te3-0zfq2r
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                3.63 TiB
  Current LE             952682
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
  
root@mint:~#
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Jetzt noch ein Unterordner angelegt und dort versucht, es macht keinen Unterschied

Code:
root@mint:~# mkdir /mnt/synotest
root@mint:~# mount /dev/vg1000/lv /mnt/synotest -t btrfs
mount: /mnt/synotest: wrong fs type, bad option, bad superblock on /dev/mapper/vg1000-lv, missing codepage or helper program, or other error.


was sagt mir das hier?
Code:
root@mint:~# cat /proc/mdstat
Personalities : [raid1]
md127 : active (auto-read-only) raid1 sdc5[0]
      3902187456 blocks super 1.2 [2/1] [U_]
 
Zuletzt bearbeitet:

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.324
Punkte für Reaktionen
2.872
Punkte
423

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
ja so ähnlich

es ist eine Platte aus einem SHR(raid1) von einer 218+


wie kann man irgendwie die 'Qualität' des Filesystems testen?
Bei allen Test bekomme ich immer noch Fehlermeldung wegen Filesystem.

Da ich ein neuen Linux Stick habe, bin ich in der Lage nach und nach alles zu testen, aber Ziel nicht ansatzweise in Sicht.


Kann man aus dem lvdisplay in #68 etwas auslesen?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.324
Punkte für Reaktionen
2.872
Punkte
423
Sorry, bin da nicht so der der Freak, vor allem, wenn da auch noch Logical Volumes mit ins Spiel kommen. Aber du bist das bald ;)
Hast du mal versucht, einfach /dev/md127 zu mounten?
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
da passiert etwas das:

Code:
mint@mint:~$ sudo -i
root@mint:~# mdadm -Asf && vgchange -ay
mdadm: No arrays found in config file or automatically
root@mint:~# mount /dev/md127 /mnt -o ro
mount: /mnt: unknown filesystem type 'LVM2_member'.
root@mint:~#

also kann das ev gar nicht so einfach gemounted werden


und nein, auch sdc5 kann so nicht gemounted werden
Code:
root@mint:~# mount /dev/sdc5 /mnt/synotest -o ro
mount: /mnt/synotest: unknown filesystem type 'linux_raid_member'.
root@mint:~#
 

tproko

Benutzer
Sehr erfahren
Mitglied seit
11. Jun 2017
Beiträge
2.101
Punkte für Reaktionen
253
Punkte
129
Mach mal

dmesg -T
Dann den bisherigen Mountbefehl mit Wrong fs type etc.
Dann nochmal neu dmesg -T

Dann siehst du lesbare Zeiten.

Meine Vermutung ist, dass da im dmesg dann was steht, warum btrfs nicht mountbar ist, ala root tree failure etc.

Dann versuch mal die Pfade die bisher schon verwendet wurde (dev/vg1000/lv)
mit folgendem Mount Befehl als Root:
mount -vs -t btrfs -o ro,recovery,errors=continue
 

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
also Teil 1, das mit dem dmesg -T ergibt schon etwas Zeilen mmit btrfs peoblemen

Code:
Sat Jan  2 14:46:28 2021] BTRFS: device label 2020.12.12-15:58:57 v25426 devid 1 transid 596 /dev/dm-0
[Sat Jan  2 14:47:37 2021] JFS: nTxBlock = 8192, nTxLock = 65536
[Sat Jan  2 14:47:37 2021] SGI XFS with ACLs, security attributes, realtime, no debug enabled
[Sat Jan  2 15:01:10 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:01:10 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:01:10 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:01:10 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:01:10 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:01:10 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:01:10 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:01:10 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:21:08 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:21:08 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:21:08 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:21:08 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:21:08 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:21:08 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:21:08 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:21:08 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:22:13 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:22:13 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:22:13 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:22:13 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:22:13 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:22:13 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:22:13 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:22:13 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:25:01 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:25:01 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:25:01 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:25:01 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:25:01 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:25:01 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:25:01 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:25:01 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:26:55 2021] BTRFS info (device dm-0): unrecognized mount option 'no_block_group'
[Sat Jan  2 15:26:55 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:42:13 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:42:13 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:42:13 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:42:13 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:42:13 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:42:13 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:42:13 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:42:13 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 15:47:38 2021] BTRFS info (device dm-0): using free space tree
[Sat Jan  2 15:47:38 2021] BTRFS info (device dm-0): has skinny extents
[Sat Jan  2 15:47:38 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:47:38 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:47:38 2021] BTRFS critical (device dm-0): corrupt leaf: root=1 block=54808051712 slot=26, invalid root flags, have 0x200000000 expect mask 0x1000000000001
[Sat Jan  2 15:47:38 2021] BTRFS error (device dm-0): block=54808051712 read time tree block corruption detected
[Sat Jan  2 15:47:38 2021] BTRFS warning (device dm-0): failed to read tree root
[Sat Jan  2 15:47:38 2021] BTRFS error (device dm-0): open_ctree failed
[Sat Jan  2 18:42:16 2021] nouveau 0000:01:00.0: Enabling HDA controller
[Sat Jan  2 18:42:22 2021] ACPI: \_SB_.PCI0.PEGP.DGFX: failed to evaluate _DSM
[Sat Jan  2 18:48:11 2021] nouveau 0000:01:00.0: Enabling HDA controller
[Sat Jan  2 18:48:18 2021] ACPI: \_SB_.PCI0.PEGP.DGFX: failed to evaluate _DSM
[Sat Jan  2 18:51:45 2021] wlo1: disassociated from e6:55:2d:67:fe:58 (Reason: 2=PREV_AUTH_NOT_VALID)
[Sat Jan  2 18:51:48 2021] wlo1: authenticate with e6:55:3d:67:fe:58
[Sat Jan  2 18:51:48 2021] wlo1: send auth to e6:55:3d:67:fe:58 (try 1/3)
[Sat Jan  2 18:51:48 2021] wlo1: authenticated
[Sat Jan  2 18:51:48 2021] wlo1: waiting for beacon from e6:55:3d:67:fe:58
[Sat Jan  2 18:51:48 2021] wlo1: associate with e6:55:3d:67:fe:58 (try 1/3)
[Sat Jan  2 18:51:48 2021] wlo1: RX AssocResp from e6:55:3d:67:fe:58 (capab=0x431 status=0 aid=1)
[Sat Jan  2 18:51:48 2021] wlo1: associated
[Sat Jan  2 19:11:02 2021] nouveau 0000:01:00.0: Enabling HDA controller
[Sat Jan  2 19:11:08 2021] ACPI: \_SB_.PCI0.PEGP.DGFX: failed to evaluate _DSM
root@mint:~#

der zweite Teil, also den mount irgendwie wohl zu erzwingen klappt nach wie vor nicht
Code:
root@mint:~# mount /dev/vg1000/lv /mnt -vs -t btrfs -o ro,errors=continue
mount: /mnt: wrong fs type, bad option, bad superblock on /dev/mapper/vg1000-lv, missing codepage or helper program, or other error.
root@mint:~#

und schreibt in log:

Code:
[Sat Jan  2 20:51:07 2021] BTRFS info (device dm-0): unrecognized mount option 'errors=continue'
[Sat Jan  2 20:51:07 2021] BTRFS error (device dm-0): open_ctree failed
 
Zuletzt bearbeitet:

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Ob das Sinn macht weiss ich nicht, aber nochmals: ich habe insgesamt 4 Platten, also 2 SHR Paare, eines aus 218+ und eines aus 216+
Beide DS haben aktuelle Version von DSM.
Installation so weit 'automatisch', also eine Grundinstallation mit -weiter -weiter etc. Danach einige Ordner und User angelegt, Hyperbackup, USB Copy und sonst kaum was nachinstalliert.

Die Disk funktionieren in der jeweiligen DS auch völlig normal, dort gibt es keine Probleme. Auch die Disk selber haben keine defekte Sectoren oder so was.
 
Zuletzt bearbeitet:

tproko

Benutzer
Sehr erfahren
Mitglied seit
11. Jun 2017
Beiträge
2.101
Punkte für Reaktionen
253
Punkte
129
Hi, dein Setup versteh ich. Und mit je einer der jeweils shr1 (raid1) Platten sollte das Restore möglich sein...

Das Problem liegt wohl am open_ctree failed. Potentiell verwendet da Syno so alte Versionen, dass es da bei neuen Linux Distributionen Probleme gibt. Man kann btfrs natürlich korrigieren und Fehleranalyse machen. Aber das würde ich nur angehen, wenn es sein muss. Potentiell bricht das dann das shr Raid.
 
Zuletzt bearbeitet:

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Nun, das Projekt hier hat zum Ziel eine Anleitung zu machen die auch funktioniert. Merkwürdig ist, dass einige Leute es genau nach der Synology Anleitung machen und es geht. Die Anleitung soll zu Datenrettung sein, also Ziel ist Daten ab kopieren.
Für mich tönt es jetzt so, dass Synology die Disk mit einem btrfs formatiert welches mit normalen Mitteln nicht kompatibel ist.

Ich werde ev in den nächsten Tagen noch ein älteres Linux suchen und mir einen weiteren Stick bauen um zu testen.

Hier weiss ich nicht was jetzt wirklich Grund für Fehler ist. Vor allem irritiert mich, dass es bei einigen wenigen Kollegen hier angeblich funktioniert.
 
  • Like
Reaktionen: tproko

ottosykora

Benutzer
Mitglied seit
17. Apr 2013
Beiträge
8.314
Punkte für Reaktionen
922
Punkte
268
Reparatur kann ich angehen, die Platten sind nur zum üben da
 

tproko

Benutzer
Sehr erfahren
Mitglied seit
11. Jun 2017
Beiträge
2.101
Punkte für Reaktionen
253
Punkte
129
Die Anleitung soll zu Datenrettung sein, also Ziel ist Daten ab kopieren.

+1

Schade nur, dass es nicht klappt out of the Box. Wenn ich das Lese, wäre mir damals ext4 doch lieber gewesen als btrfs. Außer der selbstheilung hat es für mich keine wirklichen Vorteile - benötige die Versionierung nicht.

Und wenn dann das Restore auch zickt bei frisch aufgesetztem DSM...
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat