Zugriff auf HDs mittels Linuxsystem

Status
Für weitere Antworten geschlossen.

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Hallo zusammen,

nach Umzug und Shutdown laesst sich meine 712+ mit DSM 6 nicht mehr starten. Die blaue LED blinkt, sicherheitshalber habe ich laengere Zeit das System laufen lassen *Konsistenzpruefung* Ohne Erfolg.

Um an meine Daten zu kommen dachte ich mir, ein Linux zu booten. Ich bin dabei nach
https://forum.synology.com/enu/viewtopic.php?t=51393
vorgegangen.

Es wird im File Manager neben Computer *USB Stick Partition* und Windows vom Laptop auch die Partition von der NAS *1.41.10-2228 angezeigt. Beim Klick auf diese erhalte ich diese Medung

Unable to access location
Error mounting /dev/dm-1 at /media/ubunutu/1.41.10.-2228: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.

Kann jemand weiterhelfen_ Mir geht es darum meine Daten zu kopieren, bevor ich einen Systemreset der NAS durchfuehre. Eine neue HD liegt auch bereits vor, fuer den Fall dass es vielleicht besser ist mit der neuen Platte die NAS neu einzurichten und dann eine der beiden alten hinzuzufuegen.

Sorry fuer Schreibweise, der Wechsel auf Qertz klappte nicht
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Wenn ich Schritt 11 ausfuehre, erhalte ich keine Meldung wie im Bild angezeigt, es kommt einfach wieder der prompt. Im File Manager bleibt die Fehlermeldung bestehen.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Nochmal neugestartet.
Bei Schritt 11 erhalte ich jetzt in der Konsolte mdadm: /dev/md/2 has been started with 1 drive. Im File Manager wird 1.41.10-3338 angezeigt. Bei Klick darauf erhalte ich die Fehlermeldung des Eingangsposts wieder.
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
Welche Fehlermeldung? wrong fs type?

Vielleicht fehlt im Live Medium die Unterstützung für btrfs?
Obwohl, kann ja nicht sein, da die 712+ ja eh kein btrfs unterstützt.

Vielleicht mal "cat /proc/mdstat" oder die Ansicht aus "Laufwerke"?
Vielleicht hat Ubuntu hier automatisch schon (fehlerhaft) versucht /dev/md127 zu mounten oder so.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Danke für die Antwort. Leider komme ich nicht immer so schnell zum Prüfen.

Die Fehlermeldung lautet:
Unable to access location
Error mounting /dev/dm-1 at /media/ubunutu/1.41.10.-2228: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.

Die beiden Ansichten, die Du sehen möchtest, werde ich hoffentlich heute abend posten können.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Hier nun der Screenshot, hilft er weiter?
"Laufwerke" habe ich nicht gefunden. Links oben die Fehlermeldung, links unten cat mdstat.
Screenshot from 2019-02-05 18-31-32.jpg
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
Windows Taste und dann "Lauf" oder "Disk" eintippen, dann sollte er die Laufwerksverwaltung eigentlich anzeigen/finden.

Wie vermutet hat hier die Automatik von Ubuntu zugeschlagen, md127.

Weiß leider gerade nicht mehr wie das genau war. Ob man md127 in der Laufwerkverwaltung anhalten und entfernen musste bevor man es korrekt aktivieren und einhängen konnte.
Oder ob man direkt /dev/md127 mounten konnte. Müsste ich jetzt auch erst wieder ausprobieren.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Hier aus der Lauffwerksverwaltung:

Screenshot from 2019-02-05 19-51-28.jpg

Beim untersten 2 TB Eintrag kann ich unter den Einstellungen Mount Options auswählen.

Screenshot from 2019-02-05 19-55-46.jpg
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
Ohne Lupe kann ich da nix lesen. Mount Optionen brauchst du glaube nicht.
Auf der fraglichen Platte sollten sich auch mindestens drei Partitionen befinden, alle RAID-1. Wir brauchen nur die größte, die Datenpartition davon. Die anderen sind DSM und Swap.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Leider bekomme ich keinen Ausschnitt des Bildes mit dem Livelinux hin.

Ich sehe im Diskmanager 4 Partitionen, die zur HD gehören. 3 werden mit 2 TB angegeben, eine mit 13MB
/dev/vg1/volume_1 EXT4 version 1, not mounted
/dev/md/DS712:2 LVM2 Physical Volume
Unter 2 TB Hard Disk, ATA Samsung HD204UI links im Menu ist dann rechts eine partinierte Festplatte angezeigt, 3 Partitionen und 2 freie Bereiche. Der größte Bereich hat 2 TB. Es steht dann dort:
/dev/sdc3
UUI mit Zahlen Buchstaben Kombi
Partition Type: Linux RAID auto (bei allen dreien steht dies)
Contens Linux RAID Member (version 1.2) (bei zweien steht version 0.90.0)

Sorry für die wirkliche DAU Schreibweise.

In der Konsole folgt auf cd /dev/sdc3

-bash cd: /dev/sdc3: Not a directory

root@ubuntu:~# cat /proc/mdstat
Personalities : [raid1]
md127 : active (auto-read-only) raid1 sdc3[0]
1948792256 blocks super 1.2 [1/1]

EDIT:
Wenn ich bei sdc3 die Zahnräder anklicke, kann ich bei Type u.a. diverse filesysteme auswählen, z.B. Linux RAID auot (0xfd) bis FAT32.
 
Zuletzt bearbeitet:

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
Kannst du denn /dev/md127 aktivieren oder mounten?

/dev/sdc3 ist ein Block device, die Linux raid Partition.
Scheint lesend aktiviert.
Ah, jetzt kommt ja noch der lvm obendrauf vom SHR.
Das dürfte das /dev/md/DS712:2 sein. Bekommst du das gemountet?
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Wie geht das nochmal?
Zu lange her, daß ich das in der Konsole gemacht habe (und dann zu selten genutzt)

EDIT:
Blöde Frage, aber die Platte habe ich als USB Laufwerk extern angehängt und beim Booten des Live Linux nicht eingeschaltet gehabt, könnte es helfen, sie beim Start eingeschaltet zu lassen?
Weil:
root@ubuntu:~# cat /etc/fstab
führt zu:
overlay / overlay rw 0 0
tmpfs /tmp tmpfs nosuid,nodev 0 0
 
Zuletzt bearbeitet:

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Hab mal das probiert:
root@ubuntu:~# sudo mkdir /media/newhd
root@ubuntu:~# sudo mount /dev/sdc3 /media/newhd
mount: /media/newhd: unknown filesystem type 'linux_raid_member'.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
Hab das gefunden:
https://blog.sleeplessbeastie.eu/2012/05/08/how-to-mount-software-raid1-member-using-mdadm/

root@ubuntu:~# sudo mdadm --examine /dev/sdc3
/dev/sdc3:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 03a27c85:e17fe908:389eae47:b58f831e
Name : DS712:2
Creation Time : Fri Aug 17 19:17:00 2012
Raid Level : raid1
Raid Devices : 1

Avail Dev Size : 3897584833 (1858.51 GiB 1995.56 GB)
Array Size : 1948792256 (1858.51 GiB 1995.56 GB)
Used Dev Size : 3897584512 (1858.51 GiB 1995.56 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=321 sectors
State : clean
Device UUID : 57331864:95b5570a:959e9f35:259430b4

Update Time : Sun Dec 30 13:59:43 2018
Checksum : a3bc1033 - correct
Events : 1539900


Device Role : Active device 0
Array State : A ('A' == active, '.' == missing, 'R' == replacing)
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
Sorry, sdc zu mounten war ne blöde Idee von mir. Hatte ich vergessen zu löschen.

Es gibt hier sozusagen 3 Ebenen.
Einmal die Festplatte (sdc in deinem Live System, in der NAS wären es sda und sdb, bei 2 Festplatten) die in verschiedene Partitionen unterteilt ist.
Der interessante Teil mit Daten ist die dritte Partition /dev/sdc3. Diese ist mit mdadm als Linux Raid Partition angelegt.
Die wurde auch automatisch erkannt und aktiviert als /dev/md127, ein RAID-1 mit nur einer vorhandenen Platte, read-only.
Bei SHR kommt jetzt zusätzlich noch der LVM zum Einsatz, der auf dem RAID die Volumen-Gruppen erzeugt und eventuell aus verschiedenen RAIDs zusammenbastelt.
Der dürfte auch schon aktiv gewesen sein bei deinen Versuchen mit den Befehlen aus der Syno Anleitung.
/dev/md/DS712:2 dürfte eine Hälfte/Bestandteil der Volume-Gruppe volume_1 sein.
Diese ist dann /dev/vg1/volume_1 sein und dies solltest du versuchen zu mounten/aktivieren, das hat auch schon das richtige Dateisystem EXT4 drauf.
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
/dev/md/DS712:2 wurde jetzt als /dev/md/2 im Diskmanager angezeigt.
Umgesetzt habe ich daher ersten beiden Zeilen von vorher:

root@ubuntu:~# mdadm -Asf && vgchange -ay
mdadm: /dev/md/2 has been started with 1 drive.
root@ubuntu:~# sudo mkdir /media/newhd
root@ubuntu:~# sudo mount /dev/md/2 /media/newhd
mount: /media/newhd: unbekannter Dateisystemtyp „LVM2_member“.
root@ubuntu:~# cd /media/newhd
root@ubuntu:/media/newhd# ls
root@ubuntu:/media/newhd# ls /media
apt cdrom newhd ubuntu
root@ubuntu:/media/newhd# ls newhd
ls: cannot access 'newhd': No such file or directory

Mounte ich falsch?
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
/dev/md/2 ist nur die RAID-Partition. Darauf befindet sich noch das Physical Volume (PV) von LVM2 (deshalb die Meldung LVM2_member).

Nachdem du "mdadm -Asf && vgchange -ay" hast laufen lassen.
Was spuckt dann "mount" aus?
Was spuckt "pvscan -v" aus?
Was spuckt "vgscan -v" aus?
Was spuckt "lvscan -v" aus?
 

Fraggle

Benutzer
Mitglied seit
15. Mrz 2009
Beiträge
493
Punkte für Reaktionen
6
Punkte
18
mdadm -Asf && vgchange -ay
ergibt>
mdadm: /dev/md/2 has been started with 1 drive.

root@ubuntu:~# sudo mkdir /media/newhd
root@ubuntu:~# sudo mount /dev/md/2 /media/newhd
mount: /media/newhd: unbekannter Dateisystemtyp „LVM2_member“.

root@ubuntu:~# pvscan -v
Wiping internal VG cache
Wiping cache of LVM-capable devices
PV /dev/md2 VG vg1 lvm2 [1,81 TiB / 512,00 MiB free]
Total: 1 [1,81 TiB] / in use: 1 [1,81 TiB] / in no VG: 0 [0 ]

root@ubuntu:~# vgscan -v
Wiping cache of LVM-capable devices
Wiping internal VG cache
Reading volume groups from cache.
Found volume group "vg1" using metadata type lvm2

root@ubuntu:~# lvscan -v

ACTIVE '/dev/vg1/syno_vg_reserved_area' [12,00 MiB] inherit
ACTIVE '/dev/vg1/volume_1' [1,81 TiB] inherit
 

Fusion

Benutzer
Sehr erfahren
Mitglied seit
06. Apr 2013
Beiträge
14.135
Punkte für Reaktionen
898
Punkte
424
ok, wenn ich jetzt nicht total neben mir stehe, dann sollte wie vor zwei Posts schon erwähnt, eigentlich
Code:
mount /dev/vg1/volume_1 /media/newhd
zum Ziel führen
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat