Viel zu wenig Speicher nach RAID-Erweiterung

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

FlorianReith

Benutzer
Registriert
04. Jan. 2012
Beiträge
13
Reaktionspunkte
0
Punkte
1
Hallo zusammen,


ich habe meine Synology DS1513+ bisher mit folgender Konfiguration betrieben:

1x 4TB, 3x 3TB SHR (ein Volume - 4 Platten)

Nun habe ich Stück für Stück die 3TB Platten durch 4TB Platten ersetzt UND eine fünfte Festplatte eingebaut. Also:
5x 4TB SHR (ein Volume - 5 Platten)


Dabei ist EINE Festplatte immer für die Fehlertoleranz.

Dieser Vorgang hat wunderbar funktioniert (auch wenn es Tage gedauert hat).

Nun zu meinem Problem:
EIGENTLICH sollte SHR das Raid folgendermaßen bilden:

5x4TB - 4TB PARITY = 20TB - 4TB = 16TB Kapazität

Problem: Die Gesamtkapazität beträgt gerade Mal 11,63TB

Mir ist ja bewusst, dass es einen gewissen Overhead gibt (Filesystem usw.) Aber der Overhead würde doch niemals 4-5TB betragen oder?

Screenshot:



Hat jemand eine ähnliche Konfiguration oder Erfahrung?

Vielen Dank

Florian
 
Was kommt denn, wenn du den Button "Verwalten" drückst?
 
Hallo,

ich kann lediglich eine Bereinigung starten (bereits durchgeführt)

 
Und wie sieht der Screen von "HDD-Verwaltung" aus?
Insgesamt sieht es ja so aus, als wären nur 4 Disks an deinem RAID beteiligt.
 
Auch hier scheint alles normal:



Mal etwas unter die Haube gegangen:

Rich (BBCode):
Zeus> lvdisplay
  --- Logical volume ---
  LV Name                /dev/vg1000/lv
  VG Name                vg1000
  LV UUID                GcN4nm-HDdZ-e272-HcLa-JXeM-69bt-vBWtkB
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                11.81 TB
  Current LE             3096558
  Segments               4
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     4096
  Block device           253:0


Rich (BBCode):
Zeus> vgdisplay
  --- Volume group ---
  VG Name               vg1000
  System ID
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  32
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               11.81 TB
  PE Size               4.00 MB
  Total PE              3096558
  Alloc PE / Size       3096558 / 11.81 TB
  Free  PE / Size       0 / 0
  VG UUID               enLs8X-3Ljy-mKPM-aBy3-aeHb-KX6Q-B4kHw2


Rich (BBCode):
Zeus> fdisk -l
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sda: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 267349 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1      267350  2147483647+ ee EFI GPT
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sdb: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 267349 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdb1               1      267350  2147483647+ ee EFI GPT
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sdc: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 267349 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdc1               1      267350  2147483647+ ee EFI GPT
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sde: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 267349 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sde1               1      267350  2147483647+ ee EFI GPT
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sdd: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 267349 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdd1               1      267350  2147483647+ ee EFI GPT

Disk /dev/synoboot: 128 MB, 128450560 bytes
6 heads, 55 sectors/track, 760 cylinders
Units = cylinders of 330 * 512 = 168960 bytes

        Device Boot      Start         End      Blocks  Id System
/dev/synoboot1               1         683      112639+ ee EFI GPT
Partition 1 has different physical/logical endings:
     phys=(14, 5, 55) logical=(682, 3, 55)

Disk /dev/sdq: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdq1               1      121601   976759904+ 83 Linux
Note: sector size is 4096 (not 512)
fdisk: device has more than 2^32 sectors, can't use all of them

Disk /dev/sdr: 2199.0 GB, 2199023255040 bytes
255 heads, 63 sectors/track, 33418 cylinders
Units = cylinders of 16065 * 4096 = 65802240 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdr1               1       45601  2930266580  ee EFI GPT
 
Fällt mir leider auch erstmal nix weiter ein... :confused:
 
Hi!

Ich hab zwar, zugegebenermaßen, keine Ahnung von RAID-Systemen. Wenn ich aber auf den Seiten von Synology den RAID-Rechner heranziehe und ein wenig mit den 5x4TB-Platten rumspiele, erhalte ich bei SHR eine Kapazität von 16TB und bei SHR-2 eine Kapazität von 12TB.

Hilft das?

Tommes
 
Der DSM zeigt hier ja ein SHR, kein SHR2, was wohl einem RAID6 mit 2 Platten Ausfalltoleranz entspräche. Hier ist ja offenbar auch nur eine Platte als Sicherung eingebunden.
 
Naja, aber halt nur 12 TB. Wie gesagt, ich hab von RAID nicht wirklich einen Plan, mir ist das halt nur beim rumspielen aufgefallen. Hätt ja sein können.

Tommes
 
Na, irgendwas stimmt ja sicher nicht. Leider sind schon 6TB drauf, sonst würde ich sagen: neu machen!
 
Mach ein Ticket bei Synology auf.
 
Ohjeeee...

Ich glaube habs gefunden.

Das Volume besteht so wie es aussieht aus einem RAID 1 und einem RAID 5....

Hat jemand eine Idee wie ich das in den Griff bekomme? (Umwandeln nach RAID 5)
Code:
Zeus> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md5 : active raid5 sdb8[0] sde8[4] sdd8[3] sdc8[2] sda8[1]
      3906971136 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

md4 : active raid5 sdd7[6] sde7[7](S) sda7[4] sdb7[2] sdc7[5]
      5860484352 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

md3 : active raid5 sda6[7] sde6[8](S) sdd6[6] sdc6[4] sdb6[5]
      732536256 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 1/2 pages [4KB], 65536KB chunk

md2 : active raid5 sda5[7] sde5[8](S) sdd5[4] sdc5[5] sdb5[6]
      2183519040 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 2/6 pages [8KB], 65536KB chunk

md1 : active raid1 sda2[3] sdb2[2] sdc2[0] sdd2[1] sde2[4]
      2097088 blocks [5/5] [UUUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md0 : active raid1 sda1[3] sdb1[2] sdc1[1] sdd1[0] sde1[4]
      2490176 blocks [5/5] [UUUUU]
      bitmap: 1/1 pages [4KB], 65536KB chunk
 
Zuletzt bearbeitet:
Die 1er sind System und Swap, das ist schon ok. Allerdings hätte ich nur zwei 5er erwartet... Hattest Du das schon vorher mal migriert?
 
Ja,

habe das Dateisystem quasi von meiner ersten Synology bis heute durchgeschleift. Allerdings immer problemlos.
DS207+ -> DS411J -> DS1513+


VG Florian
 
Dann könnte es sein, dass nicht die ganze Kapazität der Platten genutzt werden kann... Aber das wird Dir Synology hoffentlich sagen.
 
In der Mitteilung #5 steht doch bei

Zeus> fdisk -l

jedes Device nur mit ca. 2,2 TB gemountet ?
Ist das normal?
 
Hi, gibts zu dem Problem inzwischen eine Lösung?

Stehe vor einer ähnlichen Frage: 4 Festplatten WD RED 4 TB.

Hatte RAID-1, dann zwei Platten (zugleich!) hinzugesteckt. Station per RESET neu initialisiert, also DSM neu geladen, Volume erstellt (RAID-5). Nun zeigt er mir nach Abschluss der Konsistenzprüfung 3,58 TB Speicher an...
 
Leider bisher keine Lösung. Hat noch jemand eine Idee? Der Support hat nicht geantwortet
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat