DS720+ SSD Cache auch als Volume verwendbar?

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Erstmal danke für deine Antwort. Das Anlegen des Speicherpool als RAID 1 für beide SSD hat nach der Anleitung weiter oben geklappt und war auch kein Hexenwerk. Mein Problem ist, dass man leider auf diesem erstellten Speicherpool nur ein einziges Volume erstellen kann.

Bildschirmfoto 2021-02-17 um 11.34.57.png

Ich hätte dafür aber gern die Unterstützung für mehrere Volumes. Ich hab schon alle möglichen Konstellationen ausprobiert, aber leider komme ich immer nur an den Punkt, dass ich nur ein einziges Volume anlegen kann. Meine Recherchen ergaben bis jetzt aber leider keinen weiteren Input dazu.

Nur nicht wundern, dass der RAID-Typ=Basis ist. Ich hatte das Ganze auch schon mit RAID 0/1 probiert, gleiches Ergebnis. So spare ich mir aber beim Ausprobieren immer den RAID-Build/Rebuild.

Ist das mit der Unterstützung für mehrere Volumes ne Sondersache von Synology? Kann ich mir zwar nicht vorstellen, aber man weiß ja nie.

@ctrlaltdelete Nutzt du das nur mit einem Volume oder wie ist das bei dir aufgeteilt?
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
9.803
Punkte für Reaktionen
3.477
Punkte
364
Nur ein Volume
 

Anhänge

  • Bildschirmfoto 2021-02-17 um 11.58.25.png
    Bildschirmfoto 2021-02-17 um 11.58.25.png
    55,5 KB · Aufrufe: 23

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
9.803
Punkte für Reaktionen
3.477
Punkte
364
Habe jetzt fast eine Stunde google gequält und denke dazu braucht man wie @Benares sagt mdadm und lvm
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Ein SHR kann ich ja leider mit MDADM über die Konsole nicht einrichten, wird leider nicht angeboten. Wenn ich aber eine normale HDD als Basis oder RAID über den Speicher-Manager einrichte, und beim Speicherpool-Typ "Größere Flexibilität" auswähle, kann ich mehrere Volumes anlegen. Jetzt ist die Frage, ob das auch zusätzlich über LVM läuft? Falls ja, wird es wohl solange nicht möglich sein mehrere Volumes zu erstellen, bis die offizielle Unterstützung von NVMe SSDs als normales Laufwerk freigegeben wird. Die Hoffnung ist nicht groß, aber vielleicht passiert das ja irgendwann doch. Trotzdem danke für eure Mühe ...
 

Anhänge

  • Bildschirmfoto 2021-02-17 um 12.33.34.png
    Bildschirmfoto 2021-02-17 um 12.33.34.png
    32,4 KB · Aufrufe: 7
  • Bildschirmfoto 2021-02-17 um 12.37.50.png
    Bildschirmfoto 2021-02-17 um 12.37.50.png
    21,9 KB · Aufrufe: 7

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
Wenn ihr wollt, lest mal hier.
Das hat zwar nichts mit Synology zu tun, erklärt aber ganz gut wie man mit LVM prinzipiell arbeitet und was LVM kann. In Kap 7 wird auch MDADM mit LVM kombiniert.

@synfor, interessant. Könntest du mal schauen, ob da dann auch LVM mit im Spiel ist (z.B. "mount" oder "vgdisplay")?
Mich würde generell mal die Struktur eines "normalen" SHR-Raid1 von Synology (ich meine aus Linux-Sicht) interessieren.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
@Benares Danke, werd ich mir mal zu Gemüte führen.

@synfor Ja, das hatte ich kurz vor dir auch schon geschrieben. Leider hab ich noch nicht herausgefunden, wie man das Ganze über die Konsole anlegt. Und genau das ist die Frage. Da die NVMe SSDs ja nicht im Speicher-Manager als normales Laufwerk angezeigt werden, kann man deswegen diesen leider auch nicht zum Anlegen des Speicherpools nutzen.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
Ich habe zwischenzeitlich auf einer Ubuntu-VM mit MDADM/LVM etwas herumgespielt. Zunächst habe ich ihr 2 zusätzliche Laufwerke /dev/sdb und /dev/sdc á 1 GB spendiert und mit folgenden Befehlen versucht nachzustellen, was der DSM bei einer Diskgroup mit mehreren Volumes da so treiben könnte.
Code:
# /dev/md2 als Raid1 erstellen
mdadm --create --verbose /dev/md2 --level=1 --raid-devices=2 /dev/sdb /dev/sdc

# LVM auf /dev/md2 setzen
pvcreate /dev/md2
vgcreate vg1000 /dev/md2
# 2 Logical Volumes anlegen
lvm
lvm> lvcreate –size 200M vg1000
lvm> lvcreate –size 200M vg1000
lvm> exit
# ... formatieren
mkfs.ext4 /dev/vg1000/lvol0
mkfs.ext4 /dev/vg1000/lvol1
# ... und mounten
mkdir /volume1
mount /dev/vg1000/lvol0 /volume1
mkdir /volume2
mount /dev/vg1000/lvol1 /volume2

#Status abfragen
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdc[1] sdb[0]
      1046528 blocks super 1.2 [2/2] [UU]

unused devices: <none>

vgdisplay
  --- Volume group ---
  VG Name               vg1000
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  5
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               1020,00 MiB
  PE Size               4,00 MiB
  Total PE              255
  Alloc PE / Size       100 / 400,00 MiB
  Free  PE / Size       155 / 620,00 MiB
  VG UUID               ObIqzd-SuaR-CiPV-s0IT-Z7ZF-aYCU-zWPJDe

lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lvol0
  LV Name                lvol0
  VG Name                vg1000
  LV UUID                FCTJ5P-Wi5c-u1px-r8Kr-5cAv-PEpH-DNXg9V
  LV Write Access        read/write
  LV Creation host, time pcvubuntu64, 2021-02-17 15:19:44 +0100
  LV Status              available
  # open                 0
  LV Size                200,00 MiB
  Current LE             50
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/vg1000/lvol1
  LV Name                lvol1
  VG Name                vg1000
  LV UUID                l2vlzf-c1Ap-W4wn-2cKt-SeQP-yInZ-k8PFdm
  LV Write Access        read/write
  LV Creation host, time pcvubuntu64, 2021-02-17 15:19:49 +0100
  LV Status              available
  # open                 0
  LV Size                200,00 MiB
  Current LE             50
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1
Das sind aber alles nur Vermutungen. Ich habe leider keine DS mit SHR, auf der ich es mir genauer ansehen könnte.

Die Frage ist, was davon im Falle einer DS mit NVME-SSDs über die Konsole gemacht werden muss und was über die DSM-Oberfläche erledigt werden kann.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: ctrlaltdelete

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
So, ich habe mir mal die Ausgabe von "mount" und "vgdisplay" angeschaut. Es scheint so, dass bei einem normalen Speicherpool mit Unterstützung für mehrere Volumes auch LVM mit im Spiel ist.

Bash:
# Speicherpool 1
# RAID-Typ: Basis
# Unterstützung für mehrere Volumes: Nein

#Ausgabe für "mount"
/dev/md2 on /volume1 type btrfs (rw,relatime,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=5,subvol=/)

#Ausgabe für "vgdisplay"
- keine -

Bash:
# Speicherpool 2
# RAID-Typ: SHR
# Unterstützung für mehrere Volumes: Ja

#Ausgabe für "mount"
/dev/mapper/vg1-volume_2 on /volume2 type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno)

#Ausgabe für "vgdisplay"
--- Volume group ---
  VG Name               vg1
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               1
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               2.72 TiB
  PE Size               4.00 MiB
  Total PE              714217
  Alloc PE / Size       714217 / 2.72 TiB
  Free  PE / Size       0 / 0   
  VG UUID               uaf3xI-lOkk-YZtb-vhCe-TDcV-CWoK-gY7tG7

Bash:
# Speicherpool 3
# RAID-Typ: Basis
# Unterstützung für mehrere Volumes: Ja

#Ausgabe für "mount"
/dev/mapper/vg2-volume_3 on /volume3 type btrfs (rw,relatime,ssd,synoacl,space_cache=v2,auto_reclaim_space,metadata_ratio=50,subvolid=257,subvol=/@syno)

#Ausgabe für "vgdisplay"
--- Volume group ---
  VG Name               vg2
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               1
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               2.72 TiB
  PE Size               4.00 MiB
  Total PE              714219
  Alloc PE / Size       714219 / 2.72 TiB
  Free  PE / Size       0 / 0   
  VG UUID               ZKMzEE-PvIW-LpBt-rqDV-FCZ6-3fYR-23YCyg

Ich werde mir das Ganze auch nochmal ansehen und ausprobieren. Um die NVMe SSDs in einer Diskstation als Laufwerk nutzbar zu machen, ist meines Erachtens der Vorgang nur über die Konsole realisierbar. Die NVMe SSDs werden unter der GUI sonst gar nicht als potenziellen Laufwerk angezeigt und können somit auch nicht über den Speicher-Manager bearbeitet werden, außer man möchte sie als Cache verwenden.
 
  • Like
Reaktionen: Benares

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
9.803
Punkte für Reaktionen
3.477
Punkte
364
Sch..., ich kann es nicht ausprobieren, auf meinem NVME Raid1 läuft meine Buchhaltung. Ich brauch doch doch eine 2. DS zum spielen.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
:ROFLMAO: Da scheint sich meine Vermutung ja zu bestätigen. Synology kocht bei ihrem SHR auch nur mit Wasser ;)

Die Frage ist, was die DSM-Oberfläche treibt, wenn man nur die Diskgroup (Raid) und die LVM-Konfi über die Konsole erstellt. Vielleicht kann man dann ja die Volumes auch über die DSM-Oberfläche verwalten.

Interessant wäre noch, wie beim "Original" die Struktur bei /dev/vg* ausschaut und was in der /etc/fstab steht. Evtl. muss man sich bei der Benennung der Volumegroup und der Volumes ja an Synology-Konventionen halten. Dass "mount" irgendwelche /dev/mapper/...-Sachen anzeigt obwohl /dev/<Volumegroup>/<Volumename> gemountet wird, war auch bei mir der Fall.
 
  • Like
Reaktionen: ctrlaltdelete

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Die Ordnerstruktur sieht wie folgt aus:

Bash:
# /dev/mapper/
# Der Inhalt sind alles Geräte.
control
vg1-syno_vg_reserved_area
vg1-volume_2
vg2-syno_vg_reserved_area
vg2-volume_3

# /dev/vg1
# Der Inhalt sind alles Symlinks.
syno_vg_reserved_area
volume_2

# /dev/vg2
# Der Inhalt sind alles Symlinks.
syno_vg_reserved_area
volume_3

# Ziele der Symlinks
/dev/vg1/syno_vg_reserved_area -> /dev/mapper/vg1-syno_vg_reserved_area
/dev/vg1/volume_2 -> /dev/mapper/vg1-volume_2
/dev/vg2/syno_vg_reserved_area -> /dev/mapper/vg2-syno_vg_reserved_area
/dev/vg2/volume_3 -> /dev/mapper/vg2-volume_3

Ich kann mir schon vorstellen, dass man sich an die Namenskonvention halten muss. Ich werde das Ganze aber nochmal ausprobieren.
 
Zuletzt bearbeitet:

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
interessant, und was steht in der /etc/fstab?
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Siehe unten:

Bash:
/dev/md2 /volume1 btrfs auto_reclaim_space,synoacl,relatime 0 0
/dev/vg1/volume_2 /volume2 btrfs auto_reclaim_space,synoacl,ssd,relatime 0 0
/dev/vg2/volume_3 /volume3 btrfs auto_reclaim_space,synoacl,ssd,relatime 0 0
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
Danke. Jetzt müsste man nur noch wissen, wie DSM die LVM-Volumes benennt. volume_n? Könntest du bitte auch noch die Ausgabe von "lvdisplay" posten?
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Bash:
 --- Logical volume ---
  LV Path                /dev/vg2/syno_vg_reserved_area
  LV Name                syno_vg_reserved_area
  VG Name                vg2
  LV UUID                vudfD3-X9kh-L0Gq-CNB6-x7vh-k14z-MPvRci
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                12.00 MiB
  Current LE             3
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     384
  Block device           252:2
 
  --- Logical volume ---
  LV Path                /dev/vg2/volume_3
  LV Name                volume_3
  VG Name                vg2
  LV UUID                gbJNaM-E9hy-OlAG-qVId-kq7O-iG7K-1F1sTm
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                2.72 TiB
  Current LE             714216
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           252:3
 
  --- Logical volume ---
  LV Path                /dev/vg1/syno_vg_reserved_area
  LV Name                syno_vg_reserved_area
  VG Name                vg1
  LV UUID                0EXT1Z-7RMn-KJqL-5IAx-IGIT-sRyZ-bb3rhe
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 0
  LV Size                12.00 MiB
  Current LE             3
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     384
  Block device           252:0
 
  --- Logical volume ---
  LV Path                /dev/vg1/volume_2
  LV Name                volume_2
  VG Name                vg1
  LV UUID                8u676u-QfM1-afqu-56IR-nriB-iGj0-ckCW9x
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                2.72 TiB
  Current LE             714214
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           252:1

Ich würde sagen, es ist wie du es gesagt hast: volume_n. Ist halt die Frage für was der revervierte Bereich ist ...
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.007
Punkte für Reaktionen
2.699
Punkte
423
Ist halt die Frage für was der revervierte Bereich ist ...
Mmh, frag ich mich auch grad :unsure:

Fassen wir mal zusammen:
- Synology nennt seine LVM-Volumegroups "vg[n]", darauf jeweils ein Logical Volume "syno_vg_reserved_area" mit 12 MB und ein "volume_[m]" mit dem Rest
- gemounted wird /dev/vg[n]/volume_[m] als volume[m]

Übersetzt in meine Ausführungen aus #29 würde das wohl bedeuten:
Code:
# /dev/md[n] als Raid1 erstellen
mdadm --create --verbose /dev/md[n] --level=1 --raid-devices=2 /dev/nvmeA /dev/nvmeB

# LVM auf /dev/md[n] setzen
pvcreate /dev/md[n]
vgcreate vg[n] /dev/md[n]
#  Logical Volumes anlegen
lvm
lvm> lvcreate –size 12M -n syno_vg_reserved_area vg[n]
lvm> lvcreate –size <Rest>M -n volume_[m] vg[n]
lvm> exit
Passt das so oder habe ich da noch einen gravierenden Denkfehler? Für mich ist das auch Neuland, aber recht interessant.
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
352
Punkte für Reaktionen
79
Punkte
28
Ich denke wir haben des Rätsels Lösung. :cool: Ich habe mich mal im Schnelldurchlauf durch deinen Link aus #27 gearbeitet. Deine Annahmen waren soweit korrekt. (y) Bei mir läuft jetzt ein Speicherpool mit der Unterstützung für mehrere Volumes.

Wollen wir das Ganze der Vollständigkeit halber nochmal ganz von vorn aufrollen.
  1. Zugang über SSH auf die Diskstation
    Bash:
    ssh benutzer@diskstation
    Passwort:
    sudo -i
    Passwort:
  2. Anzeigen der NVMe SSDs
    Bash:
    ls /dev/nvm*
    
    /dev/nvme0  /dev/nvme0n1  /dev/nvme1  /dev/nvme1n1
  3. Diskinformationen anzeigen
    Bash:
    fdisk -l /dev/nvme0n1
    
    Disk /dev/nvme0n1: 931.5 GiB, 1000204886016 bytes, 1953525168 sectorsUnits: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 512 bytes
    I/O size (minimum/optimal): 512 bytes / 512 bytes
    Disklabel type: dos
    Disk identifier: 0x8090ac30
  4. Synology Partitionsschema erstellen
    Bash:
    synopartition --part /dev/nvme0n1 12
    synopartition --part /dev/nvme1n1 12 (optional für RAID 0/1)
    
    Device   Sectors (Version7: SupportRaid)
    /dev/nvme0n11   4980480 (2431 MB)
    /dev/nvme0n12   4194304 (2048 MB)
    Reserved size:    262144 ( 128 MB)
    Primary data partition will be created.
    
    WARNING: This action will erase all data on '/dev/nvme0n1' and repart it, are you sure to continue? [y/N] y
    Cleaning all partitions...
    Creating sys partitions...
    Creating primary data partition...
    Please remember to mdadm and mkfs new partitions.
  5. Diskinformationen erneut anzeigen
    Bash:
    fdisk -l /dev/nvme0n1
    
    Disk /dev/nvme0n1: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 512 bytes
    I/O size (minimum/optimal): 512 bytes / 512 bytes
    Disklabel type: dos
    Disk identifier: 0x8090ac30
    
    Device         Boot   Start        End    Sectors  Size Id Type
    /dev/nvme0n1p1          256    4980735    4980480  2.4G fd Linux raid autodetect
    /dev/nvme0n1p2      4980736    9175039    4194304    2G fd Linux raid autodetect
    /dev/nvme0n1p3      9437184 1953520064 1944082881  927G fd Linux raid autodetect
  6. Derzeitiges RAID-Setup anzeigen
    Bash:
    cat /proc/mdstat
    
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
    md1 : active raid1 sda1[0]
    2097088 blocks [1/1] [U]
       
    md0 : active raid1 sda1[0]
    2490176 blocks [1/1] [U]
       
    unused devices: <none>
  7. NVMe Basic Disk erstellen
    Bash:
    mdadm --create /dev/md2 --level=1 --raid-devices=1 --force /dev/nvme0n1p3
    mdadm --create /dev/md2 --level=0/1 --raid-devices=2 --force /dev/nvme0n1p3 dev/nvme1n1p3 (optional für RAID 0/1)
    
    mdadm: /dev/nvme0n1p3 appears to be part of a raid array:    
    level=raid1 devices=1 ctime=Wed Feb 17 19:30:52 2021
    mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
    Continue creating array?
    yes
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md2 started.
  8. Wenn man später nur ein Volume auf dem Speicherpool erstellen möchte, ist man hier fertig. Das Volumen kann über den Speicher-Manager erstellt werden. Man kann aber auch einen der nachfolgenden Befehle (wahlweise für ext4 oder btrfs) für die Konsole nehmen:
    Bash:
    mkfs.ext4 -f /dev/md2
    mkfs.btrfs -f /dev/md2
    Nach einem Reboot wird der Speicherpool bzw. das Volume im Speicher-Manager angezeigt.
  9. Möchte man stattdessen mehrere Volumes auf dem Speicherpool erstellen, muss man vor dem Reboot noch zwei LVM-Container erstellen. Als erstes das Physical Volume:
    Bash:
    pvcreate /dev/md2
    
    Physical volume "/dev/md2" successfully created
  10. Status des Physical Volume anzeigen
    Bash:
    pvdisplay
    "/dev/md2" is a new physical volume of "927.01 GiB"
    --- NEW Physical volume ---
    PV Name               /dev/md2
    VG Name            
    PV Size               927.01 GiB
    Allocatable           NO
    PE Size               0
    Total PE              0
    Free PE               0
    Allocated PE          0
    PV UUID               hKhjSH-owNl-2VU8-iif5-AYM9-KuhM-7NWn4p
  11. Danach die Volume Group erstellen
    Bash:
    vgcreate vg1 /dev/md2
    
    Volume group "vg1" successfully created
  12. Status der Volume Group anzeigen
    Bash:
    vgdisplay
    --- Volume group ---
    VG Name               vg1
    System ID          
    Format                lvm2
    Metadata Areas        1
    Metadata Sequence No  1
    VG Access             read/write
    VG Status             resizable
    MAX LV                0
    Cur LV                0
    Open LV               0
    Max PV                0
    Cur PV                1
    Act PV                1
    VG Size               927.01 GiB
    PE Size               4.00 MiB
    Total PE              237314
    Alloc PE / Size       0 / 0
    Free  PE / Size       237314 / 927.01 GiB
    VG UUID               aZ6Jxb-4KOE-Ijij-iOZe-3OV8-y6Ve-mbtrIi
  13. Nach einem Reboot wird der Speicherpool mit der Unterstützung für mehrere Volumes im Speicher-Manager angezeigt. Die Volumes können im Speicher-Manager angelegt werden.
    Bash:
    reboot
Bildschirmfoto 2021-02-18 um 01.50.06.png
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
9.803
Punkte für Reaktionen
3.477
Punkte
364
Klasse Arbeit, Danke.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat