DS1813+ / Zusammenstellung der Disks - kann ich das so machen?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

fab5

Benutzer
Registriert
11. Mai 2014
Beiträge
5
Reaktionspunkte
0
Punkte
1
Hallo zusammen,

ich bin neu hier und setze aktuell noch mehr oder weniger eine alte Qnap TS-409 ein. Mit "eher weniger" meine ich, dass sie im Moment ausgeschaltet ist und sich alle meine Daten aktuell verstreut befinden. Ein paar Fotoalben sind auf der Qnap, meine Kundendaten liegen (ohne Sicherung... :eek: ) auf meinem Notebook und dazu habe ich noch das "übliche Chaos" aus USB-Sticks und -Festplatten. Das will ich endlich mal in den Griff bekommen! Eigentlich böte sich die Qnap ja dafür an, aber irgendwie werde ich mit ihr nicht richtig warm - ich habe noch nicht die optimale Positionierung im LAN-WLAN-Mix zu Hause gefunden und die Features, die ich mir wünschen würde, die bietet sie nicht. Da habe ich mir damals beim Kauf nicht so wirklich Gedanken zu gemacht...
Deshalb soll jetzt alles besser werden und ich trage mich jetzt seit ein paar Tagen intensiv mit der Idee schwanger eine "große" NAS-Box zu nehmen, die mir auch in meiner heimischen VMware ESX-Umgebung hilfreich ist. Der eine oder andere mag sich jetzt fragen: wieso zum Teufel betreibt der Kerl das zu Hause?! Ganz einfach: ich bin IT-Clown aka. Berater und beschäftige mich intensiv mit dem Thema Virtualisierung, speziell VMware. Dafür betreibe ich als Hobby eine kleine Umgebung aus aktuell 2 ESX-Hosts zu Hause, welche auch an die neue NAS-Box sollen.

Nun zu meiner Idee: Ich würde gerne den Wildwuchs mit Dropbox usw. ablösen und eine eigene Cloud-Speicherlösung aufbauen. Soweit ich bei Synology durchgedrungen bin, kann ich das mit der DS1813+ und dem DSM 5.0 und dem "Cloud-Storage" machen - korrekt? Benötige ich dafür noch eine eigene Lizenz oder ist das bei der Box dabei?
Darüber hinaus soll die DS als Backup-Target für 2 Apple MacBooks via TimeMachine dienen. Dafür baue ich dann ein Volume bzw. mehrere und weise diese dann einem Benutzer zu. Wenn ich ein Quota einstelle, dann "sehe" ich auch nur die Größe des Quotas oder die des gesamten Volumes?
Jetzt zu der wichtigsten Frage: wie baue und verteile ich die Volumes? Ich habe vor, wie geschrieben, auch meine VMware Umgebung mit an die DS zu hängen. Aktuell sind dort je ESX-Host eine 3TB HDD und eine 250GB SSD verbaut. Die SSD für die Performance und die HDD für die Kapazität. Nun ist mein Gedanke, dass ich für die Performance 2x SSDs in die DS verbaue, um Read/Write Cache zu nutzen. Laut Datenblatt der Synology Homepage ist das unterstützt. Besonders wichtig ist mir an der Stelle der Write-Cache mittels SSD, denn das ist erfahrungsgemäß in einer Virtualisierungsumgebung der Flaschenhals. Dafür gehen 2 Platten-Einschübe verloren, bleiben noch 6. In 4 dieser Einschübe würde ich jetzt 3TB bzw. 4TB HDDs verbauen (ich tendiere zu den WD Red, bei der genauen Kapazität muss ich nochmal in mich gehen). Darüber bilde ich dann eine RAID-Gruppe (in meinem Fall RAID5) und lege Volumes an. Nun die Frage: kann ich in dieser RAID-Gruppe mehrere Volumes bauen und beispielsweise eines davon als VMware iSCSI Volume erstellen, eines als CIFS/NFS/AFP Share, eines für Backups usw.? Lege ich also Volumes an und definiere dann im Anschluss, wofür diese verwendet werden sollen?
Darüber hinaus überlege ich, ob ich meine beiden lokalen SSDs aus den ESX-Hosts in die DS verbaue und darüber, neben dem SSD Cache, noch eine weitere RAID-Gruppe baue, um ein High-Performance Volume zu haben. Kann die DS damit umgehen? Und genauso interessant: kann ich den SSD Cache für bestimmte Volumes aus- bzw. einschalten?

Die genaue Anbindung der DS muss ich mir noch überlegen, aber ich tendiere dazu alle 4 GbE Ports an einen zentralen Switch anzubinden und mittels LACP zu trunken. Meine ESX-Hosts kommen dort mit 2x 1GbE als LACP an, d.h. in der Theorie könnte ich die DS damit voll belasten (nicht ganz Sinn der Sache, aber der Gedanke mit der maximalen Performance gefällt mir ;) ). An der Stelle noch die Frage: kann die DS mit VLANs umgehen und kann ich ihr in verschiedene IP-Subnetze Adressen zuweisen? Charmant wäre es, wenn ich auf dem 4x 1GbE LACP-Channel min. 2 VLANs definieren könnte - eines für Storage (iSCSI ESX) und eines für "alles andere" - und die DS die Daten entsprechend sendet.
Ich denke, dass ich in der Konstellation genug Power, Durchsatz und Funktionen habe, um zu Hause endlich einen zentralen Speicher zu etablieren. Ich hoffe, dass meine Gedanken weiter oben jetzt nicht allzu weit von der Realität weg sind :)

Danke für Eure Hilfe und viele Grüße,
Fabian
 
Hallo zusammen,

ich habe mich gestern Abend (besser gesagt: Nacht :p )und heute noch mal etwas intensiver mit der Synology beschäftigt und konnte mir einige Fragen selbst beantworten (auch dank des Online-Simulators auf der Synology-Homepage).
Die Cloud-Station ist also kostenfrei dabei und auf einigen Videos von YouTube scheint das echt genial gelöst zu sein. Wirklicher "haben-will"-Faktor :)
Auch das mit den Quotas hat sich erledigt und es ist so, wie ich vermutete. Ich "sehe" nur mein angegebenen Quota und nicht das gesamte Volume.
Leider kann ich auch bei dem LACP-Trunk nur eine IP-Adresse und ein VLAN angeben, das habe ich befürchtet. Aber auch damit kann ich leben.

Zusätzlich habe ich gesehen, dass ich meine Qnap "recyceln" kann - diese eignet sich dann ja hervorragend als Rsync-Target, um meine Daten von der Synology zu sichern. Perfekt!

Einzig mit den RAID-Gruppen, Volumes, iSCSI LUNs und dem SSD Cache bin ich nicht schlauer geworden. Nach wie vor die Situation: ich bestücke die Synology mit 4x 4TB Disks, erstelle ein RAID5 und nutze dieses Diskgruppe als Basis für alles, was ich ablegen will. Bedeutet: ich erstelle ein Volume für TimeMachine, Datenablage und die Cloud-Station (also ein gemeinsames Volume). Dieses könnte dann ja theoretisch meinen kompletten vorhandenen Platz nutzen, richtig? Wenn ich nun 4x 4TB im RAID5 nutze habe ich nach Adam Riese 12TB nutzbar, also könnten diese Freigaben auch 12TB nutzen.
Wenn ich nun aber noch 2 iSCSI LUNs auf dieses Volume legen möchte, wäre meine Erwartung, dass sich die Kapazität für o.g. Freigaben verringert. Richtig? Konkret: ich erstelle 2x 2TB LUNs für iSCSI, also müssten statt 12TB nur noch 8TB zur Verfügung stehen. Sehe ich das richtig? Und kann ich überhaupt mehrere LUNs auf einer RAID-Gruppe anlegen?

Und nochmal zu dem SSD Thema. Wenn ich nun 2x SSD in die Synology integriere und den SSD Cache nutze, dann will ich besonders den SSD Write Cache nutzen. Das ist doch mit der 1813+ möglich, oder? Und kann ich selektiv den Cache pro LUN/Volume aktivieren? Wenn ich denn noch zusätzlich ein SSD-Volume anlege (aus 2x 250GB SSDs), dann brauche ich dafür kein SSD Cache mehr. Das wäre ja Verschwendung!

Ich hoffe, ihr könnt mir dabei helfen :)

VG Fabian
 
iSCSI-LUNs kann man "Filebasiert" oder "Blockbasiert" anlegen. Wenn man Filebasiert wählt, wird pro LUN eine Datei auf den angegebenen Volumen erstellt. Die LUN kann man auch so definieren, das der benötigte Platz nicht sofort physisch allokiert wird (thin-allocation). Entsprechend der Nutzung verringert sich der freie Platz im Volumen. Somit reicht es, wenn man nur ein grosses RAID-Volumen anlegt.

Wenn man Blockbasierte LUNs auf RAID haben will, muss man zuerst eine Diskgruppe (mehrere Volumen auf RAID) anlegen. Dann kann man darauf sein normales File-Volumen mit z.B. 6GB anlegen und hätte dann noch 6TB für Block-LUNs auf der RAID-Diskgruppe für die LUNs oder für ein weiteres File-Volume nutzen.

Die SSD-Cache Funktion ist nur selten wirklich nutzbar. Als erstes braucht man mindestens 2 SSDs. Für jedes GB SSD Cache braucht man 4MB RAM. Bei zwei 256GB SSD als Write-Cache (bedeutet die SSDs in RAID1) hat man damit schon den ganzen Hauptspeicher einer DS1813 (1GB) verbraten. Man kann den Cache auch kleiner anlegen, der Rest der SSD ist dann aber verloren. Diesen Bereich kann man auch nur genau einem Volume oder einer Block-LUN zuordnen. Für 2LUNs oder 2 Volumes braucht man also schon 4 SSD + RAM. Wenn es wirklich um Geschwindigkeit geht, sind die Synos dann doch eher ungeeignet, wenn man nicht gleich die ganze DS mit SSDs bestückt.

HTH
Thomas
 
Sehr interessant, was Du über das SSD-Caching schreibst, vielen Dank dafür!

Bei zwei 256GB SSD als Write-Cache (bedeutet die SSDs in RAID1) hat man damit schon den ganzen Hauptspeicher einer DS1813 (1GB) verbraten.

Hier nur kurz eine Spitzfindigkeit, nur um zu vermeiden, dass das jemanden irritiert, der sich nicht so gut auskennt. Für die 1812+ (die Du hast), stimmt Deine Aussage. Für die 1813+ nicht, da sie ab Werk mit 2GB RAM ausgestattet ist.
 
Wenn man Blockbasierte LUNs auf RAID haben will, muss man zuerst eine Diskgruppe (mehrere Volumen auf RAID) anlegen. Dann kann man darauf sein normales File-Volumen mit z.B. 6GB anlegen und hätte dann noch 6TB für Block-LUNs auf der RAID-Diskgruppe für die LUNs oder für ein weiteres File-Volume nutzen.
Dankeschön, das hilft mir schon weiter. Aber nur zum Verständnis: ich verbauen die HDDs, formatiere sie und bilde ein RAID. Auf diesem RAID erstelle ich Diskgruppen und kann dann darauf Block-LUNs für iSCSI und Volumes für alles andere bauen? Wie sind denn bei den Diskgruppen die Zusammenhänge? Eine pro HDD-Platte oder beliebig? Und welche Grenze habe ich, wenn ich angenommen pro 1TB eine Diskgruppe erstelle und dann ein Volume über 4TB erstellen möchte? Geht das?

Das mit dem Cache schreckt mich jetzt ehrlich gesagt nicht ab. Wenn ich pro iSCSI LUN 2 SSDs für den Cache nutzen kann, dann werde ich das probieren. Innerlich war für mich eh klar, dass der RAM auf 4GB erweitert wird. Und für eine 4TB iSCSI LUN 250GB SSD Cache zu haben kann sich schon lohnen. Die SSDs hätte ich so oder so da, von daher würde ich das auf den Test ankommen lassen. Ebenso, wie für das Erstellen einer SSD-only LUN.
 
Eine Diskgruppe ist bei Synology immer ein Raid über mehrere komplette Platten. Also 5 Platten rein und dann die Diskgruppe als z.B. als RAID5 über alle Platten bilden. Damit wird ein neues "multiple Device" /dev/mdx und daraus eine Volumegroup /dev/vgx erzeugt. Die Diskgruppe hat dann 12TB Kapazität (bei 5x3TB). Auf dieser Diskgruppe werden dann mittels LVM die File-Volumes und die Blockluns als Logical Volumes der Volumegroup erzeugt. Ich habe 4x3TB Platten als RAID5 und darauf ein 6TB Volumen angelegt
--- Physical volume ---
PV Name /dev/md2
VG Name vg1
PV Size 8.17 TB / not usable 1.50 MB
....
--- Logical volume ---
LV Name /dev/vg1/volume_1
VG Name vg1
...
# open 1
LV Size 6.35 TB
Current LE 1664000
...
DS1812> mount
/dev/vg1/volume_1 on /volume1 type ext4 (usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0,synoacl)
 
Klasse, danke für die Info.
Dann bleibt für mich nur die Frage, was schneller ist. Im NetApp-Style ein "Block-File" auf File zu legen und per Block zu transportieren oder mittels LVM Volumes zusammenfassen und darauf Block zu legen. Aber ich befürchte, dass das auch von dem Setup der Platten usw. abhängt. Da werde ich ums Testen wohl nicht drum rum kommen.

Aber ich denke, dass ich dann mit meiner ursprünglichen Skizze schon gut hinkomme. Erst einmal 4x 4TB HDDs plus 2x SSDs (als Cache) in einer Synology 1813+ (erweitert auf 4GB RAM) für meine Anforderungen. Da kann ich dann soweit erst einmal alles testen, bevor es "produktiv" wird. :)
 
Ich verwende eigentlich nur noch Filebasierte LUNs. Nur mit denen kann man die erweiterten Eigenschaften wie Snapshots und Cloning nutzen. Wenn man dann einen SSD-Cache auf das File-Volume ansetzt, hat man gleich alle LUNs im Cache. 2 SSDs pro einzelner LUN ohne eine Möglichkeit das daraus gebildete SSD-Raid aufzuteilen finde ich blöd. Bei meinem Oracle-RAC verwende ich eine ganze Reihe kleiner LUNs.
 
Das macht dann wiederum Sinn mit den File-basierten LUNs. Wobei dann die Frage kommt: wenn es eh File-basiert ist, wieso muss ich dann ein Block-Protokoll nehmen? Ich könnte dann doch auch einfach NFS für VMware nutzen, das ist "File in File" und müsste schneller sein, als "Block in File" iSCSI. Kann das jemand bestätigen oder widerlegen?
 
Bei VMWare ist es wahrscheinlich wirklich kein großer Unterschied zwischen iSCSIi und optimierten NFS. Spätestens aber, wenn man Multipath nutzen will, scheidet NFS wieder aus.
Es gibt aber noch eine Reihe anderer Anwendungen, wo man iSCSI bevorzugt einsetzen sollte, z.B. Oracle auf NFS ist grottig, wenn man nicht gerade einen NetApp-Filer hat. Auch ein Linux-Rechner mit NFS-Root auf der DS ist nicht so super, da das DSM immer noch keine Device-Dateien und Symlinks sichern kann.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat