HomeLab

Monacum

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
03. Jan 2022
Beiträge
2.086
Punkte für Reaktionen
929
Punkte
204
Du hast sicher im Großen und Ganzen recht, @Jim_OS, aber wenn ich plang.pl richtig verstehe, nutzt er ja wegen der ganzen „Spielereien“ dafür mehrere VM – um eben eigentlich diesem GAU-Risiko entgegenzutreten… Aber ansonsten kann ich das geschilderte Problem leider auch nur bewundern, eine Lösung habe ich nicht 😔
 
  • Like
Reaktionen: plang.pl

metalworker

Benutzer
Sehr erfahren
Mitglied seit
25. Apr 2023
Beiträge
2.306
Punkte für Reaktionen
686
Punkte
154
Oha das klingt ja mies .

Aber das ist so ein Grund warum ich Produtkiv Und Spielwiese komplett trenne. Auch von der Hardware her.

Mal so ins blaue geschossen , hast du vielleicht ein Speicher Problem bei deinem Host?
z.b. mehr Speicherplatz vergeben als dein Host zur verfügung stellt?
Da können dann ganz seltsame sachen passieren wenn Promox versucht mit DAten zu jonglieren wofür kein Speicher oder Ram mehr vorhanden ist.
 
  • Like
Reaktionen: plang.pl

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
4.471
Punkte für Reaktionen
1.767
Punkte
214
aber wenn ich plang.pl richtig verstehe, nutzt er ja wegen der ganzen „Spielereien“ dafür mehrere VM – um eben eigentlich diesem GAU-Risiko entgegenzutreten…
Jepp aber scheinbar eine zentrale MariaDB, in der dann von allen möglichen Anwendungen, ggf. aus unterschiedlichen VM und div. Docker-Anwendungen, etwas gespeichert wird. Wenn die dann abraucht - was ja der Fall zu sein scheint - hat das natürlich Auswirkungen auf alle genutzen Anwendungen.

Im Prinzip ist es auch ja nicht schlecht und oftmals üblich, eine zentrale Datenbank zu nutzen und das ist ja auch "verführerisch", :) aber man muss sich dann auch der möglichen Konsequenzen im Klaren sein. Sprich raucht die ab steht ggf. vieles still. Falls man dann diese zentrale Datenbank auch noch für Anwendungen nutzt die man mal ausprobieren will und mit denen man mal etwas "herumspielt", kann das böse ins Auge gehen.

Klar hinterher ist es immer leicht "schlau daher zu reden", was ich ja jetzt auch irgendwie mache, :LOL: aber ich sehe halt ein Problem darin wenn man einfach zu viel macht/will. Da verliert man ggf. sehr schnell den Überblick und es treten ggf. Probleme auf die man im Vorfeld gar nicht so wirklich einschätzen kann.

Ich bin mir natürlich sicher das plang.pl das auch alles weiß, dass ihm das auch alles durchaus bewusst ist und das er sich sicherlich vorher überlegt hat was er wie nutzt, was er wie sichert und welche Auswirkungen was haben könnte. Aber manchmal hilft ein "übertreib es aber nicht" vielleicht ja doch, ;) auch wenn das Kind ggf. schon in den Brunnen gefallen ist.

Das man diese Probleme nicht vorhersehen konnte ist auch klar, aber klar ist auch: Je mehr ich mache, nutze und probieren, umso größer wird das Risiko.

Da er in #178 und #179 ja durchaus unterschiedliche Probleme nennt und beschreibt, wird es wohl ein größeres Problem geben und das auch schon länger. Ob das dann an der Hardware oder der Software liegt muss man sehen.

@plang.pl Ich meine das auch nicht irgendwie böse, oder will "Salz in die Wunde streuen", :) aber das mit der zentralen Datenbank, in der dann scheinbar wichtige Daten gespeichert wurden und die dann von unterschiedlichsten Anwendungen genutzt wird, solltest Du Dir ggf. noch einmal überlegen. Ich nutze hier z.B. MariaDB bzw. InfluxDB unter Home Assistant auch nur ausschließlich für HA und käme nicht wirklich auf die Idee diese Datenbank auch noch für div. andere Anwendungen zu nutzen. Einfach weil mir meine HA-Install. sehr wichtig ist und ich nicht wirklich einschätzen kann was andere Anwendungen ggf. für eine Auswirkung auf die Datenbank haben könnten. Ergo nutze ich auch mehrere Datenbanken für unterschiedliche Anwendungen. Aber ok, mein eher kleines "Homelab", mit nur ein paar VM und Docker-Anwendungen, ist sicherlich nicht mit Deinem vergleichbar.

VG Jim
 
Zuletzt bearbeitet:
  • Like
Reaktionen: plang.pl

metalworker

Benutzer
Sehr erfahren
Mitglied seit
25. Apr 2023
Beiträge
2.306
Punkte für Reaktionen
686
Punkte
154
Am ende kann man noch so gut alles durchdenken , es kann immer was kommen woran man nicht gedacht hat.
 

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
4.471
Punkte für Reaktionen
1.767
Punkte
214
Jepp :)
 

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.266
Punkte für Reaktionen
925
Punkte
174
Also ich persönlich habe folgendes an Datenbanken am Start:
-eine MariaDB auf dem File-Server (DS720+) für paperless-ngx
-eine MariaDB & eine postgres auf dem "SQL-Server" (lubuntu VM auf Proxmox) für redmine, vaultwarden, firefox-sync und bookstack
-eine MariaDB auf dem "Management-Server" (lubuntu VM auf Proxmox) für den NGINX RP
Warum mache ich das so?
Weil ich vermeiden will, dass alles down geht, wenn der SQL-Server ausfällt oder dort die MariaDB einen Fehler hat. Zudem vermeide ich Netzwerktraffic, wenn auf jedem Server, der es benötigt eine eigene DB läuft. Das bisschen Leistung, was der MariaDB Container als Overhead zieht, ist zu vernachlässigen.

Oh Mann. Meine ganzen Container laufen nicht mehr richtig. Die mariadb ist im Eimer.
Auch auf den Backups startet die mariadb nicht. Die Dumps der DB sind wohl auch nicht gelaufen...
Bin jetz schon seit über 3 Stunden dran, das SQL-Gedöns wieder ans Laufen zu bringen. Aber aktuell sieht es schlecht aus.
Hab schon mehrmals auf einer Clean-Install auf verschiedenen Wegen versucht, den Dump wieder einzuspielen. Auch ein Neuaufsetzen der mariadb mit dem bestehenden Ordner haut nicht hin.

Murphys Law... Man kann aus solchen Geschichten nur eine Lehre ziehen: Backups, Backups, Backups
Das umfasst die Prüfung, ob die Backups erstellt werden und ob die Backups auch verwendet werden können. Und da will ich nicht mit dem Finger auf jemanden zeigen und ich fasse mir da insbesondere auch an die eigene Nase. Bei mir laufen übrigens auch ein paar Anwendungen auf einer MariaDB (allerdings über die Paketquelle). Backup über HyperBackup. Hat mir zumindest auch schon mal den Arsch gerettet.
Aber Achtung: Bei dem Einspielen mit Hyper-Backup werden ALLE Datenbanken zurückgesichert.

Ich nutze hier z.B. MariaDB bzw. InfluxDB unter Home Assistant auch nur ausschließlich für HA und käme nicht wirklich auf die Idee diese Datenbank auch noch für div. andere Anwendungen zu nutzen.
Rein interessenhalber: wird denn die MariaDB / InfluxDB grundsätzlich benötigt? Oder ist das nur "optional" für das Logging der Daten?
 
  • Like
Reaktionen: plang.pl und Jim_OS

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
4.471
Punkte für Reaktionen
1.767
Punkte
214
Das plang.pl eh schon mehrere Datenbanken nutzt, oder genutzt hat, war ja schon mal ein richtiger Ansatz. Ich habe seine Postings hier nicht alle verfolgt, bzw. nicht mehr im Kopf. :)
Meine ganzen Container laufen nicht mehr richtig. Die mariadb ist im Eimer.
...
Der Inhalt dieser Instanz enthält 2 Jahre Arbeit. Da liegt ein Großteil meiner Dokumentation drin.
Scheinbar betrifft das dann nur eine MariaDB auf der besonders wichtige Daten sind/waren.

Bzgl. HA: Standardmäßig gibt es und wird von HA genutzt: SQLite Diese ist - ebenfalls standardmäßig - aber beschränkt was die Anzahl der Daten betrifft, oder genauer gesagt über was für einen Zeitraum Daten gespeichert werden.

In the default configuration, Home Assistant keeps a history of all the events and states for all the entities, for about 10 days. This data powers the History and the Logbook features. The data itself is stored by the Recorder integration, which by default writes it to a SQLite database file /config/home-assistant_v2.db.

Da man ja z.B. auch irgendwelche (Verbrauchs)Werte über einen längeren Zeitraum zurückverfolgen will, muss man dann auf eine andere Datenbanklösung wie z.B. MariaDB oder InfluxDB setzen. Wobei man müsste nicht unbedingt, aber bei größeren Datenmengen macht das Sinn. Abgesehen davon war SQLite unter HA auch mal sehr langsam - was inzwischen aber besser geworden ist.

Anm.: Ich hatte auch erst überlegt ob ich für HA dann eine bereits auf meiner DS laufende MariaDB nutzen sollte, mich aber dann dagegen entschieden, um weiterhin eine saubere Trennung zu haben. Gerade bei HA gibt es durch die monatlichen Updates teilweise so viele Änderungen, dass man die Daten (besser nicht) nicht auf verschiedene System verteilen sollte. So sehe ich das zumindest. Das ist z.B. auch ein Grund warum bei mir unter HA auch zusätzlich ein Mosquitto broker läuft und ich dafür nicht den Eclipse Mosquitto von meiner DS nutze.

VG Jim
 
  • Like
Reaktionen: maxblank und plang.pl

maxblank

Benutzer
Contributor
Sehr erfahren
Mitglied seit
25. Nov 2022
Beiträge
2.652
Punkte für Reaktionen
1.326
Punkte
224
@plang.pl: Ich weiß genau, wie es dir diesbezüglich jetzt ergeht. Habe diesbezüglich, beruflich und privat, in dem Bereich auch genug Lehrgeld bezahlt. Backup immer mal wieder testen, notfalls in einer separaten Umgebung.

Mir hat es vor kurzem eine Datenbank trotz zweifacher Backupkette (Duplicati und Veeam), die jeweils on- und offsite gelagert waren, weggerissen. Das Ganze auf einer ehrenamtlichen Stelle. Und warum? Weil ich mich zum Einbau einer beschissenen Intenso SSD wegen 15 Euro Ersparnis hab überreden lassen. Backup wurde übrigens einmal im Quartal geprüft und lief. So geht es manchmal. Alles Gute 🍀 für die Datenbank! 👍🏻
 
  • Like
Reaktionen: plang.pl und Jim_OS

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.414
Punkte für Reaktionen
5.033
Punkte
544
Da hab ich auch schon dran gedacht. So weit ersichtlich, ist da aber nix defekt.
Auch daran habe ich schon gedacht.
aber falls diese dann eine zentrale Datenbank nutzen ....
Tun sie ja nicht. Jede VM, die eine Datenbank braucht, hat eine eigene Instanz laufen.
Ja, auf dem Proxmox läuft inzwischen das Meiste im Produktivbetrieb. Da ich mehrere Backups am Laufen hatte, dachte ich, von sowas verschont zu bleiben. Die VMs an sich werden auf 2 verschiedene Weisen Bare-Metal gesichert. Zusätzlich eine Sicherung des docker-Shares via SMB und noch dazu ein SQL-Dump. Bringt einem halt alles nix, wenn die Quelle der Backups ein Problem hat. Warum die Dumps der DB nicht mehr liefen, weiß ich inzwischen. Und zwar ist der Befehl "mysqldump" in der neuesten MariaDB nicht mehr vorhanden. Man muss nun stattdessen "mariadb-dump" nutzen. Alle meine Dumps enthielten nur die Zeile OCI runtime exec failed: exec failed: unable to start container process: exec: "/usr/bin/mysqldump": stat /usr/bin/mysqldump: no such file or directory: unknown. Nach einiger Recherche fand ich heraus, dass dies an der neuen MariaDB und dem nicht Vorhandensein des commands liegt.
An und für sich waren keine Daten betroffen, die "überlebenswichtig" waren (Dokumente, Persönliche Fotos, etc), zum Glück. Es hat meine "Ideensammlung und Dokumentation" getroffen. So würd ich es grob beschreiben. Wär halt auch sehr ärgerlich, wenn das alles weg wäre.
z.b. mehr Speicherplatz vergeben als dein Host zur verfügung stellt?
Nein. Ich habe weder RAM noch ROM überprovisioniert.
Das umfasst die Prüfung,
Genau daran scheiterte es. Ich hatte lange nicht mehr geprüft, ob die Backups richtig laufen.

Jedenfalls schon mal Danke für die "Anteilnahme" :)

Ich hatte Donnerstagnacht erst mal die Schnauze voll von der Technik. Deshalb hab ich mir übers WE nen Kurztrip gegönnt und habe mich gerade wieder an den PC gesetzt. Wie es sich herausgestellt hat, war das eine gute Idee: Jetzt gerade hab ich ein Bare-Metal-Backup vom 8.8. wieder starten können. Auch ein Dump der wichtigsten SQL-DBs ist mir gelungen. Ob ich daraus nun alles wiederherstellen kann, wird sich zeigen.
 

Benie

Benutzer
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
6.156
Punkte für Reaktionen
2.132
Punkte
279
Freut mich für Dich weiter gekommen zu sein. Nachdem die letzten beiden Tagen nichts von Dir zu lesen war habe ich schon das schlimmste befürchtet. 😊
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.414
Punkte für Reaktionen
5.033
Punkte
544
Die wichtigsten Container und Datenbanken sind mit Stand vom 08.08. wieder online:
Screenshot 2023-08-13 145320.png

Dank docker-autocompose (welches im Gegensatz zum DB-Dump korrekt lief) musste ich, nachdem die mariadb wieder online war, lediglich per docker-compose die Container wieder erstellen. Fertig. Bei redmine hat das nicht funktioniert. Weiß aber nicht warum. Hab den nach bestem Wissen komplett neu erstellt. So wie es aussieht, is aber alles da. Naja ist nur ein bisschen Arbeit futsch. Ich werde jetzt erst mal das ganze Backup-Konzept bei mir prüfen.
Hier noch 2 Screenshots, die ich gemacht hatte, bevor die mariadb am Donnerstag komplett abgeraucht ist:
2.png

3.png


P.S. Das Dumpen via phpmyadmin funktioniert mit der mariadb ab 11.0.1 auch nicht mehr!
 
  • Like
Reaktionen: maxblank und Benie

Jim_OS

Benutzer
Sehr erfahren
Mitglied seit
05. Nov 2015
Beiträge
4.471
Punkte für Reaktionen
1.767
Punkte
214
Ich hatte Donnerstagnacht erst mal die Schnauze voll von der Technik. Deshalb hab ich mir übers WE nen Kurztrip gegönnt
Das ist immer mal wieder das Beste was man dann tun kann/sollte, sprich - sofern möglich - das Thema/Problem erst einmal auf später verschieben. :) Zum Glück geht es hier bei unseren Spielereien ja um ein "Homelab" und nicht um ein Produktivsystem in einer Firma/Behörde. Daher könnten wir uns den Luxus leisten auch mal die "Schnauze voll zu haben" und der Baustelle für ein paar Tage den Rücken zukehren. :LOL:

Das wird schon. ;)

VG Jim
 

iony

Benutzer
Mitglied seit
14. Sep 2023
Beiträge
1
Punkte für Reaktionen
0
Punkte
1
Hallo Leute,
habe nun alles mit docker versucht komme aber nun garnicht mehr klar. Problem ist das ich die image für Cloudflare (DDNS) nicht zum laufen bekomme. Könnt ihr mir helfen?
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.661
Punkte für Reaktionen
774
Punkte
154
Was hast du denn genau probiert? Welchen Fehler bekommst du? So ohne Informationen kann man dir nicht helfen. Ich würde dir empfehlen einen eigenen Thread für zu öffnen.
 
Zuletzt bearbeitet:

Holger1974

Benutzer
Mitglied seit
16. Jul 2016
Beiträge
618
Punkte für Reaktionen
21
Punkte
44
Konfiguriert das so wie oben zu sehen ist und speichert. Der Token wird nur ein einziges mal angezeigt. Also kopieren und gut sichern! Wenn der verloren geht, dann muss man einen neuen Token erstellen.
Mit diesem Token können wir jetzt unsere docker-compose erstellen und es updaten lassen.
@alexhell: Vielen Dank für die gut erklärte Vorgehensweise, ich habe das mit den Nameserver-Einträgen bei Cludflare hinbekommen, der Token wurde erstellt (und abgespeichert) Die Docker-Compose-Datei ebenfalls, entsprechend angepasst. Da sage ich schon mal Danke.

Hier beginnenn meine weiteren Fragen:
1) welchen Namen und Endung muss diese Docker-Compose erhalten?
2) wie kann ich diese updaten, über meine Synology-NAS? Wie muss ich da jetzt vorgehen?

Nachtrag: Das mit dem Skript habe ich hinbekommen, man kann es als yml. im Container-Manager hochladem, Projekt ist erstellt und es gibt 4 Container.
 
Zuletzt bearbeitet:

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.414
Punkte für Reaktionen
5.033
Punkte
544
Homenet.png

So sieht es aktuell aus.
Was ist neu:
-Debian Tor Router (Video) mit dahinter hängender pfsense, worum wiederum ein Kali-Linux "angeschlossen" ist -> noch nicht ganz fertig
-alle Docker-Hosts lassen sich nun zentral an einem Portianer verwalten (mittels Portainer Agent)
-Uptime Kuma und syslog-NG + Gotify als Docker in Benutzung (noch nicht ganz fertig)
-Stirling PDF und Cyberchef als Docker
-glances auf allen VMs / Geräten (würde ich als besseres htop via Web-UI bezeichnen)
-Proxmox Backup Server am 2. Standort (als VM auf der 218+. Genauso installiert wie die VM auf der 720+)
-alle Backup Konzepte wurden geprüft, verbessert und korrigiert, damit kein Super-GAU mehr eintritt
->Backups werde ich in Zukunft irgendwie mit syslog-ng überwachen und bei Fehlern mich per gotify benachrichtigen lassen

Die Basteleien machen nach wie vor Spaß und ich bin immer noch begeistert von Proxmox und den Lenovo Tinies. Die Tage gab es wieder einen "Zwischenfall" - eine Node des Proxmox Clusters war teils nicht erreichbar. Und wenn, dann konnte man nicht wirklich etwas auf der Web UI tun. Ich dachte schon, dass eine SSD einen Schaden hat. Diverse Neustarts halfen nicht. Nach einiger Recherche und ssh-Frickelei fand ich heraus, dass es an dem NFS-Storage auf der DS liegt. Irgendwie wurde der Zugriff immer wieder getrennt, während die Node 2 keine Probleme hatte. Ich führte daraufhin mal wieder einen Kaltstart der gesamten Infrastruktur durch - Proxmox-Hosts, DS und Switche + FritzBox -> danach lief es wieder einwandfrei.
Wie auch immer, die Leistungsgrenze ist tatsächlich immer noch nicht erreicht:
DS720+
1.png

DS218+:
2.png

So sieht es auf dem Proxmox-Cluster aus, wenn alle Maschinen außer einer Test-VM und dem Honeypot laufen (der Honeypot benötigt extrem viel Ressourcen und läuft daher nur selten mal, wenn ich halt Bock hab):
3.png
Die Speicherplatzanzeige stimmt nicht. Da wird der NFS-Share der DS doppelt gerechnet (weil einmal in PVE und einmal in PBS eingebunden).
Nach meinen Berechnungen ist auf der Node 1 so viel Speicher an die VMs alloquiert, dass noch insgesamt auf 410 GB auf der nvme + SATA SSD minimal frei sind. Bei der Node 2 sind es noch mindestens 180 GB.

Wenn "Normalzustand" herrscht, also die Testmaschinen und Projektmaschinen nebenbei nicht laufen, sondern nur die Maschinen für den Alltagsbetrieb, sieht es noch entspannter aus:
4.png
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.291
Punkte für Reaktionen
3.762
Punkte
414

Anhänge

  • 1696942487796.png
    1696942487796.png
    54,4 KB · Aufrufe: 9
  • Like
Reaktionen: maxblank

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.414
Punkte für Reaktionen
5.033
Punkte
544
Wo hast du da nen Honeypot am Laufen?
Ich spreche von dem T-Pot. Das ist eine VM. Unter 8GB RAM geht da nix. Und 2 vCores des i5-9400T sind da bei 30-60% Auslastung, wenn der läuft.
 
  • Haha
Reaktionen: ctrlaltdelete

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.661
Punkte für Reaktionen
774
Punkte
154
Cyberchef als Docker
Oh das sieht sehr interessant aus. Muss ich mir auch mal einrichten. Danke dafür.
Gotify als Docker in Benutzung
Hast du dir mal Ntfy angeguckt? Ich bin vor kurzem von Gotify drauf umgestiegen und ich finde das um einiges besser. Man kann auf jedem Gerät einzelne Topics abonieren und nur diese Notifications bekommen. Man kann auch einzelne Tops stumm schalten. Gefällt mir wirklich gut.

Ich teste aktuell Immich als Synology Photos Ersatz. Und bis jetzt finde ich es super. Macht einen sehr guten Eindruck und besser als Synology Photos. Ich teste es jetzt ca. einen Monat mit dem selben Datenbestand und entscheide mich dann.
 
  • Like
Reaktionen: plang.pl

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.414
Punkte für Reaktionen
5.033
Punkte
544
Oh ja - muss ich mir auch mal ankucken. Hört sich interessant an.

Von Immich habe ich auch schon gehört. Steht aber weit unten auf meiner Liste. Ich verwende auch Photos nicht wirklich. Ich bin da oldscool und schaue meine Fotos lieber mit dem Explorer in der Ordnerstruktur durch.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat 

 
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten. Dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit hohem technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive Werbung und bemühen uns um eine dezente Integration.

Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.

Du kannst uns auch über unseren Kaffeautomat einen Kaffe ausgeben oder ein PUR Abo abschließen und das Forum so werbefrei nutzen.

Vielen Dank für Deine Unterstützung!