UGREEN NASync - Konkurrenz für Synology?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

@Benie

Also frisch installiert lässt sich Docker nicht finden, aber die App der DH4300Plus lässt sich installieren:

1761244347138.png

1761244283394.png

Wo ich ja bisher noch nicht so ganz durchsteige, irgendwie hat jede Kiste ihre eigene "aktuelle" UGOS Version? :unsure:
Für meine DH2300 scheint 1.10.0.0108 aktuell, DH4300Plus 1.10.0.0109, wirklich die aktuellste Version scheint wohl 1.10.0.0112?
 
Da ist diesesmal wohl etwas mit dem Kernel und dem Firmwareupdate schief gelaufen. Deshalb kam es vermutlich zu unterschiedlichen Update Nr. aber das gast Du richtig erkannt, 1.10....12 ist die aktuellste.
Es kann natürlich sein, daß sich zwischen den DH Modellen und DX? Modellen mal Unterschieder aufgrund der unterschiedlichen CPU ergebem. DH hat ja die arm CPUS während DXP die Intel CPUs hat.

Daß die Dockerversion der DH4300 sich installieren lies, freut mich. Die Dockerapp ist definitiv besser als der Containermanager.
Hier kannst Du auch über Projekt den Container mit einer yaml und auch env installieren und später ähnlich wie mit Portainer Änderungen einfliesen lassen. Aber eben nur wenn über Projekt installiert wurde.
Es wird Zeit, daß Du auch im UGREEN Forum aufschlägst. :rolleyes:
 
Die Pro soll etwas performanter sein, wie die Plus.
 
Nachdem man bei Synology nichts für meine Use-Cases bekommt und ich viel mit KI zu tun habe, habe ich auch zugeschlagen. Grafikkarte steht mit Oculink-Adapter auch schon bereit. Wobei man hier nochmal betonen sollte, dass der Kickstarter-Launch ein ziemlicher Affentanz gewesen ist. Man könnte jetzt vielleicht aber auch unterstellen, dass die künstliche Verknappung bewusst gewählt wurde, um den Braten heiß zu halten. Mal sehen wann das Gerät dann hier eintrifft.
 
  • Like
Reaktionen: Benie
ziemlicher Affentanz gewesen ist
Das kann man laut sagen.

Aber für das, was die iDX kostet, lohnt sich das schon. Der einzige Punkt ist der auf 64 GB begrenzte RAM. Ich hätte mit meiner N5 schon diverse Tests durch mit lokalem Ollama, von daher könnte das mit entsprechender Datenbasis und drumrum mit VMs und Docker usw. schon mal eng werden.

Aber mal sehen. Erst mal testen und UGOS nochmal eine Chance geben.
 
Eine Grafikkarte ist in Sachen KI-Berechnungen potenter als eine CPU - auch wenn diese zusätzlich einen KI-Core hat. Im Normalfall laufen die LLMs auch im VRAM und nicht im regulären RAM, der für die CPU genutzt wird. Unabhängig davon: Die 96 TOPS die von UGREEN geliefert werden sind da halt Pipifax. Meine, wenngleich auch schon betagte, GeForce RTX 4080 geht hier auch schon in Richtung 800 TOPS. Damit macht es dann auch schon Sinn erweiterte KI-Serveranwendungen selbst zu hosten, wo man sonst ein kostenpflichtiges LLM buchen würde. An der Stelle habe ich auch einfach gerne die Datenhoheit.
Für die Zwecke habe ich mir aber eine separate Grafikkarte (RTX 5060 Ti 16GB) zugelegt.

P.S.: Die Grafikkarte braucht kein Monitor. Du kannst das obige Konstrukt auch an einen Laptop ranpimmeln und dann über LM Studio die KI lokal nutzen.
Am Ende bleibt natürlich die Frage inwiefern UGREEN das Ganze mit den Treibern hinbekommt. Wenn das nichts wird, muss ich ein alternatives Linux auf das System raufklatschen.
 
Ja, überteuert. Gibt es auch für weniger Geld. Ich habe eins von aoostar. Minisforum hätte auch noch so etwas im Angebot.
 
und ich viel mit KI zu tun habe
Was hast Du für Anwendungsfälle, oder ist das mehr zum testen und schauen wegen der Datenmodelle?

Was mich nachdenklich macht, dass UGREEN neben Uliya noch "nur" qwen3 hinterlegt hat. Das Modell habe ich mit Ollama auf meiner N5 ohne Gedöns am laufen. Aber erst Ilama4 bringt gute Ergebnisse, aber mit entsprechend RAM, wo die iDX schon die Grätsche macht. Mir ist unklar, wie UGREEN qwen3 und Uliya kombiniert, dass da was gescheites rauskommt.
 
Ich habe diverse Software-Projekte am Laufen, die u.A. auch auf KI-Funktionen zurückgreifen - also die ich aktiv eingebaut habe.
Es existieren auch Schnittstellen zu den großen LLM, aber ich halte mir aktuell offen für den Use-Case die Kosten zu minimieren und hier einfach selbst zu hosten.
Unabhängig von KI ist es auch einfach schöner, wenn man auch für Video-Streaming (Plex) die Transkodierung über eine entsprechende Grafikkarte laufen lassen kann.
 
Vielleicht mal kurz zu meinem Projekt, was ich im Test habe

Ich habe mir auf der N5 die Synology AI Console eingerichtet und als Datenbasis dafür die Docker-Container Ollama und Open WebUI laufen und Open WebUI mit der AI Console verknüpft. Das läuft soweit auch ganz gut und man kann innerhalb der Synology Groupware diverse Inhalte abrufen oder erstellen lassen. Dockercontainer und Datenbasis sollte aber besser auf SSD / NVMe laufen.

Soweit, so gut, spannend wird es nun aber mit der eigentlichen Datenbasis und verfügbarer RAM. Ich habe von Ollama zwei Pakete getestet, llama 3.2 mit ca. 2 GB Grösse und llama 4 mit 67 GB Grösse und es ist wohl überflüssig zu sagen, welches das rundere und ausführlichere Ergebnis liefert. Schon mal klar ist, wenn v3.2 aktiv nach Ergebnissen sucht, geht das schneller und braucht rund 6-10 GB RAM, ist nun v4 unterwegs, werden rund 65 GB RAM belegt.

Daher frage ich mich auch, wie das UGREEN mit dem Uliya zusammenbringt. Die kleinste iDX hat ja "nur" 32 GB und die 64 GB in den anderen iDX und auch noch fest installiert, sind auch nicht unbedingt üppig, wenn man dann auch noch VMs und Dockercontainer usw. laufen hat, da Grösse des RAMs auch die Grösse und damit den Wissensumfang eines KI-Modells beschränkt. Es gibt von llama 4 auch KI-Pakete, die gestuft eine Grösse mit über 800 GB erreichen, dann fallen auch einige 100 GB RAM an, insofern steigt meinem Gefühl nach mit dem Bedarf an RAM auch die Qualität der Ergebnisse.

Und weil Du das mit Synology bemerkt hast. Die oben genannte AI Console funktioniert, aber das bei Synology noch mit +Modellen anpreisen zu wollen, ist vor dem obigen Hintergrund schlichtweg lächerlich. Ich habe ja mit dem N5 ein AI-NAS und damit und genug RAM gerade mal eine Basis, wenn man eigene KI-Daten verwalten will.
 

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat