Empfehlung Server Hardware?

s-g

Member
Registriert
27 Mai 2011
Beiträge
837
Hallo Zusammen,

es geht zwar nicht um Hardware von Lenovo, aber ich könnte mir vorstellen, dass einige hier trotzdem einschlägige Erfahrung haben :)

Aktuell läuft bei mir ein Homserver mit Atom J3710 CPU und 8 GB RAM, der langsam etwas schwach auf der Brust wird. Nextcloud könnte schneller sein und der RAM ist öfters kurz vorm Überlaufen.

Einsatzzweck: Hausautomation Nextcloud, Medienserver, VPN, … fast alles via Docker in Containern.
Da der Server 24/7 durchläuft ist der Stromverbrauch mit die höchste Prio. Alles über 15 Watt Idel ist nicht akzeptabel, besser unter 10 Watt.

Bisherige Varianten:

Konservativ: Intel N100 (AsRock hat da ein nettes Board). Dürfte für die Basic-Anforderungen ausreichend Leistung haben, und ist eine sichere Bank was die Leistungsaufnahme angeht.

Am Interessantesten: Mainbord mit Integrierter Notebook-CPU:
https://de.aliexpress.com/store/group/12th-Generation/1102565325_40000003422851.html
Die I5-Variante dürfte dicke ausreichen und auch Headroom für Experimente bieten (Spaghetti Detecitve/Obico für den 3D Drucker wäre sowas). Da Notebookhardware sollte der Stromverbrauch überschaubar sein, ich tue mich aber schwer das bei der China-Hardware einzuschätzen. Hier würden mich Erfahrungen/Gedanken am meisten interessieren.

Unrealistisch: Klassischer PC mit kleinem i3/i5/r5. Scheitert wahrscheinlich am Stromverbauch.

Grüße
Alex
 
Ok, so richtig traditionelle Server-Hardware ist das ja eh nicht. Ich würde Mal zu Framework schauen, da bekommst du ein ordentliches Mainboard zum günstigen Preis, kannst das über usb-c laden, brauchst also kein großes Netzteil, sonst soweit alles audrüstbar. Ist natürlich die Frage, wie weit du mit dem Speicher kommst. Passendes Gehäuse könntest du drucken (hast ja einen 3d Drucker) oder kaufen.
 
Zum Server wird, was man zum Server macht ;)
Die Frameworks sind eine Nette Idee. Eine Ecke teurer als das China-Zeug, aber vertrauenswürdiger...
Gibt es eine elegantere Lösung, das ~ 5-6 SATA-Platten dran zu hängen? Bin mir nicht sicher, was ich von einem USB-Hub mit einer entsprechenden Anzahl an Adaptern halten soll...
 
Klassischer PC mit kleinem i3/i5/r5. Scheitert wahrscheinlich am Stromverbauch.
... ist aber wahrscheinlich die preiswerteste Lösung.
Was der mehr an Strom verbraucht, holst Du allemal dadurch rein, daß sowas praktisch nichts kostet.
Nachhaltig isses auch, weil Du so ein Gerät vor dem Wertstoffhof bewahrst und kein neuer PC für Dich produziert werden muss ;-)

Wenn Du hier im Forum mal lieb fragst, wirst Du möglicherweise passende Angebote für aufgerundetes Porto kriegen...

MoBos haben ja normalerweise 4 SATA-Anschlüsse, wesentlich mehr Platten wirst Du auch in normalen Tower-Gehäusen nicht thermisch sinnvoll unterbringen können, der Rest dann über USB, Firewire oder eSATA.
 
Zuletzt bearbeitet:
Hm, ok, bei 5-6 Sata-Platten wirds natürlich schwierig, da sind vmtl. die sketchy China-Mainboards besser, wobei da fraglich ist, ob und wie die Sata-Platten angebunden werden können - und da brauchst auf alle Fälle auch ne PCI-Erweiterungskarte, da sind normalerweise auch nur 4 Stück drauf. Ich weiß auch nicht wirklich, was ich davon halten soll. Mir sind das zu viele Adaptergeschichten übereinander. Hier gibts z.B. ein Video dazu:
(wobei es hier der einzelne Prozessor ist). Am Ende steht man hier halt mit jeglichem Support im Regen - eine größere Sicherheitslücke - und es hat sich damit.

Bei dem Framework hat man mehr oder minder 1 NVME-Steckplatz & das wars - was direkte Anschlüsse für Festplatten angeht. Den Rest müsste man halt über USB/Thunderbolt - Festplattengehäuse regeln. Gibt auch andere Möglichkeiten, das ist dafür aber auch nur so semioptimal: . Und du bräuchtest halt nochmal ein extra Netzteil.


Konservativ: Intel N100 (AsRock hat da ein nettes Board). Dürfte für die Basic-Anforderungen ausreichend Leistung haben, und ist eine sichere Bank was die Leistungsaufnahme angeht.


Das hier? https://www.asrock.com/mb/Intel/N100DC-ITX/

Da muss man auch aufpassen - da wirst du nochmal ein extra Gehäuse brauchen für die Festplatten.

Zum Stromverbrauch: Hier gibts ganz spannende Infos, inkl. einer umfangreichen Tabelle:

Und wenn ich die Tabelle (google) richtig interpretiere, bekommt man auch normale Prozessoren auf 10W - wahrscheinlich mit viel Konfiguration.
 
  • Like
Reaktionen: s-g
Und wenn Du dir solch ein System mit N100 direkt vom großen Fluss holst : https://www.amazon.de/dp/B0C7QC1B4N ?
Gemäß den Rezensionen scheint es wirklich ein vorinstalliertes W11 Pro zu haben (Welches bei diesem Anbieter auch legal sein dürfte :D...) und ist gleich mit 512er SSD und 16 GB RAM ausgestattet .
Zudem ist das System wohl passiv gekühlt und verbraucht nur ca 6W im Idle (Wenn die Übersetzungen aus dem Spanischen korrekt sind ...).
Da Du bislang mit einer Celeron 3xxx CPU unterwegs bist dürfte die N100 eine Offenbarung für dich sein (Bei ähnlichem Stromkonsum !),allein wregen der mittlerweile verbauten Video-Codecs.

Gruss Uwe
 
Alles über 15 Watt Idel ist nicht akzeptabel, besser unter 10 Watt.
Die Platten betreibst du mit Luft und Liebe?
Dein 15W-Budget fressen allein die 6 2,5"-Platten auf (über 3,5" brauchen wir gar nicht anfangen nachzudenken).

Bin mir nicht sicher, was ich von einem USB-Hub mit einer entsprechenden Anzahl an Adaptern halten soll...
...am besten Abstand.
Über USB hast du keine volle ATA-Kommandokompatibilität. Ob SMART (sinnvoll) funktioniert ist bestenfalls Glückssache.


MoBos haben ja normalerweise 4 SATA-Anschlüsse,
Ja. Aber (µ)ATX-Boards mit mehr Ports zu finden ist kein Problem. 6 Ports schränken die Auswahl nur unwesentlich ein und auch 8 Ports sind ohne Kopfschmerzen machbar.

wesentlich mehr Platten wirst Du auch in normalen Tower-Gehäusen nicht thermisch sinnvoll unterbringen können,
Ich sitze gerade an einem PC mit fünf 3,5"-HDDs im RAID6, die alle direkt übereinandersitzen und nur leicht von einem 14cm-Lüfter angesäuselt werden. Die Last ist gerade gering. Keine der Platten hat mehr als 35°C. Wenn ich sie richtig quäle, sehe ich auch mal 40°C.
Ich sehe thermisch überhaupt kein Problem darin, in einem Tower 10 oder mehr HDDs zu betreiben. Da wird eher die Mechanik der Gehäusekonstruktion zum Flaschenhals. Andere verbraten mit dicken GPUs mehr als ein halbes kW, auch ohne thermische Probleme. Mit 15W Budget geht das aber natürlich nicht.
Übrigens: Was man an elektrischer Leistung reinsteckt, kommt auch thermisch wieder raus - nicht mehr und nicht weniger.

der Rest dann über USB, Firewire oder eSATA.
USB s.o.! Firewire ist praktisch ausgestorben und wäre eh selbst in 1394b ein Flaschenhals.
eSATA ist protokolltechnisch solide. Aber auch der Standard ist am Aussterben. In 5 Jahren noch einen Host-Controller zu bekommen sollte kein Problem sein, aber bei einem HDD-Gehäuse wäre ich schon skeptisch.
 
Wie gross sind die Platten (Speicherkapazität, nicht Zoll) und könnte man sie nicht durch drei Platten mit höherer Kapazität ersetzen?
 
Spannend das das Thema bei vielen so aktuell ist. Hab mir da in der letzten Zeit auch was zusammen gestoppelt, allerdings plattenmäßig deutlich größer da mehr damit geplant.
Ich hab mich mal durch diese Liste von Hardwareluxx gegraben und was passendes für mich gefunden. Ich kann dir auch dieses Video von Wolfgangs Channel ans Herz legen, da erklärt er wie er einen Homeserver mit 23W Idle hinbekommt (10G Nic ist das Problem das es nicht niedriger geht!

Ich selbst hab mir einen Raid Controller geholt um meine in summe 13 Platten zu betreiben und damit geht mein system leider nicht niedriger als C3 in Powertop (bei den Paketen), das ist aber leider nicht wirklich zu ändern, außer ich schmeiße die Karte raus. (Nicht persönlich getestet aber alles im Internet und ein wenig auch das Video deuten recht eindeutig in diese Richtung).

Wichtig ist auf jeden Fall das man sich anschaut was für Komponenten man verbaut, da auch manche SSDs (wenn recht billig) die höheren C-States (= niedrigerer Verbrauch) verhindern können.
Und nicht vergessen ins BIOS zu schauen und dort alles zu aktivieren was geht, ich bin erst gester drüber gestolpert das ich das alles übersehen habe in meinem BIOS 🙈

Abschließend noch der Sammelthread auf HWLuxx, da ist sicher auch einiges an Inspiration zu finden :)
 
Ich nutze ein fujitsu Mainboard für sowas. Das sind Boards sehr guter Qualität und auch stromsparend ausgelegt. Kann man schön an der Platine erkennen, dass da nicht viel Zeug drauf ist.
Viele Sata ports hats auch, genauso dual lan.

Gab mal Artikel Heise(?) darüber, wie man mit Boards dieses Herstellers einen 5w(?) Idle Server aufbaut.
 
Wenn man auf die von mir verlinkte Liste schaut wird man da fast ausschließlich Fujitsu an der Spitze sehen, die sind also auf jeden Fall recht sparsam. Ich hab mich aber dagegen entschieden weil sehr viele davon einen propraitär PSU Anschluss haben und ich was "handelsübliches" verwenden wollte.
 
Bzgl Stromverbrauch auch auf die 'total cost of ownership' im Blick behalten:

Einkaufapreis der Hardware plus Betriebskosten (Strom) über die zu erwartende Laufzeit (2 Jahre, 3 Jahre?). Bei letzterer muss man ehrlich sich selbst gegenüber sein. Nerds wie wir tauschen gerne eher früh/oft...
 
Bzgl Stromverbrauch auch auf die 'total cost of ownership' im Blick behalten:

Einkaufapreis der Hardware plus Betriebskosten (Strom) über die zu erwartende Laufzeit (2 Jahre, 3 Jahre?). Bei letzterer muss man ehrlich sich selbst gegenüber sein.
Das ist wohl wahr, das ist auch der grund warum ich ein 6th gen MoBo gekauft habe das nach BIOS Updates auch 7th gen unterstützt, gebraucht und "günstig" auf ebay und auch der Rest war entweder gebraucht oder auf Ali. Mit Außnahme der Platten, da wollte ich nichts riskieren.
Nerds wie wir tauschen gerne eher früh/oft...
Da bin ich mir nicht ganz so sicher wenn ich mir anschaue mit was für Thinkpads hier manche noch arbeiten 😂
Aber grunsätzlich ist das natürlich richtig und da sollte man sich bei der eigenen Nase nehmen.
 
Ich selbst hab mir einen Raid Controller geholt um meine in summe 13 Platten zu betreiben ...
Ist das gewerblich? Es fällt mir schwer, mir für den privaten Bereich ein Szenario vorzustellen, bei welchem man 13 Platten im Betrieb hat (ohne die Platten im Tresor und im Schrank).
 
Ist das gewerblich? Es fällt mir schwer, mir für den privaten Bereich ein Szenario vorzustellen, bei welchem man 13 Platten im Betrieb hat (ohne die Platten im Tresor und im Schrank).
Nein das ist einfach nur Größenwahn 😅
Aber ich brechs kurz runter:
  • je 5 WD Red HDDs in einem raidz2 zfs pool, einmal für NAS, einmal für Backups von Geräten zuhause (PC, Laptops) und Datan vom NAS
  • zwei WD Red SSDs in einem mirror zfs pool für meine podman container und VMs
  • und zu guter Letzt noch eine WD Red M.2 SSD als Boot-Platte fürs OS
Ich wollte ein bisschen was ausprobieren und außerdem mein 2-Bay (2x3TB) NAS das auf meinem Schreibtisch steht ablösen, sowie mein PiHole vom Raspberry Pi 3B+ als container auf das ding bringen und noch anderes ausprobieren.
 
  • je 5 WD Red HDDs in einem raidz2 zfs pool, einmal für NAS, einmal für Backups von Geräten zuhause (PC, Laptops) und Datan vom NAS
D.h., das Backup, welches das NAS sichert, hängt am selben Controller und damit im selben Rechner wie das NAS selbst? Falls ich das richtig verstanden habe, würde ich dieses Backup überdenken.
Nicht, dass es völlig sinnlos wäre, aber die Kosten die dieses Backup verursacht (sowohl in Anschaffung als auch Betrieb) wären für mich nicht durch die vergleichsweise geringe Sicherheit gerechtfertigt, die es bietet.

  • zwei WD Red SSDs in einem mirror zfs pool für meine podman container und VMs
  • und zu guter Letzt noch eine WD Red M.2 SSD als Boot-Platte fürs OS
Hast du in Erwägung gezogen, diese beiden Punkte zu vereinen, und das Host-OS mit auf den Mirror zu packen? Das hat ja im Prinzip die gleichen Anforderungen (Performance, Ausfallsicherheit) wie die VMs und du würdest einen Datenträger sparen.
 
D.h., das Backup, welches das NAS sichert, hängt am selben Controller und damit im selben Rechner wie das NAS selbst? Falls ich das richtig verstanden habe, würde ich dieses Backup überdenken.
Das ist richtig und nicht optimal, aber für meine Zwecke reicht das aus. Ich habe auch noch ein "offsite-backup" auf der ToDo-Liste stehen, wenn ich dann mal so weit bin :)
Nicht, dass es völlig sinnlos wäre, aber die Kosten die dieses Backup verursacht (sowohl in Anschaffung als auch Betrieb) wären für mich nicht durch die vergleichsweise geringe Sicherheit gerechtfertigt, die es bietet.
Jetzt bin ich aber doch neugierig was genau du mit "vergleichsweise geringe Sicherheit" meinst. Wie gesagt, nicht optimal aber aktuell sehe ich kein akutes Problem damit.
Hast du in Erwägung gezogen, diese beiden Punkte zu vereinen, und das Host-OS mit auf den Mirror zu packen? Das hat ja im Prinzip die gleichen Anforderungen (Performance, Ausfallsicherheit) wie die VMs und du würdest einen Datenträger sparen.
Hab ich in Erwägung gezogen aber für mich hat das eigentlich nicht die gleichen Anforderungen wie die VMs 🤔 Allerdings muss ich mir noch ansehen wo der zfs masterkey aufbewahrt wird den ich mit einer passphrase "entsperre", der müsste am host OS zu finden sein und der wäre vermutlich doch wichtig.
Sonst hab ich alles dokumentiert und die container images die ich plane dort abzulegen kann man ja wieder runterladen.

Außer ich hab mal wieder was offensichtliches übersehen 😂
 
Jetzt bin ich aber doch neugierig was genau du mit "vergleichsweise geringe Sicherheit" meinst.
Deine Arbeitsdaten und das Backup haben die selben Single Points of Failure:
Defekt des RAID-Controllers, "unkritischer" Ausfall des ganzen Rechners unter Erhalt der Daten (z.B. Mainboardausfall), "kritscher" Ausfall samt HDDs (z.B. Überspannung in Folge von Blitzschlag)

Auch ein On-Site-Backup würde ich immer physisch von den Arbeitsdaten trennen. Das schützt das Backup einerseits vor Ausfall des Rechners mit den Arbeitsdaten und ermöglicht es dann außerdem, praktisch ohne Downtime auf das Backup von einem anderen Rechner aus zuzugreifen.

Hab ich in Erwägung gezogen aber für mich hat das eigentlich nicht die gleichen Anforderungen wie die VMs 🤔
Nun, ohne Host keine VMs.
Anders als beim Backup am selben Controller halte ich es aber nicht für einen Fehler, das Host-OS auf einem eigenen Datenträger laufen zu lassen. Das ist reine Präferenz.
 
Deine Arbeitsdaten und das Backup haben die selben Single Points of Failure:
Defekt des RAID-Controllers, "unkritischer" Ausfall des ganzen Rechners unter Erhalt der Daten (z.B. Mainboardausfall), "kritscher" Ausfall samt HDDs (z.B. Überspannung in Folge von Blitzschlag)

Auch ein On-Site-Backup würde ich immer physisch von den Arbeitsdaten trennen. Das schützt das Backup einerseits vor Ausfall des Rechners mit den Arbeitsdaten und ermöglicht es dann außerdem, praktisch ohne Downtime auf das Backup von einem anderen Rechner aus zuzugreifen.
Das ist wohl wahr, aber da die Kiste schon zusammengebaut ist, ist das jetzt erstmal so. Zumal der Raid-Controller in dem Falle nur "durchreicht", der ist im IT-Mode geflasht und tut selber nichts. Aber klar, wenn der abraucht dann ist auch erstmal schicht im schacht.

Mit ist bewusst das das auch ein gewisses Risiko birgt die Kiste so zu betreiben. Allerdings hab ich aktuell nur ein 2-Bay NAS das auch randvoll mit zeug ist wo garkeine Backups drauf sind. Aus meiner Sicht ist das also eine deutliche Verbesserung, wenngleich sich da sicher noch was optimieren lässt.
Nun, ohne Host keine VMs.
Anders als beim Backup am selben Controller halte ich es aber nicht für einen Fehler, das Host-OS auf einem eigenen Datenträger laufen zu lassen. Das ist reine Präferenz.
Ich hab da ein bisschen überlegt und mich schlussendlich dazu entschieden. Host neu installieren und dann zpool wieder zu importieren dürfte nachdem was ich im Internet so gefunden habe kein allzu großes Problem darstellen.
 
Da ist ja einiges zusammen gekommen :)

@Aiphaton: Vieln dank für den verlinkten Thread+Liste, die muss ich mir mal in Ruhe zu Gemüte führen.
Bin als Referenz im Stromverbrauch vom meinem Desktop mit R7-2700 ausgegangen, und der liegt idr. bei über 50W. Da wäre dann noch gut Luft nach unten... Gut, da dürfte die RTX2060 auch noch einiges ausmachen, die könnte ersatzlos wegfallen (bzw. iGPU, damit die Installation und Worst-Case Service etwas angenehmer sind, ansonsten läuft ein headless Debian).
Und ja, exakt das ASRock Board.

Gehäuse/Temperatur ist kein Problem, da schon vorhanden.
Solange im neuen Board ein PCI-Slot vorhanden ist, sollte die Anzahl Ports auch kein Problem sein, PCI auf SATA gibt's doch mit fast beliebig vielen Ports...
20 sollten reichen
(noch nicht vorhanden, noch reichen die internen SATA-Ports, mittelfristig wird's aber ein RAID 5 + ein oder zwei SSDs).

Wenn die HDDs im Spin-Down sind, ist das auch kein Hindernis für unter 15W IDLE. Klappt jedenfalls aktuell mit 2x 3,5 + 2x SSDs. Unter Last ist der Verbrauch (fast) egal. Performance der HDDs ist auch zweitrangig, dafür sind die SSDs da.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben