Server für GROSSE DATENMENGEN

Ist die geplante Hardwarezusammenstellung Home Server tauglich?
Antworten
GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 24. Apr 2014, 10:35

Hallo
Wie einige von Euch sicher mitbekommen haben, hatte ich bisher mit meinem WHS2011 sehr sehr wenig glück, auch wenn Larry und besonders Nobby mit viel Mühe versucht haben, mir unter die Arme zu greifen und die Probleme im Griff zu bekommen. Trotz aller Bemühungen hatte ich jetzt schon wieder einen DB Crash sodass alle Sicherungen verloren gingen. Selbst Nobby konnte allerdings nicht nachvollziehen, warum die DB fehlerhaft war da sie laut den gesammelten Angaben keine Fehler aufwies. Der Server verliert einfach laufend die Sicherungseinstellungen und dann geht es damit bergab.

Hier nochmals die Threads, falls jemand nachlesen möchte
viewtopic.php?f=72&t=20211
viewtopic.php?f=72&t=21738

Vermutlich ist die Kombination, die ich einsetze, nicht so geeignet: Großer Backupbedarf durch Clients (6-8 TB), WHS2011 und DriveBender wollen einfach nicht sauber zusammen arbeiten. Der WHS v1 lief dagegen über Jahre hinweg immer ohne Probleme bei diesen großen Datenmengen (hatte am Ende 12 TB an Clientsicherungen verwaltet). Leider kann ich den WHS v1 ja wegen kompletten Umstieg auf Win 8 Maschinen gar nicht mehr nutzen.

Ich habe mir, wie auch andere hier mir empfahlen, ebenfalls bereits versucht professionelle Hilfe zu holen. Es gibt hier in der Gegend zwar einige Dienstleister im Bereich Netzwerktechnik die sich auch mit Windows Server gut auskennen, allerdings überfordert alle schlichtweg die Datenmengen, die ich hier Handhabe. Sie alle haben meistens mit maximal 5 TB Gesamtkapazität zu tun, während bei mir die Anforderungen erst ab 16 TB überhaupt starten. Jetzt dachte ich mir, vielleicht hat hier im Forum doch der ein oder andere Tipps für mich, in was für Richtung es denn gehen könnte, ohne gleich in die 100t EURs zu gehen für Servermaschinen speziell für Mediadatenbanken... (das Geld habe ich auch gar nicht).


Folgender Hintergrund

Ich betreibe eine Werbefilm-Agentur im Allgäu (mitten in der Pampa) und haben derzeit 5 bis später max 10 Clients, die laufend gesichert werden müssen. Das Problem ist, dass die Clients voll mit Videodaten sind, im Durchschnitt sind das dann ca. 50 - 100 GB Videodaten je Projekt (ca. 1 / Woche), die neu dazukommen. Allerdings wenns 4K Material oder RAW Video ist, geht das auch mal schnell hoch auf die 1,5-2 TB je Projekt. Derzeit z.B. verwalte ich gerade 1,4 TB an aktuellen noch offenen Projekten (der rest landet in den Archiven, wobei hier auch noch eine richtige Strategie fehlt).

Die meisten Daten befinden sich derzeit auf unserer Workstation, die anderen Clients greifen derzeit da per 1 GB Ethernet zu und müssen daher vorerst noch nicht gesichert werden, allerdings werden auf absehbarer Zeit immer mehr Projekte kommen die dann auf jeder Station (Client) direkt bearbeitet werden. Von einer Zentralisierung der Daten wurde, aufgrund der Instabilität des Servers und damit der Datenverlustgefahr, vorerst verzichtet. Zumahl eine entsprechende Backupstrategie von den Daten am Server erst entwickelt werden müsste (ich bräuchte also einen Backupserver für den Server + eine zweite Sicherung). Daher sind die Daten immer noch dezentral an der Workstation (Spiegelung stündlich auf int. Festplatten, Spiegelung täglich auf ext. Medien, Spiegelung täglich auf WHS v1, Archivierung via Crasplan und Zoolz (wobei der Upload in die Cloud total lahm ist), Archivierung gewünscht auf den WHS 2011)

Was wünsche ich mir

- Zentral verwalteter Backup von bis zu 10 Clients (was der WHS 2011 ja eigentlich prima lösen würde wenn er liefe)
- Archivierung von großen Datenmengen bis zu 1 Jahr zurück (weil ich immer wieder für ein altes Kunden Projekt zugreifen muss)
- stabile Sicherung von ca. 6-8 TB von der Workstation 1 sowie 6-8 TB von der Workstation 2
- den Server als Shares nutzen und dessen Daten alternativ z.B. auf den WHS v1 sichern für die Redundanz (via iScsi oder wie auch immer)
- den Speicher einfach und unkompliziert blockweise um 12-16 TB erweitern zu können (z.B. über ext. Raid Gehäuse via USB 3.0, Speed würde mir ausreichen)
- den Server auch als Remote Rendering-Maschine zu nutzen, wenn z.B. ein großes Projekt ansteht. Da lässt man den Server das Projekt vom Shares laden und dann 2 Tage durchrendern, ohne dass die Workstations belegt sind

Welche Lösung kommt für mich überhaupt in Frage?
Würde mich wirklich sehr über jeglichen Tipp freuen wie ich diese Sache in den Griff bekommen könnte. Gerne nehme ich auch Tipps entgegen wie ich die Daten zentraler verwalten kann (ohne Risiko von Datenverlust aber, weil der WHS hat mir derart oft das zeug vernichtet) und eine entsprechende Sicherung für den Server aufbaue.
Ggf. falls es Netzwerkprofis unter Euch gibt, auch die Frage wie ich denn meine Infrastruktur aufbauen soll und ob 10Gbit Cat7 Duplex-Leitungen für die Zukunft reichen oder ob ich eigentlich an Fibre Channel für SANs schon denken muss. Ich bin leider da überhaupt nicht versiert und wenn ich von SAN und Fibre spreche, haben die Netzwerkspezis hier vor Ort leider zu wenig erfahrung.

Wie gesagt, bei mir ist es leider eine sehr spezielle Situation, die ich aber gerne im Griff bekäme weil ich derzeit hier ohne wirklich redundante Backuplösung und Archivierung gerade arbeite, während dies beim WHS v1 noch alles super liefe...

Danke im voraus
Igor

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Benutzeravatar
Nobby1805
Moderator
Beiträge: 21217
Registriert: 6. Jun 2009, 17:40
Wohnort: Essen

Re: Server für GROSSE DATENMENGEN

Beitrag von Nobby1805 » 24. Apr 2014, 11:02

Hallo Igor,

damit ist auch meine bisher ungestellte Frage nach dem Hintergrund deiner Datenmengen beantwortet ...

Ich würde einen Server aufbauen und dort alle Daten ablegen, Basis dieses Servers könnte aus meiner Sicht ein WSE 2012 R2 sein. Die Sicherung der Daten würde ich entweder auf einem 2. Server (z.B. dem WHS 2011) oder einem NAS durchführen.

Wenn die Zugriffsgeschwindigkeit auf die Daten über das Netzwerk nicht ausreicht, kann man sich Gedanken über Caching auf den Clients machen (mit den modernen Server-Versionen wird dort einiges unterstützt ... aber da müsste ich mich auch erst mal schlau machen)

Auf externe RAID-Gehäuse und USB 3 würde ich verzichten ... der Server sollte in der Lage sein reichlich Platten zu unterstützen.

FiberChannel ist aus meiner Sicht nicht mehr State-of-the-art ... die Tendenz geht auch im professionellen Bereich in Richtung iSCSI

Gruß Norbert
WHS: Acer H340 mit 1x 1 TB (WD10EAVS), 3x 2 TB (2 WD20EARS und 1 ST2000DM001), PP3+UR2
5 Clients:
1 Intel i5-4670K, ASUS H87-PRO, 32 GB, 250 GB SSD, 2x 500 GB, Win 10 Pro x64 2004
1 Lüfterlos fürs Wohnzimmer, Intel Celeron N4100, 4 GB, 128 GB, Win 10 Pro x64 2004
1 AMD Ryzen 7 3700X, Gigabyte AORUS, 32 GB, Win 10 Pro x64 1909
1 Sony Vaio EB 2H4E, Win 10 Home x64 1909
1 Samsung NP-R540-JS09DE, Win 10 Pro x64 1909


WHSListTombstones, ein Tool zur Auflistung aller Tombstones
WHSDisks, ein Tool zur Darstellung und Prüfung der DriveExtender-Konfiguration
WHSDiskNames, ein Tool zur Änderung der Plattennamen in der Konsole
WHSBackup, Infos und Tool zur Backup-DB (2011-Version (auch für WSE2012))
Bitte schreibt bei Fragen und Problemen eure Konfig in die Signatur

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 24. Apr 2014, 12:00

Danke für die Infos Norbert... Ja eben das größte Problem sind diese Unmengen an Daten.

Die Zentrale Verwaltung über einen Server ist definitiv für später eingeplant, sobald der Serverraum fertig ist mit den 19" Schienen für die Rackmontage. Da gibt es ganz tolle HP Proliants mit vielen Einschüben... Allerdings wird das noch ein bissl dauern, da derzeit erst das neue Studio aufgebaut wird und das Budget hat laufend knapp ist.

Wie werden die extension HDDs bei solchen Rackservern miteinander verbunden, damit ich später auch die Datenmenge aufrüsten kann (denke so an 96 TB Endkapazität)

Danke für dne Hinweis wegen FibreChannel, dann werde ich erstmals darauf verzichten und ggf. die Hauptstränge 4x mit Duplex Kabel auslegen, um dort ggf. ein getrenntes Intranet nur für die Datenverwaltung aufbauen über eigene Switch zwischen Server A+B+C damit die großen Datenmengen nicht die normale Netzwerknutzung beeinträchtigen... geht es eigentlich, ein gemeshtes Netz aufzubauen oder die Server über 2 Netzwerke zu verbinden? Wie wird das Routing gemacht? Trunking & Link-Aggregation habe ich gehört, der Aufbau ist mir aber unklar

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Benutzeravatar
Nobby1805
Moderator
Beiträge: 21217
Registriert: 6. Jun 2009, 17:40
Wohnort: Essen

Re: Server für GROSSE DATENMENGEN

Beitrag von Nobby1805 » 24. Apr 2014, 12:23

Nur damit keine Missverständnisse aufkommen ...

Mit FiberChannel ist das Protokoll gemeint ... nicht die Verwendung von Glasfasern ... auch wenn du Ethernet 1G oder 10G verwendest kann die Verwendung von Glasfasern sinnvoll oder sogar notwendig sein (Entfernung, Potentialtrennung, etc.)

Die Trennung in Netzwerksegmente kann aus Security-Sicht sinnvoll sein, bei einem geswitchten Netz ist es aus Performancegründe nicht erforderlich ... es sein denn, du trennst zwischen einem Server-Netz und einem Client-Netz, dafür wäre dann die Voraussetzung, dass zumindest der Hauptserver 2 Netzwerkkarten unterstützt ... aber das ist bei den ProLiants alles kein Problem
WHS: Acer H340 mit 1x 1 TB (WD10EAVS), 3x 2 TB (2 WD20EARS und 1 ST2000DM001), PP3+UR2
5 Clients:
1 Intel i5-4670K, ASUS H87-PRO, 32 GB, 250 GB SSD, 2x 500 GB, Win 10 Pro x64 2004
1 Lüfterlos fürs Wohnzimmer, Intel Celeron N4100, 4 GB, 128 GB, Win 10 Pro x64 2004
1 AMD Ryzen 7 3700X, Gigabyte AORUS, 32 GB, Win 10 Pro x64 1909
1 Sony Vaio EB 2H4E, Win 10 Home x64 1909
1 Samsung NP-R540-JS09DE, Win 10 Pro x64 1909


WHSListTombstones, ein Tool zur Auflistung aller Tombstones
WHSDisks, ein Tool zur Darstellung und Prüfung der DriveExtender-Konfiguration
WHSDiskNames, ein Tool zur Änderung der Plattennamen in der Konsole
WHSBackup, Infos und Tool zur Backup-DB (2011-Version (auch für WSE2012))
Bitte schreibt bei Fragen und Problemen eure Konfig in die Signatur

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 24. Apr 2014, 14:17

Wir haben hier im Haus ca. 20m Leitungswege maximal... es soll eine Sternstruktur/Baumstruktur entstehen, alles vom Serverschrank aus.

Dort wird das Modem platziert (wenns geht eine AVM Fritz mit gleich Telco Anlage dabei), dahinter dann der Hauptswitch der an die Server geht (50cm entfernt) und die Hauptverteilung mittels Linka-Aggregation (wenns geht) im Hause vornimmt (also 2 Leitungen ins OG zum 2. HauptSwitch)

Von den Hauptswitches dann jeweils Duplex Leitungen zu den jeweiligen Arbeitsplätzen bzw. Arbeitsgruppen (3 Tische mit 3 Arbeitsplätzen), wo ein einfacher 8 switch dran ist der mittels Link Aggregation (wenns irgendwie geht) mit dem Hauptswitch verbunden ist...

so in etwa dachte ich mir das... ich glaube auch, dass ich bei 10 Arbeitsplätzen bleiben werde (möchte). Weil alles andere ist ein Verwaltungsapparat der nicht mehr überschaubar ist... und hohes Risiko bereitet (Löhne usw.). Da verzichte ich lieber auf den 500t EUR BMW Werbespot...

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 20. Mai 2014, 15:17

Hallo Nobby
Kurzes Update... seit der Umstellung des Servers (Fantec Case raus und Drive Bender deaktiviert) und hinzufügen eines RAID 5 Systems mit 5x 4 TB HDDs läuft der Server insoweit gut... wobei ich erst die ersten 2 HDDs gebackupt habe (die Backupzeiten dauern ja EWIG LANG... mannomann wie lang, manchmal nur mit 3 Mbit / sek) und sich erst nach 10 Backups herausstellen wird, ob der Server wirklich stabil läuft...

Mich nervt aber nachwievor das langsame Backup... gibt es keine Tools, um die irgendwie zu bescvhleunigen...?

Grüße

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Benutzeravatar
Nobby1805
Moderator
Beiträge: 21217
Registriert: 6. Jun 2009, 17:40
Wohnort: Essen

Re: Server für GROSSE DATENMENGEN

Beitrag von Nobby1805 » 20. Mai 2014, 16:21

3 Mbit/sec von wo nach wo ? Benutzt du den normalen Client-Backup des WHS ?
WHS: Acer H340 mit 1x 1 TB (WD10EAVS), 3x 2 TB (2 WD20EARS und 1 ST2000DM001), PP3+UR2
5 Clients:
1 Intel i5-4670K, ASUS H87-PRO, 32 GB, 250 GB SSD, 2x 500 GB, Win 10 Pro x64 2004
1 Lüfterlos fürs Wohnzimmer, Intel Celeron N4100, 4 GB, 128 GB, Win 10 Pro x64 2004
1 AMD Ryzen 7 3700X, Gigabyte AORUS, 32 GB, Win 10 Pro x64 1909
1 Sony Vaio EB 2H4E, Win 10 Home x64 1909
1 Samsung NP-R540-JS09DE, Win 10 Pro x64 1909


WHSListTombstones, ein Tool zur Auflistung aller Tombstones
WHSDisks, ein Tool zur Darstellung und Prüfung der DriveExtender-Konfiguration
WHSDiskNames, ein Tool zur Änderung der Plattennamen in der Konsole
WHSBackup, Infos und Tool zur Backup-DB (2011-Version (auch für WSE2012))
Bitte schreibt bei Fragen und Problemen eure Konfig in die Signatur

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 20. Mai 2014, 16:39

Hallo Nobby

Von der Workstation zum WHS 20111 auf seinen RAID 5 Plattenverbund (16 TB nutzbar) via 1Gbit Ethernet...

Per sync copy sind es ca. 500 Mbit... nur die Clientsicherungen sind megalahm... warum auch immer.

wobei einige Foren berichten dass der WHS 2011 grundsätzlich deutlich langsamer Backups macht als der V1 und dies erst mit dem WS 2012 Re so richtig behoben wurde

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Benutzeravatar
Nobby1805
Moderator
Beiträge: 21217
Registriert: 6. Jun 2009, 17:40
Wohnort: Essen

Re: Server für GROSSE DATENMENGEN

Beitrag von Nobby1805 » 20. Mai 2014, 18:05

Zum Unterschied WHS v1 vs. 2011 kann ich nix sagen weil ich 2011 nicht produktiv betreibe

du musst allerdings beachten, dass die Sicherungsmethode von WHS v1, WHS 2011 und auch WSE 2012 die Sicherung für jede Partition in 3 Schritte aufteilt

1. bestimmen welche Cluster gesichert werden müssen (anhand von Signaturen die dann zwischen Client und Server ausgetauscht werden, dabei ist die Netzwerk eher niedrig)
2. Reorganisation der Backup-DB (kein Netzwerktraffic, aber m.E. sehr lange Laufzeit die immer größer wird wenn die Menge der Sicherungsdaten wächst)
3. Übertragung der geänderten Daten (hier werden bei mir (v1) fast die maximal möglichen Datenraten erreicht)

Wenn wenig gesichert werden muss kann es schon passieren, dass der Step 2 einen ganz großen Teil der notwenigen Zeit dauert ... und leider wird das dann für jeden Partition wieder gemacht :(

und in welchem Schritt stellst du nun die 3 Mbit/s fest ?
WHS: Acer H340 mit 1x 1 TB (WD10EAVS), 3x 2 TB (2 WD20EARS und 1 ST2000DM001), PP3+UR2
5 Clients:
1 Intel i5-4670K, ASUS H87-PRO, 32 GB, 250 GB SSD, 2x 500 GB, Win 10 Pro x64 2004
1 Lüfterlos fürs Wohnzimmer, Intel Celeron N4100, 4 GB, 128 GB, Win 10 Pro x64 2004
1 AMD Ryzen 7 3700X, Gigabyte AORUS, 32 GB, Win 10 Pro x64 1909
1 Sony Vaio EB 2H4E, Win 10 Home x64 1909
1 Samsung NP-R540-JS09DE, Win 10 Pro x64 1909


WHSListTombstones, ein Tool zur Auflistung aller Tombstones
WHSDisks, ein Tool zur Darstellung und Prüfung der DriveExtender-Konfiguration
WHSDiskNames, ein Tool zur Änderung der Plattennamen in der Konsole
WHSBackup, Infos und Tool zur Backup-DB (2011-Version (auch für WSE2012))
Bitte schreibt bei Fragen und Problemen eure Konfig in die Signatur

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 20. Mai 2014, 21:27

Beim Erstbackup war das

knapp 24 h für 1,2 TB... sind im Durchschnitt gerade mal 13MB / Sekunde

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Benutzeravatar
Nobby1805
Moderator
Beiträge: 21217
Registriert: 6. Jun 2009, 17:40
Wohnort: Essen

Re: Server für GROSSE DATENMENGEN

Beitrag von Nobby1805 » 20. Mai 2014, 21:42

So kann man nicht rechnen ... Aber Ok, aus der Anwendersicht ist das so

Außerdem dauert der erste Lauf immer extrem lange ...
WHS: Acer H340 mit 1x 1 TB (WD10EAVS), 3x 2 TB (2 WD20EARS und 1 ST2000DM001), PP3+UR2
5 Clients:
1 Intel i5-4670K, ASUS H87-PRO, 32 GB, 250 GB SSD, 2x 500 GB, Win 10 Pro x64 2004
1 Lüfterlos fürs Wohnzimmer, Intel Celeron N4100, 4 GB, 128 GB, Win 10 Pro x64 2004
1 AMD Ryzen 7 3700X, Gigabyte AORUS, 32 GB, Win 10 Pro x64 1909
1 Sony Vaio EB 2H4E, Win 10 Home x64 1909
1 Samsung NP-R540-JS09DE, Win 10 Pro x64 1909


WHSListTombstones, ein Tool zur Auflistung aller Tombstones
WHSDisks, ein Tool zur Darstellung und Prüfung der DriveExtender-Konfiguration
WHSDiskNames, ein Tool zur Änderung der Plattennamen in der Konsole
WHSBackup, Infos und Tool zur Backup-DB (2011-Version (auch für WSE2012))
Bitte schreibt bei Fragen und Problemen eure Konfig in die Signatur

GrinGEO
Foren-Mitglied
Beiträge: 268
Registriert: 6. Mai 2009, 07:22

Re: Server für GROSSE DATENMENGEN

Beitrag von GrinGEO » 20. Mai 2014, 22:17

Ja das war mir klar... dass der erste Anlauf immer lange dauert... nur warum so lange... MS hats beim Server 2012 ja irgendwie optimiert und selbst beim WHS v1 gehts schneller. Laut Untersuchungen ist der First Backup beim WHS2011 ca. 3-5x so langsam als beim WHS v1...

gibt es keine Möglichkeiten, die Backupengine zu beschleunigen?

WHS v1 (Remote Backup Server mit Crashplan) Acer H341 mit 2x 1,5 TB + 2x 2 TB, Fantec ext. USB 3.0 S-ATA Case mit 4x2TB via eSATA
WHS 2011 mit DB2 (Backup Server via WHS Clients, Renderingmaschine) Acer Aspire X3995 mit i7-3770 16GB RAM, 2TB intern, Fantec ext. USB 3.0 S-ATA Case mit 4x4TB via USB 3.0

Client 1 (Workstation) Acer Predator G3-605 mit i7-4770 16GB RAM, 2TB intern Daten, 2x 4TB intern gespiegelt Daten, 5x 2TB ext. USB 3.0 Backups + Archive
Client 2 (Mobile Workstation) Acer Aspire V3 8GB RAM, 1TB intern Daten
Client 3
Client 4
Client 5
Client 6

Antworten