Festplattenanbindung SAS/SATA

Diskussionen rund um Windows Server 2016 Essentials
Antworten
Benutzeravatar
Proxima
Foren-Mitglied
Beiträge: 69
Registriert: 30. Jul 2011, 19:52

Festplattenanbindung SAS/SATA

Beitrag von Proxima »

Hallo,

in meinem HeimServer sind aktuell 3 HDDs (6TB, 3TB, 3TB) als Speicherpool für Daten (SharedFolders) zusammengefasst. Es sind alle (SATA3-) HDDs an den Mainboard-Ports (ebenfalls SATA3) angeschlossen. Dazu habe ich noch einen 2. Pool mit 3 HDDs (3x 2TB) als Sicherungspool konfiguriert. Auf diesem sichert Windows Server 2016 Essentials das tägliche Serverbackup. Das Backup dauert mehrere Stunden (teilweise mehr als 1 Tag).

Um die Performance zu steigern, habe ich mir überlegt, einen/zwei SAS-Controller einzubauen und einige/alle Festplatten an diesem/n zu betreiben. Im Maximalausbau kann das Servergehäuse 15 Daten-Festplatten aufnehmen. Am Mainboard sind zwei PCIe 3.0 x8 Steckplätze frei.

Welches wäre die beste Variante:
- 1x SAS-Controller 16-Port an 1x PCIe 3.0 x8 und alle HDDs (ausser der System-SSD) an diesen anschließen
- 1x SAS-Controller 8-Port an 1x PCIe 3.0 x8 und nur die Daten-HDDs (Datenpool, SharedFolders) an diesen anschließen, den Sicherungspool an den Onboard-SATA-Ports lassen
- 2x SAS-Controller 8-Port an 2x PCIe 3.0 x8 und jeweils alle HDDs eines Pools an jeweils einen SAS-Controller anschließen

Ist die Anbindung normaler SATA3-HDDs mittels SAS-Controller über PCIe3.0 x8 überhaupt schneller/performanter als über die Onboard-SATA-Ports?

Vielen Dank für Eure Meinungen.

Gruß Proxima
JoachimL
WHS-Experte
Beiträge: 1228
Registriert: 21. Sep 2009, 22:48

Re: Festplattenanbindung SAS/SATA

Beitrag von JoachimL »

Hallo Proxima,
Backupfragestellungen machen mich immer neugierig, auch wenn meine eigene Software für diesen Usecase zumindest bisher eher nicht geeignet ist - oder jedenfalls hab ich mit Storage Spaces (das meinst Du vermutlich) bisher nicht getestet und es gibt noch keine Konfiguration für mehrere Festplatten..
Also was mir durch den Kopf geht:
  • Normale Festplatten (im Unterschied zu SSDs) lasten einen SATA-Controller normalerweise nicht aus. Da müssten schon mehrere Festplatten gleichzeitig im Dauerstress sein. Das müsstest Du im Ressourcenmonitor nachprüfen können.
  • Ohne genau zu wissen was die bordeigene Sicherung macht: ein vernünftiges Backup verbrät bei einer inkrementellen Sicherung die meiste Zeit beim Ermitteln der Änderungen auf der Quellseite, auf der Zielseite sollte wenig bis gar nichts passieren. Wenn Du - ohne nennenswerte Änderungen auf der Quellseite - signifikant IO auf den Zielplatten siehst, dann ist die Änderungserkennung völlig ungeeignet- da wirst Du nicht glücklich. Insbesondere dann wenn die Zielplatten nicht lokal sondern remote sind - und ein lokales Backup ist nicht wirklich sinnvoll...
  • Wieviel IO auf den Quellplatten stattfindet hängt sehr von der Änderungserkennung ab. Ich verwende zwei Mechanismen in Kombination - Erkennung auf Blockebene und über das NTFS-Journal. Die Erkennung auf Blockebene ist mega-zuverlässig, aber die ganze Festplatte (bzw. der allokierte Teil) wird gescannt. Wie schnell hängt von der Festplatte ab: normale ca 100MB/s, SSDs mit ca 500MB/s. Die Erkennung über das NTFS-Journal vermeidet das Scannen der ganzen Festplatte, ist aber auf Systemplatten leider nicht so zuverlässig weil MS nicht alle Änderungen ins NTFS-Journal aufnimmt - da optimiere ich noch. Bei reinen Datenplatten funktioniert das prima.
  • Beispiel (ohne Storagepools): ein vollständiges Backup einer vollen 2TB Platte (WD Green, also nicht die schnellste) dauert mit meiner Software ca 5 Stunden (und die Festplatte macht da ziemlich konstant 100MB/s). Ein erneuter Scan auf Blockebene braucht in etwa die gleiche Zeit (hängt dann von der Gesamtsystemleistung ab, die Daten müssen ja nicht mehr übertragen werden). Mit Änderungserkennung über NTFS-Journal und ohne echte Änderungen dauert das inkrementelle Backup danach ca 5 Minuten (und die Festplatten haben wenig zu tun, die Auswertung des Journals ist CPU-bound) - natürlich mehr wenn Dateien angefasst wurden.
  • Ergo: wenn die Festplatten am Limit sind, dann scheint das Serverbackup keine sinnvolle Änderungserkennung zu verwenden - da bist Du bei den Datenmengen eigentlich aufgeschmissen.. wenn ich meine Werte auf 12TB hochrechne komme ich auch auf mehr als einen Tag... kann an der Konfiguration liegen, an der Software, ... ein zweiter/anderer Controller kann das vielleicht verbessern, aber nur um konstante Faktoren.
  • Sind die Festplatten nicht am Limit dann steckt das Problem eher wo anders..
Warum verwendest Du eigentlich Storage Spaces? Oder was genau? Weil Du dann nicht darüber nachdenken musst was wo liegt? Wegen Integrität? Mit was für einer Konfiguration?
Gruß Joachim
WHS r.i.p. - Software die nicht mehr gewartet wird sollte man nicht mehr einsetzen.
Bei mir laufen drei Dell T20, inzwischen alle unter Hyper-V-2019. Darauf viele virtuelle Maschinen, darunter Windows 10 Pro, Ubuntu 18.04/20.04 LTS (teilweise mit Docker), und auch mal andere. Ein T20 läuft 7*24 und stellt u.a. Mailcow-Dockerized und einen Samba-Domain-Controller (ein 2. läuft auf einem NUC) bereit. Klingt vielleicht seltsam, aber so ist das System - alle - mit Bitlocker verschlüsselt und kann vollständig und konsistent gesichert werden - beides sonst unter Linux schwierig bis unmöglich. Zum Sichern dient das von mir entwickelte Lindenberg Software Backup.
Fragen bitte nicht per PN sondern im Forum - dann haben andere auch was davon. Ich poste hier in meiner Freizeit, Ungeduld ist meiner Meinung nach fehl am Platz...
JoachimL
WHS-Experte
Beiträge: 1228
Registriert: 21. Sep 2009, 22:48

Re: Festplattenanbindung SAS/SATA

Beitrag von JoachimL »

Hallo Proxima,
hat Dir mein Beitrag geholfen? Hast Du mal im Ressourcenmanager nachgesehen welche Platten wie viel IO machen?
Gruß Joachim
WHS r.i.p. - Software die nicht mehr gewartet wird sollte man nicht mehr einsetzen.
Bei mir laufen drei Dell T20, inzwischen alle unter Hyper-V-2019. Darauf viele virtuelle Maschinen, darunter Windows 10 Pro, Ubuntu 18.04/20.04 LTS (teilweise mit Docker), und auch mal andere. Ein T20 läuft 7*24 und stellt u.a. Mailcow-Dockerized und einen Samba-Domain-Controller (ein 2. läuft auf einem NUC) bereit. Klingt vielleicht seltsam, aber so ist das System - alle - mit Bitlocker verschlüsselt und kann vollständig und konsistent gesichert werden - beides sonst unter Linux schwierig bis unmöglich. Zum Sichern dient das von mir entwickelte Lindenberg Software Backup.
Fragen bitte nicht per PN sondern im Forum - dann haben andere auch was davon. Ich poste hier in meiner Freizeit, Ungeduld ist meiner Meinung nach fehl am Platz...
Benutzeravatar
Proxima
Foren-Mitglied
Beiträge: 69
Registriert: 30. Jul 2011, 19:52

Re: Festplattenanbindung SAS/SATA

Beitrag von Proxima »

Hallo,

ja und nein. Dein Beitrag hat mir insofern geholfen, dass ich ca. 2,2 Millionen Dateien (ca. 270GB) aus Doppelsicherungen gelöscht habe. Seitdem läuft das BackUp in 4-5 Stunden durch. Im Ressourcenmonitor habe ich noch nicht detailliert nachgeschaut, was der I/O der einzelnen Platten macht. Der Gesamt-I/O jedoch ist beim BackUp bei 100% Auslastung.

Aktuell funktioniet das BackUp aber wieder, nach dem Ausdünnen der Daten.

Vielen Dank für die Denkanstösse ...

Gruß Proxima
Antworten