vincor
Goto Top

Fibre Channel SAN overload?

Guten Tag,

ich plane unsere 2 VM-Host Server über Fibrechannel an unser SAN Storage anzuschließen.
Pro Host Server habe ich 2x 8Gbit Fibre Channel und am SAN auch 2x 8Gbit Fibre Channel. Dawzischen ist ein Fibre Channel Switch mit 16Ports.

Maximal kann also jeder Host Server 16Gbit an Traffic verursachen, was ja einfach doppelt so viel ist wie das SAN aufnehmen kann.

Ist dies ein Problem oder wird der Switch und die Hosts das selber regeln?

Content-Key: 364878

Url: https://administrator.de/contentid/364878

Printed on: April 20, 2024 at 00:04 o'clock

Member: STITDK
STITDK Feb 15, 2018 at 13:48:22 (UTC)
Goto Top
Servus,

und wie sieht der Workload der Hosts aus, bzw welche Hosts mit welcher Ausstattung, welche VMs, wieviele? etc. etc. etc.

STITDK
Member: Vincor
Vincor Feb 15, 2018 at 13:56:05 (UTC)
Goto Top
Ist das relevant um die Frage zu beantworten? Die Frage ist nicht ob die Hosts so viel Traffic produzieren können und ob das Szenario vorkommt.

Ich möchte wissen was passiert wenn mehr Traffic entsteht, als kein theoretisch verarbeitet werden kann. Switch ist ein Brocade 300. Hosts sind Windows Server 2012 R2 und Storage ist Windows Storage Server 2012.
Member: STITDK
STITDK Feb 15, 2018 at 13:57:25 (UTC)
Goto Top
Das selbe wie wenn du versucht auf eine volle Autobahn zu fahren ......es wartet
Member: em-pie
em-pie Feb 15, 2018 updated at 14:59:42 (UTC)
Goto Top
Moin,

mach dir um die Last am Brocade mal keinen Kopp...

Wir hatten den (bzw. die) auch bis vor kurzem im Einsatz (bzw. dessen IBM-Version 2498-B24). Dort hingen dran:
2x V3700, 2x SVC-Knoten, 1x Power8, 4x vmWare Host je Switch nochmal ein 2498-B24 an dem wiederum "nur" ne weitere V3700 sowie 5 TapeDrives hingen.....

Und in die Knie ist das SAN nie gegangen...

Gruß
em-pie
Member: Deepsys
Deepsys Feb 15, 2018 at 14:55:08 (UTC)
Goto Top
Hi,

sind das dann wirklich 16G?
Oder ist der zweite Pfade "nur" der redundante Pfad?

Ich weiß es auch nicht, ist mir gerade so eingefallen.

Und Gedanken brauchst du dir auch nicht zu machen.
Wir haben auch einige Server, ESX-Hosts, SAN und Tape Libs am Brocade 300 hängen, Probleme gab es da noch nie face-smile

VG,
Deepsys
Member: em-pie
em-pie Feb 15, 2018 at 15:04:34 (UTC)
Goto Top
Zitat von @Deepsys:
sind das dann wirklich 16G?
Oder ist der zweite Pfade "nur" der redundante Pfad?

berechtigte Anmerkung/ Frage:
Meines Wissens nach sind das alles nur redundante PFade, denn am Host/ Storage definiert das System selbstsändig immer einen prefered path

Ansonsten wären die Storages / SVC-Knoten sogar mit 16G je fabric angebunden gewesen, hätten also Daten mit 32G wegschaufeln können...
Und dann mache ich mir eher GEdanken über die Innereien der angebundenen Systeme, ob die das alles so packen...
Member: Dr.EVIL
Solution Dr.EVIL Feb 19, 2018 updated at 07:30:15 (UTC)
Goto Top
Zuerst einmal sollte man definieren was mit "overload" gemeint sein soll...
Man kann (irgendeine) SAN Verbibndung in die "Sättigung" fahren, so das 100% der Bandbreite genutzt werden.
Das Ergebnis ist, das weniger Daten pro Sekunde transferiert werden können und daher auch die Latenzen des Storage steigen:
Der Speicher wird langsamer!

Dies ist aber eine rein theoretische Überlegung, denn ich habe in über 20 Jahren mit FC SAN noch nicht einmal erlebt, das ein einziger Server soviele Daten produziert hätte, das ein FC HBA 100% Systemleistung belegt hat.

Praktisch hast Du allerdings ein viel größeres Problem, da Du nur einen einzigen Switch verwendest!
Auch wenn du ein Zoning auf dem Switch für beise Fabrics durchgeführt hast, erzeugst du somit einen "Single Point of Failure".
Sollte irgendetwas mit dem Switch nicht stimmen, fällt dein gesamtes SAN aus oder wird heruntergebremst!
Dies ist viel wahrscheinlicher als irgendein "Overload".

Bei nur zwei Hosts an einem Storage sollte es übrigens möglich sein, die Server "direct Attached", also ohne Switch, direkt anzuschließen.
Mir sind nur wenige Storages Bekannt welches dies nicht unterstützten...
Member: Dr.EVIL
Solution Dr.EVIL Feb 19, 2018 at 07:39:38 (UTC)
Goto Top
Zitat von @em-pie:

Zitat von @Deepsys:
sind das dann wirklich 16G?
Oder ist der zweite Pfade "nur" der redundante Pfad?

berechtigte Anmerkung/ Frage:
Meines Wissens nach sind das alles nur redundante PFade, denn am Host/ Storage definiert das System selbstsändig immer einen prefered path

Ansonsten wären die Storages / SVC-Knoten sogar mit 16G je fabric angebunden gewesen, hätten also Daten mit 32G wegschaufeln können...
Und dann mache ich mir eher GEdanken über die Innereien der angebundenen Systeme, ob die das alles so packen...

Es spielt keine Rolle, ob der Switch 8 oder 16 oder 32Gbit "kann"!
Wenn an einem 16 Gbit Switch 8Gbit FC Transceiver angeschlossen werden, verhält er sich wie ein 8Gbit Switch.
Selbst wenn alle Ports mit 16Gbt Moduken bestückt sind: Sind auf der Server oder Storage Seite nur 8Gbit Module vorhanden, werden die 16Gbit Module per Handshake in den 8Gbit Modus versetzt.

Einziger "Benefit" eines 16Gbit Switch in einer solchen Umgebung: Zumeist haben diese (Zumindes bei den Brocade) einen größeren Backbone und sind daher, wenn der unwahrscheinliche Fall eintritt und alle Ports gleichzeitig "Volldampf fahren" einen Geschwindigkeitsvorteil gegenüber einem 8Gbit Switch.
Ein weiterer Vorteil wäre, das die 8Gbit Technik mitlerweile "End of Live" ist und nur noch bei "Entry-Level-Storages" mit Festplatten verwendet wird.
Aktuelle Storages haben 16 oder 32Gbit/s. Die allerdings nur bei "All Flash" Storages ihre Vorteile voll ausspielen können.
Die meisten neuen Server unterstützen 8Gbit bereits nicht mehr.

Hier hätte der 16Gbit Switch den Vorteil die nächste Hardwaregeneration unterstützen zu können...