HP Virtual Connect FlexFabric

Eigentlich nichts neues, aber nun ist es wenigstens offiziell. HP hat die neue Generation der Virtual Connect Module vorgestellt. Wie zu erwarten handelt es sich dabei um ein Flex-10 Modul mit FCoE Unterstützung. Hier und da sicherlich noch jede Menge Optimierungen hinsichtlich TCP Offload, iSCSI, etc.

Optisch hat sich natürlich nicht viel getan. Hier ein Bild von bladesmadesimple.com:

vc-flexfabric

Wie es sicherlich jeder erahnen kann, ergibt das 4x 10 Gbit/s Ethernet und 4x 8Gbit/s FC. Mit zwei Modulen macht das 160 GBit Netzwerk und 64 Gbit FC aggregierte Leistung pro Chassis.

Unterm Strich bestätigt damit HP den aktuellen Trend zu FCoE im Serverrack. 😉 Find ich gar nicht schlecht ! Darum ihr lieben potenzielle Käufer da draußen: KAUFEN KAUFEN KAUFEN… 😀

Aber warum schreib ich hier sowas? 😉 Natürlich nicht ganz ohne Grund ! Virtual Connect FlexFabric ist der Nachfolger vom Flex-10. Ergo es wird Zeit Flex-10 in den Rechenzentren abzulösen! Denn dann kann ich mir vielleicht bald ein Flex-10 Modul leisten. *gggggggggggg* ICH WILL EIN FLEX-10 MODUL!!! Hab doch nun einen passenden Server dazu. Also ihr lieben Leute da draußen, FlexFabric ist die Zukunft, KAUFEN, KAUFEN, KAUFEN… 😉 Ich brauch doch ein Flex-10 Modul für meinen Keller. 😀

An alle die mich unterstützen, jetzt schon vielen Dank. 😉

Virtual Connect Shared Uplink Set + Cisco

Was in Verbindung mit einem HP ProCurve Switch quasi Plug & Play ist, erfordert mit einem Cisco Catalyst Switch etwas mehr Arbeit. 😉 Die Rede ist von der Anbindung eines Virtual Connect Shared Uplink Set. Nach ein wenig Recherchieren und Probieren konnte ich eine prima Einstellung passend für Cisco Switche ausmachen.

Die Einrichtung des Share Uplink Sets mit Hilfe des Virtual Connect Managers sollte keine Fragen aufkommen lassen. Das Ergebnis sollte in etwa wie auf nachfolgendem Screenshot aussehen.

vc-shared-uplink-set

Die Gegenseite, sprich den Cisco Switch konfiguriert man dann wie folgt. In meine Fall setze ich einen Cisco Catalyst 3560-E 24-Port  1Gbit mit IOS 12.2(44r)SE3 ein.

interface range GigabitEthernet0/1-4
 description c7k1-uplink-set-1a
 switchport trunk encapsulation dot1q
 switchport trunk allowed vlan 50,51,79,80
 switchport mode trunk
 switchport nonegotiate
 channel-protocol lacp
 channel-group 1 mode active
 spanning-tree portfast trunk
 spanning-tree bpduguard enable

Besonders wichtig sind die letzten 5 Anweisungen! Mit switchport nonegotiate deaktiviert man das Cisco propritäre Dynamic Trunking Protokoll (DTP). Damit handelt Cisco Informationen über den gebildeten Trunk aus. Aber das HP Virtual Connect Modul ist kein Cisco Switch, also macht diese Angabe definitiv Sinn. Der Befehl channel-protocol lacp aktiviert selbstredend das LACP Protokoll für den Trunk. Das nachfolgende Kommando channel-group 1 mode active bildet dann den Trunk. In unserem Fall werden die Interfaces GigabitEthernet0/1 bis 4 zum Port-Channel 1 zusammengefasst. Mit mode active aktiviere ich LACP auf allen Interfaces. Ein mode passive tut zwar auch, aber mir ist aufgefallen, das nur eine Verbdinung im Shared Uplink Set den Status Linkes/Active besitzt und alle andere auf Linked/Standy gesetzt sind. Damit wäre die Bandbreite auf nur eine 1Gbit Leitung beschränkt. Die letzten beiden Kommandos sind wichtig für das Netzwerk. Mit Hilfe von spanning-tree portfast trunk schließe ich den Trunk aus der Spanning-Tree Konfiguration aus. Der Befehl spanning-tree bpduguard enable schützt den Spanning-Tree weiter und verhindert, das BPDU Pakete über die Leitungen ausgetauscht werden.

Mit diesen Einstellungen ist der Shared Uplink Set aus dem HP Virtual Connect Modul optimal im Netzwerk angebunden. In meinem Falle habe ich zwei Virtual Connect 1/10 GB Ethernet Module im Einsatz und habe deswegen auch zwei Shared Uplink Sets eingerichtet, die jeweils an einen eigenen Switch angebunden sind. Die Switche untereinander sind mit 10 GBit Uplinks verbunden und über eine entsprechend Multiple Spanning Tree (MST) Konfiguration habe ich die VLANs auf zwei Instanzen aufgeteilt. Damit ergibt sich rein rechnerisch eine aggregierte Bandbreite von 16 GBit. 😉 Das sollte in den meisten Fälle mehr als genug sein. 😀

Virtualisierung Pur ! HP ProLiant BL495c G5

Tja, was soll ich sagen? Die Gelegenheit hat gepasst und nun hab ich mein c-Class BladeSystem um einen entsprechenden Virtualisierungs-Blade Server erweitert. Jetzt kann ich die Blade Server die ich mir aus der Arbeit geliehen habe wieder zurückschaffen. Mein c-Class BladeSystem beherbergt ab sofort nur noch Server aus eigenem Besitz!

Zum HP ProLiant BL495c G5 gibt es eigentlich nicht viel zu sagen. Herausragendes Merkmal sind 16 DIMM Steckplätze, was im Maximalausbau 128 GB möglichen Arbeitsspeicher bedeutet. Für einen Half-Height Server ist das alleine schon ein beeindruckendes Merkmal. Mein Exponat ist allerdings derzeit mit lediglich 16 GB RAM ausgestattet. Ein Opteron 2216 HE Dual Core Prozessor sorgt für entsprechende CPU-Leistung. Möglich wären natürlich zwei Quad Core AMD Opteron Prozessoren, allerdings brauch ich das nicht, genauso wenig wie 128 GB RAM. Ich werde den BL495c wenn überhaupt noch einen zweiten 2216 HE AMD Opteron spendieren, um den Arbeitsspeicher auf 32 GB RAM anheben zu können. Aber bevor ich diese Maßnahmen ergreife, beschaffe ich mir lieber einen weiteren BL495c Blade Server um zwei ESX Hosts abzubilden. VMotion, VMware HA und Fault Tolerance lässt grüßen. 😉

Eine weitere besondere Eigenschaft sind die zwei On-Board Flex-10 NICs. Leider kann ich diese nicht voll umfänglich nutzen, denn dazu fehlen mir die Virtual Connect Flex-10 Module. So rasch ich auch mein HP c-Class BladeSystem aufgebaut und aufgerüstet habe, ein Flex-10 Modul kann ich mir beim Besten Willen nicht leisten! Aktuelle Kurse liegen immer noch in hohen 4-stelligen Bereichen. Das ist mir mein Hobby dann auch wieder nicht wert. Vor allem kann ich gar nicht die nötige Netzwerkinfrastruktur dazu anbieten. Ergo gebe ich mich mit 2x 1 GBit zufrieden. 😉 Für meine Belange genügt das Dicke!

Eine aktuelle Version von VMware ESXi 4.0 ist bereits auf einem USB Stick installiert. Nun werde ich iSCSI und NFS Shares anbinden und das System ein wenig stressen. 😉

Ansonsten bleibt nicht mehr viel zusagen, außer das ich die Entscheidung für das c-Class BladeSystem letztes Jahr in keinster Form bereue. Das war in der Tat meine beste Investition bisher. Die Vielfalt an Blade Servern und Interconnect Modulen ist phänomenal. Für jeden Anwendungsbereich gibt es etwas passendes im Angebot. Auch die Erfahrungen die ich damit sammel sind wahrlich Gold wert. Wo kann man denn schon in Ruhe und gemütlicher Atmosphäre sich solchen Geräten widmen. Und wenn ich daran denke wie viel Geld ich für Standalone Server in Form von 1 HE bis 4 HE Büchsen aufbringen hätte müssen, dann wird es mir schlecht. 😉 Ich kann nur jedes Mal beteuern, die einmalige Investion in ein C7000 Chassis rechnet sich schneller als man denkt. 😀 Vor allem angesichts der Tatsache, das man wirklich überwiegend aktuelle Serversysteme betreibt. Mit historischen Rechnern hat das nichts mehr am Hut. 😉

Jetzt wünsche ich viel Spaß beim Bilder anschauen. Wenn ihr Fragen habt, dann scheut euch nicht davor mich zu fragen! Sei es in Form eines Kommentars oder per Mail. Ich antworte gerne.

Neuer Core (Networking)

Es hat viel Geduld gebraucht, aber das Glück hat mich dann doch gesegnet und ich konnte einen weiteren Nortel Enterprise Routing Switch (ERS) 1624G ersteigern. 🙂 Dieser bildet nun mit meinem vorhandenen Nortel ERS 1624G meinen neuen Core im Keller. Noch fehlen mir zwei Nortel ERS 5510 Switche um auch mein Netzwerk vernünftig auszugestalten. Aber es geht immerhin in diesem Bereich auch etwas vorwärts.

Selbstverständlich habe ich bereits mit der Nortel SMLT Implementierung gespielt. 😉 Aber es werden noch viele Stunden vergehen bis ich mit dem ganzen Nortel Switchen richtig warm werden. 😉 Ganz besonders bin ich auf die Kombination mit HP Virtual Connect gespannt. Hierfür werde ich mir noch ein paar so genannte Cisco GLC-T SFP GBICS anschaffen müssen. 😉

2010-06-13_Network1

2010-06-13_Network2

Avaya DL385 G5

Ööööhmmm… Avaya? Was hat Avaya in meinem Keller verloren? Na gut, nach der Übernahme von Nortel, hätte ich prinzipiell nichts gegen Avaya Nortel Switche. Aber statt Nortel Switche haben zwei Avaya Server den Weg in meinen Keller gefunden. 😉 Faszinierend… ich dachte eigentlich zwei HP Server angeschafft zu haben, aber da habe ich mich gewaltig getäuscht. 😀 Was aber nicht weiter schlimm ist, es handelt sich dennoch um zwei HP ProLiant DL385 G5 Server! Diese habe ich mit je einem AMD Opteron 2216 HE ausgestattet (Achtung! Not Supported, aber funzt! ;)) und zum Test je 4 GB Speicher aus zwei bestehenden Systemen aus dem Keller geklaut. 😀 Absolut genial… für Lau stehen mir nun zwei moderne Server für so allerhand Standard Aufgaben – zum Beispiel Management Systeme a la HP SIM, etc. – zur Verfügung. He he he! Ja so mag ich das. 😀

2010-06-01_HP-DL386G5

Neue Medien – HP-UX 11i v3 March 2010

Für meinen HP BL860c Integrity Blade Server habe ich mir einen Satz neue HP-UX Medien angeschafft. Seit 2008 ist doch einiges geschehen. 😉 Begrüsst nun HP-UX 11i V3 March 2010 ! 🙂

Die aktuelle Version von HP-UX wird jetzt schon auf 3 DVDs ausgeliefert! Besonders auffällig sind die vielen Änderungen an der HP System Management Homepage. Das macht HP-UX inzwischen besonders komfortabel und leicht wartbar. Was sich sonst noch so getan hat, werde ich in den nächsten Wochen und Monaten bestimmt herausfinden. 😉 Eins ist aber gewiss, mir macht HP-UX seit je her irre Spaß. 🙂

Schnuckeliges Cisco-Lab

Wir expandieren auf Arbeit! Und weil Expansion immer gleich bedeutend ist mit neuen Arbeitsplätzen, braucht es natürlich neue Netzwerkanschlüsse. 😉 Unsere aktuelle Netzwerkinstallation wird den neuen Anforderungen nicht mehr gerecht. Darum haben wir uns auf Arbeit für eine drastische Renovierung unserer bestehenden Netzwerkinfrastruktur entschieden. Um den aktuellen und zukünftigen Ansprüchen zu genügen haben wir uns endlich los gelöst von den typischen SOHO/SMB Herstellern und sind zu Cisco übergegangen. 🙂 Juhuuuuuuu… 😀 Und da kommen wir schon zum eigentlichen Thema. 😉 Um etwas warm zu werden habe ich mir zuhause ein kleines schnuckeliges Cisco-Lab eingerichtet. 😀 Bilder sprechen bekanntlich mehr als Worte. 😉

cisco-lab

Derzeit arbeite ich an den Themen Cisco Cluster, MSTP, Uplink Fast, VTP, VoIP VLAN, etc. 😉 Dabei kann ich immer wieder nur wiederholen, Ciscos sind einfach einsame klasse! Ich komm mit diesen Geräten wunderbar klar und es macht richtig Spaß. 🙂

Time for UNIX – HP Integrity Blade BL860c

Meine Begeisterung für die Marke HP begann eigentlich mit einer HP J5600 Workstation. Kurz darauf folgte eine L1000 und ein rp5470 Server. Eine C3750 und eine langersehnte Itanium2 basierende Maschine, eine HP zx6000 Workstation, liesen konsequenterweise nicht lange auf sich warten. 😉 Es drehte sich alles nur noch um HP ! Allerdings hab ich dann, wie jeder weiß, einen Ausflug Richtung x86 und Storage gemacht. Allen voran meine EVA und meine Blade Systeme. Jedoch keimte früh der Wunsch nach einem Integrity Blade auf. Zu Anfang hatte ich lange einen BL60p auf dem Radar. Aber die Server sind selten, teuer und nicht besonders leistungsfähig, zu mindestens hinsichtlich maximaler Arbeitsspeicher. Also weiter an x86 Systemen schrauben. 🙁

Doch jetzt hat sich das Blatt gewendet. 😉 Endlich wieder UNIX ! Wie es der Zufall wollte habe ich eine tolle Chance wahrgenommen und mein c-Class Blade System um einen HP BL860c Integrity Blade bereichert. 🙂 Endlich wieder zurück bei meinem HP Anfängen ! Rock solid lautete und lautet immer noch das Motto. HP und HP-UX eine echt tolle Kombination. Vielleicht nicht so geeky wie ein OpenSolaris, aber ein sehr berechenbares und solides System. Der BL860c Integrity Blade Server hinterlässt auch sonst einen sehr guten Eindruck und wie es der Teufel will, passt mein neuer Trend hervorragend zu den ganzen Neuankündigungen von HP. Die neue Superdome 2 ist Blade basierend und auch sonst bekennt sich HP zunehmend zu Integrity Servern im Blade Format. 😉

Lange Rede, kurzer Sinn. Bilder sprechen bekanntlich mehr also Worte:

Und hier noch eine kleiner Shell Auszug:

# machinfo
CPU info:
1 Intel(R) Itanium 2 9000 series processor (1.4 GHz, 12 MB)
399 MT/s bus, CPU version C2
2 logical processors (2 per socket)
Memory: 8161 MB (7.97 GB)
Firmware info:
Firmware revision:  04.11
FP SWA driver revision: 1.18
IPMI is supported on this system.
BMC firmware revision: 5.35
Platform info:
Model:                  „ia64 hp server BL860c“
Machine ID number:      0f359b84-f36b-475e-9135-3db023101da8
Machine serial number:  VCX0000003
OS info:
Nodename:  ius021
Release:   HP-UX B.11.31
Version:   U (unlimited-user license)
Machine:   ia64
ID Number: 0255171460
vmunix _release_version:
@(#) $Revision: vmunix:    B.11.31_LR FLAVOR=perf
# machinfo

CPU info:

  1 Intel(R) Itanium 2 9000 series processor (1.4 GHz, 12 MB)

          399 MT/s bus, CPU version C2

          2 logical processors (2 per socket)

Memory: 8161 MB (7.97 GB)

Firmware info:

   Firmware revision:  04.11

   FP SWA driver revision: 1.18

   IPMI is supported on this system.

   BMC firmware revision: 5.35

Platform info:

   Model:                  "ia64 hp server BL860c"

   Machine ID number:      0f359b84-f36b-475e-9135-3db023101da8

   Machine serial number:  VCX0000003

OS info:

   Nodename:  ius021

   Release:   HP-UX B.11.31

   Version:   U (unlimited-user license)

   Machine:   ia64

   ID Number: 0255171460

   vmunix _release_version:

@(#) $Revision: vmunix:    B.11.31_LR FLAVOR=perf

1. Mai – Walburgisnacht

Mensch, das waren noch Zeiten. Ein guter Schulfreund und ich haben uns im Dunkeln auf Fahrräder in den Wald gemacht. Bewaffnet mit einer Axt haben wir uns auf die Suche nach einem passenden Bäumchen gemacht. Das Fällen des Bäumchens war ja wirklich noch die leichteste Übung. Der Transport auf zwei Fahrrädern dagegen war schon eine aberwitzige Angelegenheit.

Angekommen am Ziel galt es die Tanne irgendwie auf das Dach zu schaffen. Ohne eine Leiter ein unmögliches Vorhaben. Also ging es wieder los, auf zwei Fahrrädern, eine Leiter an den Tatort zu schaffen. Was haben wir in dieser Nacht gelacht. 🙂 Auch mit zunehmendem Alter verbrachten wir die Walpurgisnacht immer mit jeder Menge Spaß und „vertretbarem“ Schabernack. 😉

Heute aber, wo man bald Verantwortung über ein neues Leben trägt, fragt man sich dagegen schon wie man die Werte von einst noch vermitteln kann? Die Mainacht gewinnt zunehmend an Gewalt und Protest. Und dabei kann sich keine Partei mit Ruhm bekleckern. Sei es die Rechten, die Linken oder unser Rechtsstaat! Alle samt nur noch im Gewaltrausch und die Walpurgisnacht verliert zunehmend ihrem Glanz.

Schade eigentlich, denn ich kann mich heute nach so vielen Jahren, mit meinem ehemaligen Schulkameraden auf ein Bierchen treffen und herzhaft über unsere Streiche von einst lachen.