Umbau Keller – Fortsetzung #2

Es geht weiter im Keller… ich arbeite fleißig an der ordentlichen Stromversorgung. 😉 Und langsam kann es sich sehen lassen. Alle vorbestimmten Server haben nun auch ihren Platz im Rack gefunden. Ein paar Kleinigkeiten (Kabel, etc.) sind noch auf dem Weg, damit ich den Umbau bald abschließen kann.

Na gut, Bilder sprechen bekanntlich mehr als Worte. 🙂

Stay tuned. 😀

Umbau Keller

Es wird mal wieder Zeit für ein Update. 😉 Die letzten Wochen war ich arg beschäftigt, so das ich keine Gelegenheiten hatte meinen Blog zu pflegen. Jetzt aber gibt es wieder Neuigkeiten aus meinem Keller!

Die letzte Zeit war ich etwas unglücklich mit meinem Rackaufbau. Allen voran das mein altes p-Class Blade System quasi ausrangiert war. Darum beschloss ich die Woche alles komplett umzubauen. In diesem Zuge habe ich mir auch vorgenommen meine PDUs fest zu installieren, damit die Stromversorgung ordentlich ausgeführt ist. Heute habe ich damit gestartet, das Rack leer zu räumen, die PDUs einschließlich Verkabelung anzubringen und meine beiden Blade Systeme zu platzieren. Wie ich finde sieht das Ergebnis des heutigen Tages ziemlich fett aus. 🙂

Morgen geht es dann weiter mit der EVA und nächste Woche schließe ich hoffentlich die komplette Verkabelung ab! Ich kann es kaum erwarten die Sicherungen umzulegen. 😀

Cloud Computing ≠ Internet Computing

cloud_eq_internetCloud Computing ist in aller Munde, überall kann man zu Cloud Computing lesen und nahezu jeder interpretiert „Cloud“ als Internet. Warum zur Hölle hat man es dann nicht gleich „Internet Computing“ geschimpft? 😉

Eigentlich wollte ich hier auf meinem Blog noch nicht zu Cloud Computing schreiben und lieber meine aktuelle Arbeit zur Implementierung von Cloud Computing in einem Konzern abwarten. Aber heute Vormittag hat mir ein Artikel aus der ;login: dem USENIX Magazin wieder einmal aufgezeigt, dass womöglich die Mehrheit da draußen in unserer IT-Welt Cloud Computing falsch  interpretiert.

Fehler Nr. 1: Cloud = Internet

Nur weil das Internet zu gerne in Netzwerkdiagrammen als eine Wolke dargestellt wird, heißt das doch noch lange nicht, dass die Cloud ein Synonym zum Internet ist! Die Wolke soll lediglich die Abstraktion darstellen, das Cloud Computing erst einmal völlig los gelöst von Hardware, Netzwerk und Betriebssystem zu betrachten ist.

Ebenso wenig stellt die Wolke eine ungewisse Lokation dar. Es liegt in der Hand des Kunden, wo er seine Anwendung sieht und welche Ressourcen dieser Anwendung bereitgestellt werden sollen. In einem größeren Unternehmen erübrigt sich sogar die Standortfrage gänzlich, da man die Anwendung selbstverständlich im eigenen Cloud fähigen Rechenzentrum betreiben wird.

Fehler Nr. 2: Public Cloud = Internet Cloud

Erschwerend zur Verwechslung mit der Cloud Symbolik und dem Internet kommt die Abgrenzung Public und Private Cloud hinzu. Laut Definition spricht man bei einer Public Cloud davon, dass der Anbieter und der Nutzer unterschiedlicher Organisationen angehören. Wieder aber einmal verleitet der Begriff „Public“ dazu, dass man bei einer Public Cloud zu gerne vom Internet spricht. Was aber meiner Meinung nach völlig falsch ist.

Mit stetiger Einführung von IPv6 verschwimmen doch zunehmend die Grenze zwischen Internet und dem LAN. Mit IPv6 kann jedem Endgerät eine öffentliche IP Adresse zugewiesen werden und damit fügen sich die lokalen Netze früher oder später nahtlos in das Internet ein. Und selbst jetzt schon – trotz IPv4 – sind doch die Grenzen zwischen Internet und LAN nur durch die verfügbaren Bandbreiten begrenzt.

Hinzu kommt das heutzutage IT-Dienstleister mitsamt komplettem Equipment innerhalb eines Rechenzentrums ihre Leistungen anbieten. Ein Paradebeispiel ist Storage: Ein Dienstleister stellt dabei ein Storage System, integriert dieses in das bestehende SAN und bietet Speicherkapazität in Form eines IT-Services an. Abgerechnet wird bedarfsgerecht nach Kapazität und Leistung. Dieses Geschäftsmodell beißt sich doch jetzt schon mit der Definition der Private Cloud.

Wenn wir die Cloud also schon klassifizieren, dann werden wir in Zukunft wohl überwiegend Hybrid Clouds antreffen. Ich bin allerdings der Meinung dass die Klassifizierung hinfällig ist, spätestens dann wenn wir von einem globalen Netzwerk sprechen.

Fehler Nr. 3: Cloud Computing = Virtual Computing

Wir alle haben den Siegeszug von Virtualisierung die letzten Jahre beobachtet. Die Entwicklungen in dem Segment sind auch kaum zu bremsen und die Virtualisierung wird schon weit über die Test- und Qualitätssicherungssysteme hinaus genutzt. Nichts destotrotz Cloud Computing ist nicht gleichbedeutend mit Virtualisierung, denn Cloud Computing kann man meiner Meinung nach auch gänzlich ohne Virtualisierung implementieren. Allerdings laste ich dann meine Server nicht mehr zeitgemäß aus und spätestens dann reißt mir ein CIO den Kopf ab. 😉 Die Virtualisierung egal ob Server, I/O, Storage sind lediglich Technologien die idealerweise für eine Cloud Computing Umgebung herangezogen werden. Ansonsten hat Cloud Computing mit Virtualisierung erst mal nichts zu tun.

Fehler Nr. 4: Cloud Computing = Produkt

Die Hersteller mögen das vielleicht nicht so sehen, aber Cloud Computing ist kein Produkt das man kaufen kann. Cloud Computing ist ein Konzept, das sich mit den Produkten der Hersteller besser oder schlechter implementieren lässt. Die Grundphilosophie von Cloud Computing ist so einfach wie auch wirkungsvoll: „Alles aus einer Hand“
Und was noch viel interessanter ist, Cloud Computing ist so gesehen schon ein alter Hut!

Wenn man es genau nimmt, sind typische Webhoster im Grunde genommen vollwertige Cloud Anbieter. Web Hosting in seiner ganzen Vielfalt repräsentiert das Cloud Computing Konzept besser als gedacht. Der Kunde will einen Service, dieser lautet Web! Der Kunde wählt die entsprechende Leistungs- und Serviceklasse aus dem Web Hosting Angebot aus. Nach erfolgter Bestellung erhält Kunde seinen Zugang und kriegt in Zukunft jeden Monat exakt eine Rechnung. Benötigt er eine andere Leistungs- oder Serviceklasse wechselt er einfach den Tarif. Ist das Webhosting nicht mehr nötig, kündigt Kunde lediglich den Vertrag. Um alles andere kümmert sich der Dienstleister. Das umfasst nicht nur Rechenleistung, sondern auch Infrastruktur, Netzwerk, Storage, OS und Anwendung.

Eine klassische IT Organisation in einem Konzern hat für jeden der oben genannten Bereiche normalerweise eine eigene Abteilung. Diese Abteilungen stellen heutzutage dem Kunden zu allem Überfluss eine gesonderte Rechnung aus! Ganz zu schweigen davon, welcher organisatorische Aufwand betrieben werden muss, bis der Kunde endlichen seinen eigentlichen IT-Service entgegen nehmen kann (oder soll ich „darf“ sagen?). Spätestens jetzt wird doch einem bewusst, welche Idee hinter Cloud Computing steht. Wenn es denn schon ein Produkt ist, dann ein Produkt unserer Zeit. 😉

Fazit

Cloud Computing hat meiner Meinung nach so gesehen nichts mit Internet zu tun. Sicherlich verleiten die Angebote von Amazon und Google dazu, Cloud Computing  als eine Art Rechenzentrum im Internet zu sehen. Aber Cloud Computing wird keine Internetdomäne bleiben und findet gewiss über kurz oder lang Einzug in die Rechenzentren der Unternehmen. Andernfalls wäre das Thema doch keinesfalls so heißt diskutiert, immerhin ist das Einsparpotenzial hinter dem Cloud Computing Konzept der eigentliche Treiber dieser „neuen“ Idee. Für tolle Technologien haben IT-Entscheider bekanntlich selten ein Ohr. Nur diesmal haben sowohl die Führungsetage als auch die Technik etwas vom Kuchen. Die optimale Umsetzung von Cloud Computing hinsichtlich Einsparpotenzial erfordert Investitionen in innovative Produkte und Dienstleistungen. Meine Aussichten sind daher heiter bis wolkig. 😉

So, das sollte für’s erste genug sein. Wer anderer Meinung ist als ich, möge sich doch melden. Denn das was ich hier niedergeschrieben habe, ist meine persönliche Einschätzung zu Cloud Computing.

Ach ja, nicht vergessen möchte ich natürlich den Artikel der mich eigentlich zu diesem Blog Eintrag überredet hat. Zu finden ist dieser unter /dev/random von Robert G. Ferrel in der ;login: Ausgabe Oktober 2009.  Siehe: www.usenix.org

Keller 2.0 – Aktuelles aus dem Keller

Es wird mal wieder Zeit für ein Keller-Update. 😉

Nach sehr langem Warten konnte ich heute endlich mein eigenes Virtual Connect 1/10 Gb Ethernet Modul entgegen nehmen. Und dieses mal hatte ich deutlich mehr Glück als mit dem 4 Gb Fibre Channel Modul, denn das Ethernet Modul funktioniert einwandfrei. Nur die Firmware ist steinalt. 😉 Aber damit hab ich kein Problem. Und das gute Stück sieht so aus:

DSC03330

Ansonsten hat sich auch ein eigener BL465c G5 Blade Server in mein BladeSystem verirrt. 😉 Die Ausstattung ist allerdings noch recht mau, d.h. 1 GB RAM und ein Opteron 2216 HE. Passende Mezzanine FC HBA Karten habe ich schon vor einiger Zeit in der Bucht für wenig Geld ersteigert, d.h. Fibre Channel Anbindung ist zum Glück kein Problem.

Daneben stecken ein paar weitere Blades aus Arbeit in meinem C7000 Enclosure. Derzeit arbeite ich nämlich an einer Cloud Computing Umgebung und zusammen mit einem Arbeitskollegen testen wir auch ein neues DMZ Konzept und Microsoft Exchange 2010. Ist schon ein schöner Anblick wenn da mal so ein paar Blades eingesteckt sind. 🙂 Irgendwann krieg ich das C7000 schon noch voll!!! 😉

DSC03331

Schon schick, wah? 😉 Ich kann mich jedenfalls nicht satt genug daran sehen.

HP Logical Server !

In einem interessanten Vortrag zu HP Converged Infrastructure letztes Jahr ist mehrfach der Begriff „logische Server“ gefallen. HP unterscheidet heute nicht mehr zwischen virtuellen und physikalischen Servern. Möglich macht das die Virtual Connect Technologie !

Mit virtuellen Servern wurde die IT mit einer außerordentlich angenehmen Eigenschaft bereichert. Der Server ist nicht mehr fest an das „Blech“ gebunden. Jederzeit kann eine virtuelle Maschine von einem Host zu einem anderen Host übertragen werden. Welche Kostenauswirkung diese Technologie hat, möchte ich nicht weiter erörtern. 😉 Aber im Grunde genommen ist das Thema Migrationen vom Tisch.

Aber was macht man mit den Geräte die auf „Blech“ lauf müssen???

Richtig ! Man setzt konsequent HP Blade Server und HP Virtual Connect ein. 😉 *schleichwerbung* *ggg*

In besagtem Vortrag fiel irgendwann die höchst interessante Aussage: Man sei im Stande jederzeit ganze Rackreihen an Maschinen (natürlich Blade Server mit Virtual Connect)  z.B. bei Ausfall der Klimaanlage in eine klimatisierte Zone umzuziehen (oder soll ich migrieren sagen? ;)). Das ist echt Wow !

Warum das möglich ist, zeig ich euch jetzt !

In meinem C7000 BladeSystem hab ich zwei BL465c Blade Server laufen. Mit Virtual Connect bin ich sowohl im Netzwerk als auch im SAN angebunden. Beide Server booten über das SAN. Auf dem Blade Server in Bay 1 habe ich Windows Server 2008 R2 instaliert und auf dem Blade Server in Bay 2 VMware ESX 4i. Der so genannten Virtual Connect Domain hab ich einen Bereich an Seriennummer, MAC Adressen und WWN IDs zugewiesen, d.h. die statischen Einstellungen der Blade Server werden dank Virtual Connect quais überschrieben.

Auf  meiner HP EVA 5000 hab ich entsprechende LUNs bereitgestellt und die LUN Zuweisungen durchgeführt. Im Virtual Connect Manager kann man dann die Boot Reihenfolge der Blade Server auf die EVA LUN umbiegen. Ein manueller Eingriff in das Fibre Channel HBA BIOS ist nicht nötig !

Als alles soweit fertig installiert war und gelaufen ist, habe ich beide Server heruntergefahren und folgende Befehle über die CLI des Virtual Connect Moduls ausgeführt. 😉

->show profile srv-bay-1
Name                    : srv-bay-1
Device Bay              : enc0:1
Server                  : ProLiant BL465c G1
Status                  : OK
Serial Number           : INVALIDATA00
Serial Number (Logical) : VCX0000000
UUID                    : -- --
UUID (Logical)          : 268fca50-c6f2-4799-b3c0-66f75cb271e0

Ethernet Network Connections
====================================================================
Port  Network Name  Status  PXE      MAC Address        Allocated
                                                        Speed
====================================================================
1     NET_VLAN_1_A  OK      UseBIOS  00-17-A4-77-00-00  1 GB
2     NET_VLAN_1_B  OK      UseBIOS  00-17-A4-77-00-02  1 GB        

FC SAN Connections
================================================================
Port  Bay  FC SAN Name  Status  Speed  WWPN
================================================================
1     3    SAN_1_A      OK      Auto   50:06:0B:00:00:C2:62:00  

->unassign profile srv-bay-1
SUCCESS: Profile `srv-bay-1 unassigned from device bay `enc0:1`

->remove profile srv-bay-1
SUCCESS: Profile removed : srv-bay-1

->unassign profile srv-bay-2
SUCCESS: Profile `srv-bay-2 unassigned from device bay `enc0:2`
->remove profile srv-bay-2
SUCCESS: Profile removed : srv-bay-2

->add profile srv-bay-2 -NoDefaultEnetConn -NoDefaultFcConn
SNType=User-Defined SerialNumber=VCX0000000
SUCCESS: Profile added : srv-bay-2

->add enet-connection srv-bay-2 Network=NET_VLAN_1_A PXE=UseBios
AddressType=User-Defined EthernetMAC=00-17-A4-77-00-00 iScsiMac=00-17-A4-77-00-01
SUCCESS: Connection added to server profile : srv-bay-2

->add enet-connection srv-bay-2 Network=NET_VLAN_1_B PXE=UseBios
AddressType=User-Defined EthernetMAC=00-17-A4-77-00-02 iScsiMac=00-17-A4-77-00-03
SUCCESS: Connection added to server profile : srv-bay-2

->add fc-connection srv-bay-2 Fabric=SAN_1_A AddressType=User-Defined
PortWWN=50:06:0B:00:00:C2:62:00 NodeWWN=50:06:0B:00:00:C2:62:01
SUCCESS: Connection added to server profile : srv-bay-2

->set fc-connection srv-bay-2 1 BootPriority=Primary
BootPort=50:00:1F:E1:00:1D:5F:79 BootLUN=1
SUCCESS: Connection modified : srv-bay-2

->assign profile srv-bay-2 enc0:2 -PowerOn
SUCCESS: Profile 'srv-bay-2' assigned to device bay enc0:2

Was hier passiert dürfte wohl selbsterklärend sein? 😉

Ich habe die Profileinstellung vom Blade Server 1 und 2 gelöscht und das Profil von Blade Server 1 vollständig auf Blade Server 2 neu abgebildet. D.h. die MAC Adressen, WWN-IDs, Boot Einstellungen etc. einfach übernommen. 🙂 Blade Server 2 bootet ohne Probleme das zuvor auf auf Blade 1 nstallierte Windows ! Cool !!!

Allerdings ist diese Vorgehensweise viel zu kompliziert. 😉 Es geht auch viel einfacher ! Ich ziehe nun den Server von Bay 2 auf Bay 1 wieder um. 😉

->unassign profile srv-bay-2
SUCCESS: Profile `srv-bay-2` unassigned from device bay `enc0:2`

->assign profile srv-bay-2 enc0:1 -PowerOn
SUCCESS: Profile 'srv-bay-2' assigned to device bay enc0:1

Kein Wunder das alle andere Hersteller mit ähnliche Interconnect Module nachziehen. Fehlt jetzt nur noch der Weg Physical->Virtual und umgekehrt 😉 Mit ein paar Skripten sollte das durchaus möglich sein. Ergo der logische Server ist geboren. 🙂

->add profile srv-bay-2 -NoDefaultEnetConn -NoDefaultFcConn SNType=User-Defined SerialNumber=VCX0000000
SUCCESS: Profile added : srv-bay-2
->add enet-connection srv-bay-2 Network=NET_VLAN_1_A PXE=UseBios AddressType=User-Defined EthernetMAC=00-17-A4-77-00-00 iScsiMac=00-17-A4-77-00-01
SUCCESS: Connection added to server profile : srv-bay-2
->add enet-connection srv-bay-2 Network=NET_VLAN_1_B PXE=UseBios AddressType=User-Defined EthernetMAC=00-17-A4-77-00-02 iScsiMac=00-17-A4-77-00-03
SUCCESS: Connection added to server profile : srv-bay-2
->add fc-connection srv-bay-2 Fabric=SAN_1_A AddressType=User-Defined PortWWN=50:06:0B:00:00:C2:62:00 NodeWWN=50:06:0B:00:00:C2:62:01
SUCCESS: Connection added to server profile : srv-bay-

Cray T3E

Zwischen Weihnachten und Neujahr hatte ich mir vorgenommen, bei www.cray-cyber.org die Cray T3E in Betrieb zu nehmen. Gestern und vorgestern war es dann soweit. Am Montag angekommen, haben sich John und Benjamin bereits über die „kleine“ T3E mit 28 PEs (entspricht 28 Alpha 21164 Prozessoren mit je 300 MHz) gestürzt und die Torus Verkabelung fertiggestellt. Blieb eigentlich nur noch die Clock Verkabelung übrig. Die dünnen fummeligen Kabel konnte man nur noch durch Verlöten miteinander verbinden. Danach kam der große Moment: Sicherung umlegen und die Start Prozedur einleiten. Ohne Handbuch bzw. eine genaue Anleitung wären wir vermutlich verzweifelt:

  • IO-Rack Hauptsicherung umlegen
  • Festplatten Arrays einschalten
  • IO-Server einschalten und warten bis er hochgefahren ist (Running)
  • Fibre Channel Controller (FCN1) Sicherung umlegen und warten bis die LEDs links und zweite von links alleine leuchten
  • T3E Cabinet #1 Ein/Ausschalter in der Türe  einschalten
  • T3E Cabinet #1 Hauptsicherung umlegen
  • T3E Cabinet #1 Blower, WACS, Clock-Board Sicherung prüfen
  • T3E Cabinet #1 Sicherungen pro PE Modul prüfen
  • T3E Cabinet #1 Remote Enable Schalter aktivieren

Das gleiche noch mal für das zweite Cabinet, mit Ausnahme Clock Board Sicherung, da lediglich im Cabinet #1 ein Clock Board installiert ist.

Danach muss man sich an der Admin Workstation (SWS) anmelden und

$ nwacsuser

ausführen, die zwei T3E Cabinets remote anwerfen (Power On) und beim Cabinet #1 die Schalter TKC => TKCS und Soft Scan => Enable setzen.

Danach

$ bootsys -c

ausführen.

Wir konnten es kaum fassen, aber die T3E bootete tatsächlich einen UNICOS Kernel !!! Doch das mounten des Root Dateisystems schlug fehl. Wir hatten vergessen die Festplatten zu installieren. Nun ging die Sucherei los. Wo sind die Platten dieser T3E ? Gesucht – gefunden, haben wir dann beschlossen die eiskalten Festplatten erst mal aufwärmen zu lassen.

Ausgeschlafen ging es am Dienstagmorgen frisch ans Werk. Die Festplatten wurden installiert und wir starteten die Maschine. Allerdings hagelte es beim Booten (bootsys) nach kurzer Zeit jede Menge Fehlermeldungen. Darauf waren wir gar nicht gefasst! Bei einem weiteren Versuch die T3E zu booten, hagelte es erneut Fehlermeldungen, aber diesmal andere als zuvor. Und so zog sich das bis etwa Mittag hin. Wir versuchten den Fehler einzukreisen und jedes Mal überraschte uns die T3E mit neuen Fehlermeldungen. Was für eine Katastrophe.

Mit etwas Glück klickten sich Benjamin und ich durch ein Diagnose Tool von Cray. Dabei starteten wir mehrfach ein Programm, welches Reinigungsmaßnahmen an der T3E vornahm. Irgendwann meldet dieses, dass alles in Ordnung sei. Prompt booteten wir die Maschine und wir konnten die T3E tatsächlich komplett hochfahren. Erleichterung machte sich breit. Allerdings hatte ich die Platten falsch eingehängt und so klemmte es im Init Prozess ordentlich. Wir beschlossen die Maschine nochmal per haltsys auszuschalten, die Platten umzuhängen und danach noch mal alles hochzufahren.

Leider war das erneute Hochfahren nicht von Erfolg gekrönt, es hagelte wieder Fehlermeldungen, bevor die Cray überhaupt mal einen Kernel laden konnte. Die Fehlersuche ging von vorne los.

Nach dem leckeren Essen beim Italiener, kam mir die Idee, einfach mal die sogenannte GigaRing Verkabelung durchzutauschen… ich hatte irgendwie Kabel im Verdacht. Auch diese Maßnahme führte nicht zum erhofften Erfolg. Allerdings war die Cray zwischenzeitlich so gnädig und versteifte sich auf exakt ein und dieselbe Fehlermeldung. John wälzte das Handbuch und mittels speziellen Diagnose Tools konnten wir dann das Problem mehr und mehr auf den GigaRing einschränken. Als ich dann wieder auf die alte GigaRing Verkabelung umschraubte, meldeten das GigaRing Diagnose Tool, dass alles in Ordnung ist! Aufgeregt wie kleine Kinder starteten wir wieder die T3E und sie bootete durch bis in den Multiuser Mode. Juhuuuuuuuuu Mission komplett – die T3E lebt ! 🙂

Fazit: Ich finde die T3E super spannend und sie ist zu allem Überfluss verdammt leise. Am liebsten würde ich mir eine ins Wohnzimmer stellen. 🙂 Aber John will mir keine T3E abgeben. 😉

Zum Abschluß noch ein paar Impressionen von der Cray T3E:

Apple Wireless Desktop

Nach langem Warten ist heute endlich meine Apple Magic Mouse eingetroffen. 🙂 In Verbindung mit dem Wireless Keyboard sieht das schon echt schick aus ! Allerdings hätte ich mir mehr Funktionalität gewünscht. Lediglich Scrollen und Vor-/Rückwärts per Fingergestik find ich jetzt nicht sooo wahnsinnig überzeugend. Und einen guten Zahn an Geschwindigkeit darf die Maus ruhig auch zulegen. Meine Zeigergeschwindigkeit ist bei 100% und alles andere als schnell. Mal schauen was die kommenden Treiber so mitsichbringen. Ansonsten bleib ich doch lieber wieder bei meiner Logitech Maus. 😉

wireless

Gedanken fest halten: Audi Sport Quattro S1

S wie Sturm statt Sport… Der Audi Sport Quattro S1 wenn er denn mal losgelassen wurde, war wie ein entfesselter Sturm. Also wenn ich mal gerne ein Auto fahren wollen würde, dann dieses Auto!

Schon als kleines Kind – Gott weiß warum – summte ich schon die Melodie des Fünfzylinders. Höchstwahrscheinlich ist mein Papa daran Schuld. Er schleppte mich immerhin im zarten Alter von 5 bis 10 Jahren gerne zu Auto-Cross Veranstaltungen. Noch heute rieche ich das Benzin, das Öl und der Audi 5-Zylinder Klang erklingt wie eh und je in meinen Ohren.

Mal schauen, die neuen Büchsen sind eh nicht so meins, womöglich wird mein nächstes Auto doch besser ein 5-Ender. 🙂 😀

NetApp clonen? ;)

Was tun wenn man 3 Stück Sun StorEdge 6020 Arrays (eigentlich 6 Stück. :D) mit je 14 Stück 146 GB Fibre Channel Festplatten hat? Eigentlich klar, die Arrays konfigurieren und an das SAN klemmen. Tja, was ist aber wenn die installierten RAID Controller einfach nur grausam in der Bedienung sind, man maximal 2 Volumes pro Disk Array erstellen kann und die Geschwindigkeit mit ZFS einfach nur lausig ist?

Dumm in die Wäsche schauen? 😉

Ich habe versucht 4 Volumes (entspricht 2 Disk Arrays und 28 Platten) in diversen Konfigurationen (verschiedene Kombinationen aus Block Size, RAID-Level, etc.) passend für ZFS zu konfigurieren. Alle Ergebnisse waren ziemlich ernüchternd und der Weg dahin langwierig und schwierig.

Keine Lust mehr….

Die neue Idee war fix geboren. Ein StorEdge 6020/6120 kann auch zum Expansion Disk Array umgebaut werden, d.h. Controller ausbauen. Das riecht doch offensichtlich nach FC-AL. Für viel Geld hab ich mir also spezielle Kabel für die HSSDC2 Anschlüsse besorgt. Doch alle Versuche das 6020 als JBOD zu nutzen sind kläglich gescheitert.

Frust macht sich breit. :-/

Lange Zeit passierte nichts mehr und es schwirrte lediglich die Idee in meinem Kopf, die 42 Platten irgendwie in ein EMC CLARiiON CXx00 zu stecken. Nur ohne aktuelle Flares schwierige Sache. Hinzu kommt die Unsicherheit ob eine EMC CLARiiON die Platten überhaupt erkennt. Meine HP EVA tut es jedenfalls nicht so recht. Sie erkennte zwar die Platten, aber verweigert dessen Nutzung! Wieder einmal keimte der Gedanke JBOD auf. Aber woher ein JBOD nehmen? Fibre Channel JBODs sind halt alles andere als gängig. Was tun?

Ins kalte Wasser springen? 😉

Nach einigen Überlegungen und Recherchen sagte mir mein Bauch, NetApp macht doch eigentlich auch nichts anderes, als das was ich im Sinn habe? Die haben schlaue Software in ihren Filer Köpfen und brauchen doch eigentlich nur dumme JBODs mit vielen schnellen Platten, oder? Nachdem ich auch noch Verkabelungspläne für einen NetApp FAS3050 entdeckte, war ich mir immer sicherer, dass das NetApp DS14 mk2 Disk Enclosure ein dummes FC-AL JBOD sein muss. Lediglich die IO Module auf der Rückseite bereiteten mir kurzfristig Bauchschmerzen. Nach einigem hin und her entschloß ich mich für das sog. ESH2 Modul. Wie ich finde, eine gute Entscheidung. 😉

DSC03277

Aus UK habe ich mir dann für einen fairen Preis ein NetApp DS14 mk2 Disk Enclosure mit 2 Stück ESH2 Modulen besorgt. Frisch angekommen, habe ich das Enclosure mit 14 Platten aus einer meiner 6020 Arrays bestückt. In die Sun Fire X4100 hab ich einen Emulex FC HBA installiert und diesen direkt mit dem IO Modul verbunden. Das Ergebnis sieht so aus:

locadm@ius002:~$ pfexec luxadm probe
Found Fibre Channel device(s):
Node WWN:500000e010731c30  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010731C30d0s2
Node WWN:2000000087014896  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000087014896d0s2
Node WWN:500000e010730550  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010730550d0s2
Node WWN:2000000c509a551e  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A551Ed0s2
Node WWN:2000000c509a5621  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A5621d0s2
Node WWN:500000e0107325c0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107325C0d0s2
Node WWN:20000000871a4524  Device Type:Disk device
Logical Path:/dev/rdsk/c0t20000000871A4524d0s2
Node WWN:2000000c509a553f  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A553Fd0s2
Node WWN:500000e0107323e0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107323E0d0s2
Node WWN:2000000c509a4f64  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A4F64d0s2
Node WWN:500000e010730b90  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010730B90d0s2
Node WWN:20000000871ae23b  Device Type:Disk device
Logical Path:/dev/rdsk/c0t20000000871AE23Bd0s2
Node WWN:2000000c50860c5d  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C50860C5Dd0s2
Node WWN:500000e0107311b0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107311B0d0s2

Ein paar Tests belegen mir eine Schreibgeschwindigkeit von durchschnittlich 140 MByte/Sek. und eine Lesegeschwindigkeit von 210 MByte/Sek. Cool ! Es wird Zeit für 3 weitere NetApp DS14 mk2 Disk Enclosures. 😉 Die neue Idee ist geboren und schimpft sich:

„NoNapp Data ONZFS“

😀 😀 😀

Alles weitere demnächst hier in diesem Kino. 😉

Damit ich es nicht vergesse…

… im Dialog mit einem guten Freund sind heute ein paar lustige Worte gefallen. Diese will ich mir mal hier besser notieren, nicht das mein Sieb im Kopf wieder zuschlägt.

  • Krawattenkompatibel
  • Staubsauger
  • Buzzwords

Natürlich ergibt das nur im Zusammenhang einen Sinn: Krawattenkompatibel sind vermeintlich kompetente Informationen, die mit Buzzwords überladen sind und von den Schlipsträger wie Dreck vom Staubsauger aufgesaugt werden. 😉

Und was ich auch nicht vergessen will, ist folgendes Zitat:

„Und jetzt heißt das Grid halt Cloud und wieder reden alle drüber ohne genau zu wissen, wovon sie reden. Aber für die meisten Leute kommt der Strom ja auch aus der Steckdose und das Wasser aus dem Hahn.“

Soviel IT Realität/Wahrheit in zwei Sätzen ist schon fast Rekordverdächtig. 😉