Keller 2.0 – Aktuelles aus dem Keller

Es wird mal wieder Zeit für ein Keller-Update. 😉

Nach sehr langem Warten konnte ich heute endlich mein eigenes Virtual Connect 1/10 Gb Ethernet Modul entgegen nehmen. Und dieses mal hatte ich deutlich mehr Glück als mit dem 4 Gb Fibre Channel Modul, denn das Ethernet Modul funktioniert einwandfrei. Nur die Firmware ist steinalt. 😉 Aber damit hab ich kein Problem. Und das gute Stück sieht so aus:

DSC03330

Ansonsten hat sich auch ein eigener BL465c G5 Blade Server in mein BladeSystem verirrt. 😉 Die Ausstattung ist allerdings noch recht mau, d.h. 1 GB RAM und ein Opteron 2216 HE. Passende Mezzanine FC HBA Karten habe ich schon vor einiger Zeit in der Bucht für wenig Geld ersteigert, d.h. Fibre Channel Anbindung ist zum Glück kein Problem.

Daneben stecken ein paar weitere Blades aus Arbeit in meinem C7000 Enclosure. Derzeit arbeite ich nämlich an einer Cloud Computing Umgebung und zusammen mit einem Arbeitskollegen testen wir auch ein neues DMZ Konzept und Microsoft Exchange 2010. Ist schon ein schöner Anblick wenn da mal so ein paar Blades eingesteckt sind. 🙂 Irgendwann krieg ich das C7000 schon noch voll!!! 😉

DSC03331

Schon schick, wah? 😉 Ich kann mich jedenfalls nicht satt genug daran sehen.

HP Logical Server !

In einem interessanten Vortrag zu HP Converged Infrastructure letztes Jahr ist mehrfach der Begriff „logische Server“ gefallen. HP unterscheidet heute nicht mehr zwischen virtuellen und physikalischen Servern. Möglich macht das die Virtual Connect Technologie !

Mit virtuellen Servern wurde die IT mit einer außerordentlich angenehmen Eigenschaft bereichert. Der Server ist nicht mehr fest an das „Blech“ gebunden. Jederzeit kann eine virtuelle Maschine von einem Host zu einem anderen Host übertragen werden. Welche Kostenauswirkung diese Technologie hat, möchte ich nicht weiter erörtern. 😉 Aber im Grunde genommen ist das Thema Migrationen vom Tisch.

Aber was macht man mit den Geräte die auf „Blech“ lauf müssen???

Richtig ! Man setzt konsequent HP Blade Server und HP Virtual Connect ein. 😉 *schleichwerbung* *ggg*

In besagtem Vortrag fiel irgendwann die höchst interessante Aussage: Man sei im Stande jederzeit ganze Rackreihen an Maschinen (natürlich Blade Server mit Virtual Connect)  z.B. bei Ausfall der Klimaanlage in eine klimatisierte Zone umzuziehen (oder soll ich migrieren sagen? ;)). Das ist echt Wow !

Warum das möglich ist, zeig ich euch jetzt !

In meinem C7000 BladeSystem hab ich zwei BL465c Blade Server laufen. Mit Virtual Connect bin ich sowohl im Netzwerk als auch im SAN angebunden. Beide Server booten über das SAN. Auf dem Blade Server in Bay 1 habe ich Windows Server 2008 R2 instaliert und auf dem Blade Server in Bay 2 VMware ESX 4i. Der so genannten Virtual Connect Domain hab ich einen Bereich an Seriennummer, MAC Adressen und WWN IDs zugewiesen, d.h. die statischen Einstellungen der Blade Server werden dank Virtual Connect quais überschrieben.

Auf  meiner HP EVA 5000 hab ich entsprechende LUNs bereitgestellt und die LUN Zuweisungen durchgeführt. Im Virtual Connect Manager kann man dann die Boot Reihenfolge der Blade Server auf die EVA LUN umbiegen. Ein manueller Eingriff in das Fibre Channel HBA BIOS ist nicht nötig !

Als alles soweit fertig installiert war und gelaufen ist, habe ich beide Server heruntergefahren und folgende Befehle über die CLI des Virtual Connect Moduls ausgeführt. 😉

->show profile srv-bay-1
Name                    : srv-bay-1
Device Bay              : enc0:1
Server                  : ProLiant BL465c G1
Status                  : OK
Serial Number           : INVALIDATA00
Serial Number (Logical) : VCX0000000
UUID                    : -- --
UUID (Logical)          : 268fca50-c6f2-4799-b3c0-66f75cb271e0

Ethernet Network Connections
====================================================================
Port  Network Name  Status  PXE      MAC Address        Allocated
                                                        Speed
====================================================================
1     NET_VLAN_1_A  OK      UseBIOS  00-17-A4-77-00-00  1 GB
2     NET_VLAN_1_B  OK      UseBIOS  00-17-A4-77-00-02  1 GB        

FC SAN Connections
================================================================
Port  Bay  FC SAN Name  Status  Speed  WWPN
================================================================
1     3    SAN_1_A      OK      Auto   50:06:0B:00:00:C2:62:00  

->unassign profile srv-bay-1
SUCCESS: Profile `srv-bay-1 unassigned from device bay `enc0:1`

->remove profile srv-bay-1
SUCCESS: Profile removed : srv-bay-1

->unassign profile srv-bay-2
SUCCESS: Profile `srv-bay-2 unassigned from device bay `enc0:2`
->remove profile srv-bay-2
SUCCESS: Profile removed : srv-bay-2

->add profile srv-bay-2 -NoDefaultEnetConn -NoDefaultFcConn
SNType=User-Defined SerialNumber=VCX0000000
SUCCESS: Profile added : srv-bay-2

->add enet-connection srv-bay-2 Network=NET_VLAN_1_A PXE=UseBios
AddressType=User-Defined EthernetMAC=00-17-A4-77-00-00 iScsiMac=00-17-A4-77-00-01
SUCCESS: Connection added to server profile : srv-bay-2

->add enet-connection srv-bay-2 Network=NET_VLAN_1_B PXE=UseBios
AddressType=User-Defined EthernetMAC=00-17-A4-77-00-02 iScsiMac=00-17-A4-77-00-03
SUCCESS: Connection added to server profile : srv-bay-2

->add fc-connection srv-bay-2 Fabric=SAN_1_A AddressType=User-Defined
PortWWN=50:06:0B:00:00:C2:62:00 NodeWWN=50:06:0B:00:00:C2:62:01
SUCCESS: Connection added to server profile : srv-bay-2

->set fc-connection srv-bay-2 1 BootPriority=Primary
BootPort=50:00:1F:E1:00:1D:5F:79 BootLUN=1
SUCCESS: Connection modified : srv-bay-2

->assign profile srv-bay-2 enc0:2 -PowerOn
SUCCESS: Profile 'srv-bay-2' assigned to device bay enc0:2

Was hier passiert dürfte wohl selbsterklärend sein? 😉

Ich habe die Profileinstellung vom Blade Server 1 und 2 gelöscht und das Profil von Blade Server 1 vollständig auf Blade Server 2 neu abgebildet. D.h. die MAC Adressen, WWN-IDs, Boot Einstellungen etc. einfach übernommen. 🙂 Blade Server 2 bootet ohne Probleme das zuvor auf auf Blade 1 nstallierte Windows ! Cool !!!

Allerdings ist diese Vorgehensweise viel zu kompliziert. 😉 Es geht auch viel einfacher ! Ich ziehe nun den Server von Bay 2 auf Bay 1 wieder um. 😉

->unassign profile srv-bay-2
SUCCESS: Profile `srv-bay-2` unassigned from device bay `enc0:2`

->assign profile srv-bay-2 enc0:1 -PowerOn
SUCCESS: Profile 'srv-bay-2' assigned to device bay enc0:1

Kein Wunder das alle andere Hersteller mit ähnliche Interconnect Module nachziehen. Fehlt jetzt nur noch der Weg Physical->Virtual und umgekehrt 😉 Mit ein paar Skripten sollte das durchaus möglich sein. Ergo der logische Server ist geboren. 🙂

->add profile srv-bay-2 -NoDefaultEnetConn -NoDefaultFcConn SNType=User-Defined SerialNumber=VCX0000000
SUCCESS: Profile added : srv-bay-2
->add enet-connection srv-bay-2 Network=NET_VLAN_1_A PXE=UseBios AddressType=User-Defined EthernetMAC=00-17-A4-77-00-00 iScsiMac=00-17-A4-77-00-01
SUCCESS: Connection added to server profile : srv-bay-2
->add enet-connection srv-bay-2 Network=NET_VLAN_1_B PXE=UseBios AddressType=User-Defined EthernetMAC=00-17-A4-77-00-02 iScsiMac=00-17-A4-77-00-03
SUCCESS: Connection added to server profile : srv-bay-2
->add fc-connection srv-bay-2 Fabric=SAN_1_A AddressType=User-Defined PortWWN=50:06:0B:00:00:C2:62:00 NodeWWN=50:06:0B:00:00:C2:62:01
SUCCESS: Connection added to server profile : srv-bay-

Cray T3E

Zwischen Weihnachten und Neujahr hatte ich mir vorgenommen, bei www.cray-cyber.org die Cray T3E in Betrieb zu nehmen. Gestern und vorgestern war es dann soweit. Am Montag angekommen, haben sich John und Benjamin bereits über die „kleine“ T3E mit 28 PEs (entspricht 28 Alpha 21164 Prozessoren mit je 300 MHz) gestürzt und die Torus Verkabelung fertiggestellt. Blieb eigentlich nur noch die Clock Verkabelung übrig. Die dünnen fummeligen Kabel konnte man nur noch durch Verlöten miteinander verbinden. Danach kam der große Moment: Sicherung umlegen und die Start Prozedur einleiten. Ohne Handbuch bzw. eine genaue Anleitung wären wir vermutlich verzweifelt:

  • IO-Rack Hauptsicherung umlegen
  • Festplatten Arrays einschalten
  • IO-Server einschalten und warten bis er hochgefahren ist (Running)
  • Fibre Channel Controller (FCN1) Sicherung umlegen und warten bis die LEDs links und zweite von links alleine leuchten
  • T3E Cabinet #1 Ein/Ausschalter in der Türe  einschalten
  • T3E Cabinet #1 Hauptsicherung umlegen
  • T3E Cabinet #1 Blower, WACS, Clock-Board Sicherung prüfen
  • T3E Cabinet #1 Sicherungen pro PE Modul prüfen
  • T3E Cabinet #1 Remote Enable Schalter aktivieren

Das gleiche noch mal für das zweite Cabinet, mit Ausnahme Clock Board Sicherung, da lediglich im Cabinet #1 ein Clock Board installiert ist.

Danach muss man sich an der Admin Workstation (SWS) anmelden und

$ nwacsuser

ausführen, die zwei T3E Cabinets remote anwerfen (Power On) und beim Cabinet #1 die Schalter TKC => TKCS und Soft Scan => Enable setzen.

Danach

$ bootsys -c

ausführen.

Wir konnten es kaum fassen, aber die T3E bootete tatsächlich einen UNICOS Kernel !!! Doch das mounten des Root Dateisystems schlug fehl. Wir hatten vergessen die Festplatten zu installieren. Nun ging die Sucherei los. Wo sind die Platten dieser T3E ? Gesucht – gefunden, haben wir dann beschlossen die eiskalten Festplatten erst mal aufwärmen zu lassen.

Ausgeschlafen ging es am Dienstagmorgen frisch ans Werk. Die Festplatten wurden installiert und wir starteten die Maschine. Allerdings hagelte es beim Booten (bootsys) nach kurzer Zeit jede Menge Fehlermeldungen. Darauf waren wir gar nicht gefasst! Bei einem weiteren Versuch die T3E zu booten, hagelte es erneut Fehlermeldungen, aber diesmal andere als zuvor. Und so zog sich das bis etwa Mittag hin. Wir versuchten den Fehler einzukreisen und jedes Mal überraschte uns die T3E mit neuen Fehlermeldungen. Was für eine Katastrophe.

Mit etwas Glück klickten sich Benjamin und ich durch ein Diagnose Tool von Cray. Dabei starteten wir mehrfach ein Programm, welches Reinigungsmaßnahmen an der T3E vornahm. Irgendwann meldet dieses, dass alles in Ordnung sei. Prompt booteten wir die Maschine und wir konnten die T3E tatsächlich komplett hochfahren. Erleichterung machte sich breit. Allerdings hatte ich die Platten falsch eingehängt und so klemmte es im Init Prozess ordentlich. Wir beschlossen die Maschine nochmal per haltsys auszuschalten, die Platten umzuhängen und danach noch mal alles hochzufahren.

Leider war das erneute Hochfahren nicht von Erfolg gekrönt, es hagelte wieder Fehlermeldungen, bevor die Cray überhaupt mal einen Kernel laden konnte. Die Fehlersuche ging von vorne los.

Nach dem leckeren Essen beim Italiener, kam mir die Idee, einfach mal die sogenannte GigaRing Verkabelung durchzutauschen… ich hatte irgendwie Kabel im Verdacht. Auch diese Maßnahme führte nicht zum erhofften Erfolg. Allerdings war die Cray zwischenzeitlich so gnädig und versteifte sich auf exakt ein und dieselbe Fehlermeldung. John wälzte das Handbuch und mittels speziellen Diagnose Tools konnten wir dann das Problem mehr und mehr auf den GigaRing einschränken. Als ich dann wieder auf die alte GigaRing Verkabelung umschraubte, meldeten das GigaRing Diagnose Tool, dass alles in Ordnung ist! Aufgeregt wie kleine Kinder starteten wir wieder die T3E und sie bootete durch bis in den Multiuser Mode. Juhuuuuuuuuu Mission komplett – die T3E lebt ! 🙂

Fazit: Ich finde die T3E super spannend und sie ist zu allem Überfluss verdammt leise. Am liebsten würde ich mir eine ins Wohnzimmer stellen. 🙂 Aber John will mir keine T3E abgeben. 😉

Zum Abschluß noch ein paar Impressionen von der Cray T3E:

Apple Wireless Desktop

Nach langem Warten ist heute endlich meine Apple Magic Mouse eingetroffen. 🙂 In Verbindung mit dem Wireless Keyboard sieht das schon echt schick aus ! Allerdings hätte ich mir mehr Funktionalität gewünscht. Lediglich Scrollen und Vor-/Rückwärts per Fingergestik find ich jetzt nicht sooo wahnsinnig überzeugend. Und einen guten Zahn an Geschwindigkeit darf die Maus ruhig auch zulegen. Meine Zeigergeschwindigkeit ist bei 100% und alles andere als schnell. Mal schauen was die kommenden Treiber so mitsichbringen. Ansonsten bleib ich doch lieber wieder bei meiner Logitech Maus. 😉

wireless

Gedanken fest halten: Audi Sport Quattro S1

S wie Sturm statt Sport… Der Audi Sport Quattro S1 wenn er denn mal losgelassen wurde, war wie ein entfesselter Sturm. Also wenn ich mal gerne ein Auto fahren wollen würde, dann dieses Auto!

Schon als kleines Kind – Gott weiß warum – summte ich schon die Melodie des Fünfzylinders. Höchstwahrscheinlich ist mein Papa daran Schuld. Er schleppte mich immerhin im zarten Alter von 5 bis 10 Jahren gerne zu Auto-Cross Veranstaltungen. Noch heute rieche ich das Benzin, das Öl und der Audi 5-Zylinder Klang erklingt wie eh und je in meinen Ohren.

Mal schauen, die neuen Büchsen sind eh nicht so meins, womöglich wird mein nächstes Auto doch besser ein 5-Ender. 🙂 😀

NetApp clonen? ;)

Was tun wenn man 3 Stück Sun StorEdge 6020 Arrays (eigentlich 6 Stück. :D) mit je 14 Stück 146 GB Fibre Channel Festplatten hat? Eigentlich klar, die Arrays konfigurieren und an das SAN klemmen. Tja, was ist aber wenn die installierten RAID Controller einfach nur grausam in der Bedienung sind, man maximal 2 Volumes pro Disk Array erstellen kann und die Geschwindigkeit mit ZFS einfach nur lausig ist?

Dumm in die Wäsche schauen? 😉

Ich habe versucht 4 Volumes (entspricht 2 Disk Arrays und 28 Platten) in diversen Konfigurationen (verschiedene Kombinationen aus Block Size, RAID-Level, etc.) passend für ZFS zu konfigurieren. Alle Ergebnisse waren ziemlich ernüchternd und der Weg dahin langwierig und schwierig.

Keine Lust mehr….

Die neue Idee war fix geboren. Ein StorEdge 6020/6120 kann auch zum Expansion Disk Array umgebaut werden, d.h. Controller ausbauen. Das riecht doch offensichtlich nach FC-AL. Für viel Geld hab ich mir also spezielle Kabel für die HSSDC2 Anschlüsse besorgt. Doch alle Versuche das 6020 als JBOD zu nutzen sind kläglich gescheitert.

Frust macht sich breit. :-/

Lange Zeit passierte nichts mehr und es schwirrte lediglich die Idee in meinem Kopf, die 42 Platten irgendwie in ein EMC CLARiiON CXx00 zu stecken. Nur ohne aktuelle Flares schwierige Sache. Hinzu kommt die Unsicherheit ob eine EMC CLARiiON die Platten überhaupt erkennt. Meine HP EVA tut es jedenfalls nicht so recht. Sie erkennte zwar die Platten, aber verweigert dessen Nutzung! Wieder einmal keimte der Gedanke JBOD auf. Aber woher ein JBOD nehmen? Fibre Channel JBODs sind halt alles andere als gängig. Was tun?

Ins kalte Wasser springen? 😉

Nach einigen Überlegungen und Recherchen sagte mir mein Bauch, NetApp macht doch eigentlich auch nichts anderes, als das was ich im Sinn habe? Die haben schlaue Software in ihren Filer Köpfen und brauchen doch eigentlich nur dumme JBODs mit vielen schnellen Platten, oder? Nachdem ich auch noch Verkabelungspläne für einen NetApp FAS3050 entdeckte, war ich mir immer sicherer, dass das NetApp DS14 mk2 Disk Enclosure ein dummes FC-AL JBOD sein muss. Lediglich die IO Module auf der Rückseite bereiteten mir kurzfristig Bauchschmerzen. Nach einigem hin und her entschloß ich mich für das sog. ESH2 Modul. Wie ich finde, eine gute Entscheidung. 😉

DSC03277

Aus UK habe ich mir dann für einen fairen Preis ein NetApp DS14 mk2 Disk Enclosure mit 2 Stück ESH2 Modulen besorgt. Frisch angekommen, habe ich das Enclosure mit 14 Platten aus einer meiner 6020 Arrays bestückt. In die Sun Fire X4100 hab ich einen Emulex FC HBA installiert und diesen direkt mit dem IO Modul verbunden. Das Ergebnis sieht so aus:

locadm@ius002:~$ pfexec luxadm probe
Found Fibre Channel device(s):
Node WWN:500000e010731c30  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010731C30d0s2
Node WWN:2000000087014896  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000087014896d0s2
Node WWN:500000e010730550  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010730550d0s2
Node WWN:2000000c509a551e  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A551Ed0s2
Node WWN:2000000c509a5621  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A5621d0s2
Node WWN:500000e0107325c0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107325C0d0s2
Node WWN:20000000871a4524  Device Type:Disk device
Logical Path:/dev/rdsk/c0t20000000871A4524d0s2
Node WWN:2000000c509a553f  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A553Fd0s2
Node WWN:500000e0107323e0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107323E0d0s2
Node WWN:2000000c509a4f64  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C509A4F64d0s2
Node WWN:500000e010730b90  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E010730B90d0s2
Node WWN:20000000871ae23b  Device Type:Disk device
Logical Path:/dev/rdsk/c0t20000000871AE23Bd0s2
Node WWN:2000000c50860c5d  Device Type:Disk device
Logical Path:/dev/rdsk/c0t2000000C50860C5Dd0s2
Node WWN:500000e0107311b0  Device Type:Disk device
Logical Path:/dev/rdsk/c0t500000E0107311B0d0s2

Ein paar Tests belegen mir eine Schreibgeschwindigkeit von durchschnittlich 140 MByte/Sek. und eine Lesegeschwindigkeit von 210 MByte/Sek. Cool ! Es wird Zeit für 3 weitere NetApp DS14 mk2 Disk Enclosures. 😉 Die neue Idee ist geboren und schimpft sich:

„NoNapp Data ONZFS“

😀 😀 😀

Alles weitere demnächst hier in diesem Kino. 😉

Damit ich es nicht vergesse…

… im Dialog mit einem guten Freund sind heute ein paar lustige Worte gefallen. Diese will ich mir mal hier besser notieren, nicht das mein Sieb im Kopf wieder zuschlägt.

  • Krawattenkompatibel
  • Staubsauger
  • Buzzwords

Natürlich ergibt das nur im Zusammenhang einen Sinn: Krawattenkompatibel sind vermeintlich kompetente Informationen, die mit Buzzwords überladen sind und von den Schlipsträger wie Dreck vom Staubsauger aufgesaugt werden. 😉

Und was ich auch nicht vergessen will, ist folgendes Zitat:

„Und jetzt heißt das Grid halt Cloud und wieder reden alle drüber ohne genau zu wissen, wovon sie reden. Aber für die meisten Leute kommt der Strom ja auch aus der Steckdose und das Wasser aus dem Hahn.“

Soviel IT Realität/Wahrheit in zwei Sätzen ist schon fast Rekordverdächtig. 😉

Sun Fire X4100 wiederbelebt

Nachdem ich ja gestern einen Tag voller Pleiten, Pech und Pannen durchlitten habe, sieht es heute schon wieder deutlich sonniger aus. 😉 Ein Highlight des Tages ist, dass ich das Problem der Sun Fire X4100 lokalisieren und beheben könnte. Nachdem ich die Batterie und alle DIMM Bausteine aus- und wieder eingebaut hatte, leuchtete doch endlich mal die Warn LED an der Front auf. Hurra, ein Lebenszeichen!!! Dem ILOM Log nach handelt es sich um zwei defekte DIMM Riegel, die ich unverzüglich ausgewechselt habe. Danach sprang Kiste auch an, als wäre nichts gewesen. 🙂

OpenSolaris ist natürlich installiert, ein rpool Mirror zur Sicherheit und der Local Repository Server eingerichtet. Endlich kann es weiter gehen. 😉

locadm@ius002:~# uname -a
SunOS ius002 5.11 snv_111b i86pc i386 i86pc
locadm@ius002:~# prtdiag -v
System Configuration: Sun Microsystems Sun Fire X4100 Server
BIOS Configuration: American Megatrends Inc. 080010  08/01/2006
BMC Configuration: IPMI 2.0 (KCS: Keyboard Controller Style)

==== Processor Sockets ====================================

Version                          Location Tag
-------------------------------- --------------------------
Dual Core AMD Opteron(tm) Processor 285 H0
Dual Core AMD Opteron(tm) Processor 285 H1
Dual Core AMD Opteron(tm) Processor 285 H2
Dual Core AMD Opteron(tm) Processor 285 H3

==== Memory Device Sockets ================================

Type        Status Set Device Locator      Bank Locator
----------- ------ --- ------------------- ----------------
DDR         in use 0   H0_DIMM0            BANK0
DDR         in use 0   H0_DIMM1            BANK1
DDR         in use 0   H0_DIMM2            BANK2
DDR         in use 0   H0_DIMM3            BANK3
DDR         in use 0   H1_DIMM0            BANK4
DDR         in use 0   H1_DIMM1            BANK5
unknown     empty  0   H1_DIMM2            BANK6
unknown     empty  0   H1_DIMM3            BANK7

==== On-Board Devices =====================================
 LSI serial-ATA #1
 Gigabit Ethernet #1
 Gigabit Ethernet #2
 ATI Rage XL VGA

==== Upgradeable Slots ====================================

ID  Status    Type             Description
--- --------- ---------------- ----------------------------
0   in use    PCI-X            PCIX SLOT0
1   available PCI-X            PCIX SLOT1
2   available PCI-X            PCIX SLOT2
3   available PCI-X            PCIX SLOT3
4   available PCI-X            PCIX SLOT4
locadm@ius002:~#

Schwarzer Tag ! Freitag der 20. :(

Grrrrrrrrrrr… eigentlich hat es ja schon in der Nacht von Donnerstag auf Freitag begonnen, irre Schmerzen im linken Bein und in der Hüfte. Da drückt wohl mal wieder irgendwo ein verspannter Wirbelsäulen Muskel auf den Nerv. 🙁 Also heute Vormittag Termin bei Arzt ausgemacht.

Derweil kümmerte ich mich mal um mein verbleibendes Paket aus den USA. Ich erwarte ja seit langer Zeit ein HP Virtual Connect Ethernet Modul für mein  HP BladeSystem. Laut USPS (United States Postal Services) Tracking Status befindet sich das Paket seit 10.11. in Deutschland in der Zustellung, d.h. Zoll schon passiert. Aber wo bleibt denn mein Paket? Bin mal prompt in die Post geflitzt um mich dort zu erkundigen. Keine Chance. *seufz* Ist ja nicht so, dass ich das Virtual Connect Modul geschenkt bekommen habe. 🙁

Nachmittags hab ich mich dann heran gemacht meinen abgerauchten DNS/DHCP/JumpStart/AI/osol-Repo/etc. Server wieder neu aufzusetzen. Erstmal das Atom 330 Board, usw. in ein Gehäuse geschraubt, CD eingelegt, OpenSolaris installiert. 🙂 Hat geklappt. Leider war das Ding irgendwie schrecklich laut. Also entschloss ich mich das Netzteil zu wechseln. Gesagt – getan… System angeworfen und Grub meldet einen Fehler. 🙁 Och menno! OpenSolaris CD nochmal eingelegt und Installation wiederholt. Leider knatterte die Platte verdächtig laut und nichts ging mehr voran. Mist! Also Platte gewechselt, Installation nochmal gestartet. Nachdem ich dann die Box soweit eingerichtet hatte, hab ich den OpenSolaris Local Repository Server fertig gemacht. Hat soweit prima geklappt und schon hatte ich mich über die Zonen auf der Sun Fire T1000 hergemacht. Mit einem eigenen OpenSolaris Mirror macht das arbeiten mit OpenSolaris deutlich mehr Spaß. Aber die Freude hielt nicht lange an, irgendwann war das Repository nicht mehr erreichbar und die Kiste schon wieder tot! Reset, OpenSolaris bootet, Anmeldung und dann nichts mehr. 🙁 Scheiße…

Daraufhin beschloss ich OpenSolaris lieber mal auf der Sun Fire X4100 zu installieren. Zu dumm nur, dass die Kiste keinen BIOS POST auf Bildschirm noch auf die ILOM Konsole zauberte. Das Ding zuckte trotz aller Bemühungen nicht mehr. Was ist denn hier passiert? Das darf doch echt nicht wahr sein?

Neben all den Pleiten, Pech und Pannen quälen mich trotz Arztbesuch weiter meine Schmerzen in Bein und Hüfte. 🙁 Da soll mir noch ein erzählen, Freitag der 13. wäre ein rabenschwarzer Tag.

Na dann Prost, ich trinke jetzt weiter an  meinem Glas Rotwein und spüle den Frust runter. *seufz*

Gruß
Tschokko

Frage an alle ! Oracle und Linux…

Heute mal kein Beitrag zum Keller oder zu Solaris… im Gegenteil ! Seit ein paar Tagen beschäftigt mich eine Entscheidung und ich suche nach den Erklärungen. Vielleicht könnt Ihr da draußen mir helfen.

Vor ein paar Tagen hatte ich ein kurzes Gespräch mit einem Kunden und dabei kam zu Wort, dass die betagte Oracle Datenbank Umgebung abgelöst wird. Bisher leistete ein Oracle RAC auf einer Sun Fire 6800/6900 – natürlich unter Solaris – halbwegs zuverlässige Dienste. Das System hat wohl schon locker 7 Jahre auf dem Buckel, wurde auch schon „gepimpt“ und ist dennoch inzwischen einfach nicht mehr zeitgemäß. (IMHO verständlich!) Auf dem System laufen sehr viele Instanzen und wirklich jeeeeeeede Menge Datenbanken (Schemas). Details kann ich nicht preisgeben, erstens weil ich diese kaum kenne und zweitens weil es keine Information für die Öffentlichkeit ist.

Man hat sich für eine neuen Lösung mit Linux – vermutlich RHEL oder Oracle Linux – entschieden ! Hardware sind HP Blade Server mit x86/64 Architektur und Storage sehr wahrscheinlich EMC. Man plant ein großes und flexibles Oracle Grid, d.h. wohl ein RAC über jede Menge Blades.

Prinzipiell ist gegen die Entscheidung HP als Hardwarelieferant nichts einzuwenden. 😉 Bei dieser Aussage lacht natürlich mein HP Herz. Aber das ist subjektiv und darum will ich auch nicht weiter darauf eingehen.

Was ich aber nicht verstehe ist die Entscheidung für Linux. Also mit J2EE Application Server Farmen, große MySQL Installationen, Apache HTTP, etc. hab ich mit Linux als Betriebssystem wenig Schmerzen. Aber ein Mission Critical Oracle RAC unter Linux? So ein bißchen Angst um meine Daten und um meine vereinbarten SLAs hätte ich da ja schon.

Ist ja nicht so, dass bei dem Vorhaben eine neue Umgebung zu bauen Oracle/Sun gar nicht ins Haus geholt worden sind. Aber so Recht überzeugen konnte der Verrein nicht. Mit einem Schwung Sun M5000 Server wollte man sich nicht abspeisen lassen! Hinzu kommt, dass das Oracle/Sun Angebot wohl preislich nicht unbedingt günstig war.

Auf die Frage hin warum man sich nicht für Solaris x86 auf HP Blade Server entschieden hat, kam nur: Lediglich eine Referenz in Deutschland und Oracle konzentriert sich offensichtlich erstmal weiter auf ihr Oracle Linux. Man möchte abwarten, wie sich das ganze in den nächsten Jahren entwickelt. Wie bitte ???

Nachdem ich nun so nebenbei ziemlich „spektakuläre“ Erfahrungswerte zu Linux erhalte – in naher Zukunft mehr dazu, die Welt soll ruhig wissen, was es bedeutet auf Linux zu setzen. 😉 – ich auch so meine Erfahrungen damit habe, wird mir eigentlich Himmelangst. Im Prinzip kann man dann doch gleich sein PPS System auf Linux umziehen und darauf hoffen, dass die Produktion irgendwie rund rennt. Man bastelt sich das dann schon zurecht. 😉 Interessant ist aber nur, dass genau solche Systeme eben nicht unter Linux tun! Doch ein großer Oracle RAC auf dem wirklich jede Menge Anwendungen zugreifen ist aber dagegen Linux tauglich? Das ist nicht Euer Ernst?

Ergo, wenn der Oracle RAC in Probleme läuft, dann bastelt man sich halt das irgendwie wieder hin. Genauso bastelt man halt die Updates rein, irgendwie kriegt man schon die Kernel Module wieder zum fliegen. Vor allem jetzt wo doch Oracle auch an seinem eigenen Linux und eigenen Kernel Modulen bastelt. Zur Not muss halt der GCC herhalten und irgendwelche Anleitungen aus dem großen World Wide Web. Irgendwie (ich wiederhole mich) kriegt man das Ding schon zum Fliegen. Mir fehlen die Worte! Das ist Enteprise im Jahr 2010 oder?

Na dann Prost, da wechsle ich dann doch lieber zu einem MSSQL Cluster auf einem HP Integrity Superdome 😉 Und ihr wisst was ich von Windows halte. 😉

Bin ich denn wirklich alleine auf diesem Planeten, der Bedenken mit Linux im Mission Critical Segment hat? Bin ich denn der Einzige, der schon allein des Bauchgefühls wegen (und das hat meistens immer Recht), niemals einen großen Oracle RAC unter Linux empfehlen und aufsetzen würde? Gerade wo es doch sooooo ausgereifte Betriebssysteme und HA Umgebungen gibt, die sich schon mehr als nur ein Jahrzehnt lang bewährt haben. *seufz*

Wie ist eure Meinung?

Gruß
Tschokko