Musings zu System- Verfügbarkeit

Eine beliebte Annahme um die Betriebsanforderungen im IT-Hosting herabzusetzen ist die Einschränkung der Betriebszeit. Statt den legendären “24×7” sagt man “nur in den Bürozeiten”. Dann  lässt man sich leichtfertiger Weise dazu hinreißen den Berichtszeitraum auf “Monatlich” zu wählen.

Erkenntnis des Tages: bei Office Betriebszeit und monatlichem KPI kommt man in der vertraglich zugesicherten maximalen Ausfallzeit schon bei den vermeintlich anspruchslosen 98% Verfügbarkeit auf eine maximale Ausfall-Dauer unterhalb der oft kritischen 4 Stunden Marke.

Vielleicht entlasten die Annahmen in der Personalplanung, aber Abstriche in der technischen Auslegung von Lösungen sind IMHO damit nicht akzeptabel. Der Ausfall sucht sich ja nicht per se den für den Betreiber günstigsten Zeitpunkt.

Eigentlich hilft diese Betrachtung nur bei Ausfällen, welche kurz vor Feierabend passieren und dann mit ungeplantem und vertrieblich nicht budgetiertem Personal-Einsatz außerhalb der Betriebszeit behoben werden.

 

Für eine 4 Stunden Abdeckung, werden in jedem anderen Szenario mindesten 99,5% Verfügbarkeit gefordert bzw. konzipiert. Insofern: trau, schau, wem.

 

kyp.F.

Angezockt: Crysis 3

Drei’nhalb Stunden drin in Crysis 3. Shooter der Extraklasse. Hat bei Weitem nicht mehr so viel mit der realen Welt zu tun, als dass man sich hier irgendeine verwaschene Kritik an den Haaren herbei ziehen müsste.

Die Hardware-Modifikationen der letzten Tage waren ein Glückstreffer. Ohne hätte ich vermutlich nicht antreten brauchen. So zockt es sich mit 1600×1200 erklecklich flüssig ohne irgendwelche Features grundlegend deaktivieren zu müssen. Der LOD ist auch auf große Entfernung beachtlich und erfreulich fein detailliert. Hin und wieder merke ich mit meiner Ausstattung einen kleinen Ruckeler … Da wären dann ein paar mehr Gigahertz vermutlich kein Schaden und auch Menschen die 400 und mehr Euro für aktuelle Grafikhardware ausgeben, können hier noch einmal etwas nachlegen.

Aber zum Spiel: Ganz subjektiv hatte ich bisher bei Crysis eigentlich immer irgendwelche Einstiegsprobleme. In die Steuerung, die Handlung, das Setting … und daraus wurde dann innerhalb von zwei Stunden eine gewisse Frustrations-Bugwelle die immer dazu geführt hat, dass Crysis weder durchgespielt noch neu angegangen wurde. Letztenendes hat für meine Verhältnisse die viel beschworene Balance immer einen Knick.

Das ist diesmal ganz anders. Der Einstieg in die Story ist packend. Mit Psycho trifft man einen alten Bekannten, der etwas angeschlagen scheint, aber einem auch toll in die “neue Welt” einführt. Er ist auch derjenige der einem in der Hunter Edition dann gleich das neue Spielzeug, den Predator Bow, überreicht. Sobald man ein paar Blocks gelaufen ist offenbart sich die neue Spielwelt, eine Art post-apokalyptisches New York das von einer Mega-Company im Würgegriff gehalten wird. Shadowrun meets Resident Evil. Ich will gar nicht spoilen, aber die Spielwelt in ihrer faszinierenden Ausgestaltung und Detail-Tiefe saugt einen förmlich in sich hinein und man ist gefangen. Wenn ein Sektor befriedet ist, bummele ich gerne noch einmal durch die entlegenen Ecken nur um mir die Gegend anzusehen oder auch die Aussicht zu genießen.

Die Story entwickelt sich zügig und nicht ohne Knalleffekte. Auch wenn man grundsätzlich beim Prinzip Shooter Ablauf-mäßig keine Quantensprünge erwarten darf, sind die verschiedenen Szenarien schon mit einer fast psychotischen Liebe zum Detail arrangiert.

Im Spielverlauf selbst findet man recht zügig eine Reihe von Werkzeugen, die es einem erlauben die persönlichen Favoriten auszuloten. Auch hier macht der Variantenreichtum reichlich Freude, erlaubt ein bisschen zu Experimentieren und ohne allzu tief in die Glaskugel sehen zu wollen, findet hier jeder relative zügig seine individuell bevorzugte Austattung. Die Auswahl an Langwaffen scheint mir umfangreicher, als an Kurzwaffen, wobei ich persönlich auf letztere sogar gerne verzichte.

Der Knaller schlechthin ist ohnehin der Komposit-Bogen mit einer Auswahl an normalen, elektrisch geladenen oder verschieden explosiven Pfeilen. Die Möglichkeit lautlos und unerkannt zuerst einmal die Opposition auf ein erträgliches Maß zu dezimieren, bevor man sich in allzu große Gefahr begibt, hat doch auch erhebliche Momente und gibt der eher Sniper- taktischen Vorgehensweise eine neue Nuance. Darauf habe ich schon immer gewartet 😉

Alles in Allem, ein spektakulärer Neuzugang: Sehr empfehlenswert.

Pimp More Alteisen – XW4400

Da ja meine Angetraute auch etwas mehr Spaß am PC haben möchte wird die XW4400 die mir 6 Jahre lang gute Dienste geleistet hat auch moderat gepimpt. Im Feminin-minimalistischen Ansatz war die Design vorgabe “so schnell dass es Spaß macht” aber “bloß kein Geld ausgeben”

Der Core 2Duo mit 2.4 GHz. ist nach wie vor Robust. Ein Freigewordener DVD Brenner ergänzt das vorhandene Laufwerk. Die vorhandene GT240 Nvidia ist noch ebenfalls noch ein Device mit dem man sich wohl fühlen kann.

Spannend wird es beim Thema Massen- und Speicher überhaupt. Die vorhandenen 2GB Memory wurden nach dem etwas mageren Ergebnis im Windows Leistungsindex um weitere 2GB ergänzt. Den wirklichen Kick bringt auch hier eine Samsung SSD840 mit 128 GB. Mit beiden Erweiterungen gelingt der Sprung über die 6er Marke im Windows Leistungsindex des neu Installierten Windows7 home Premium.

Jeder der sich mit dem Kauf eines neuen PC auseinandersetzt sollte sich erst einmal fragen ob einfach eine SSD als Systemplatte nicht reicht. Je nach Anwendungsfokus gibt ohnehin die Grafikkarte den Takt vor.

Primäres generelles Leistungskriterium ist der Speicherdurchsatz, der im ganzen System die Balance hält und zwar von der CPU über Hauptspeicher bis hin zur Festplatte (Auslagerungsdatei). Wenn man die Leistung durchgängig gleich hoch hält, bewegt man sich nahe am Maximum des im vorgegebenen Rahmen Möglichen. Zieht eine Komponente – zu wenig Hauptspeicher – eine langsame Platte – diese Balance nach unten kann man CPUs und Cores und andere Dinge aufrüsten so lange man will, es wird nicht den erhofften Effekt bringen.

Hardwarekosten für diese Runderneuerung betragen 130,-EUR und verschieben den nächsten PC-Kauf um mindestens zwei Jahre nach hinten.

kyp.F.

XW8400 reloaded

Hallo zusammen,

ich habe auch das eine Weile vor mir her geschoben, das Recycling einer XW8400. Die gab es für kleines Geld beim Broker und mit zwei Xeons und 8GB RAM, 19,2GB Speicher-Bandbreite eine doch beachtliche Rennmaschine. Die SAS Platte die mit kam ein wenig klein, DVD Rom ok, aber zu Hause vielleicht nicht das Mittel der Wahl. 6 Port SATA und 4 Port SAS RAID Controller an Bord.

Eine Weile lief die Kiste als ESXi Host und hatte schon eine 2TB Platte von WD spendiert bekommen. Jetzt stand auch die Runderneuerung des PCs meiner Angetrauten an und irgendwie roch das nach dem großen Rundumschlag.

Die Mods dato: eine GTX660 von Asus, Blueray RW Laufwerk und DVD RW Laufwerk – beide von Pioneer. Als Nachbrenner eine Samsung 840er SSD mit 128 GB. Dazu einen internen Icybox Card-Reader mit allem F*** und Feuerstein. Dann Neuinstallation mit Windows 7 Professional.

Alles in allem in den alten Hobel für ca. 450 EUR Teile nachgerüstet und ich muss sagen Hut ab. Respektable 13370 Punkte im 3DMark2006 ohne allzu viel Feintuning und das im Rahmen von Taschengeld-Budget. Windows 7 Performance Index 7,2. Ich hätte bei 7 Jahre altem Blech nicht mit ganz so viel Rums gerechnet. Dabei melden die CPUs zunächst dass sie noch um 1/3 runtergetaktet arbeiten.

Eventuell doch um die 3GHz Quadcore Pumpen bemühen, aber die scheinen noch in Gold aufgewogen zu werden.

Die Erste Runde Mass Effekt 3 mit allem möglichen Grafikschnickschnack aktiviert – den man sich bisher immer gerne verkniffen hat – war ein echtes Erlebnis.

kyp. F.

Home NAS – Intel SS4200 aka. Scaleo Home Server 1900

Irgendwie steht heute doch immer wieder die Überlegung – Frage nach einem “Home Storage” im Raum. Der Einfachste Ansatz ist eine QNAP zu kaufen und einen Stapel Scheine auf den Tisch zu legen und gut ist.

Dafür bin ich dann aber im ersten Wurf zu geizig, auch wenn es zweifellos eine empfehlenswerte Variante wäre. Andere Storages sind nicht so viel billiger wie sie weniger können, da steht das Anspruchsdenken im Weg.

Was tun? Selber bauen ? Ohne das Rad neu zu erfinden ?

Vor einiger Zeit habe ich mir einen “Fuijtsu Scaleo Home Server 1900” auf ebay geschossen. Nackt, beziehungsweise nur mit dem Standard 512MB Speicherriegel, aber ohne Platten.  Da man diese ja ohnehin meist nachkaufen muss hat mich das nicht sonderlich gestört. Was man wissen darf ist, dass der Homeserver ein OEM Produkt von Intel ist, des “SS4200

Was fehlt ist ein DOM -Disk on Module – wie es eigentlich hätte anwesend sein sollen, da zumindest Intel im Standard ein EMC Betriebssystem (modifiziertes Linux) mit lieferte, an das verschiedene Backup Agenten anschlossen. Da meinen Recherchen nach weder bei Intel noch bei FSC die Platten default-mäßig mit dabei waren – das System ist “End of Sale” – muss ein DOM dagewesen sein. Einen anderen Flash Speicher konnte ich bisher nicht identifizieren. Auf Ebay finden sich schnell, wenn auch nicht super günstig DOMs in 4GB,8GB oder 16GB, in Industriequalität.

Platten hatte ich ohnehin vor in SATA – Serverqualität zu bestellen. An dieser Stelle hat Western Digital eine erfreuliche Neuerung mit den “WD red” ins spiel gebracht von welchen ich vier Stück a 2TB geordert habe.

Alles in allem komme ich so mit einem Invest von knapp 700,- EUR auf ein 8 bruttoTB NAS. Eine Größenordnung, wofür es anderenorts gerade einmal ein Gehäuse gibt.

board-k

Pro: Die mechanische Verarbeitung der Box ist sehr gut. Mir gefällt vor allen Dingen die Mimik mit den beweglich aufgehängten Plattenrahmen, die den Zugriff Werkzeug-los bis auf Board und Netzteil erlauben. Das Board hat eine Low Voltage Celeron Basis und ist Intel Standard. Die Treiberthemen bei den möglichen Betriebssystemen und Installationsmöglichkeiten sind ohne großen Aufwand lösbar. Die Systemressourcen auch mit den 2GB Hauptspeicher erlauben eine variablere Nutzung. Die Verwendeten DOMs und WDreds versprechen eine sehr robuste lange Lebensdauer, welche zumindest eine Reparatur oder Systemwiederherstellung zu lässt.

Con: Ein Standard Intel Board braucht auch in Low Voltage etwas mehr Strom als derzeit am Markt befindliche NAS Systeme auf ARM oder Atom Basis. Beim 24×7 Betrieb erwarte ich hier einige Nachteile. Die Lüfter sind recht groß und leider auch laut.

Mitigation: Mit dem Betriebssystem auf dem DOM und Standard ACPI können sich die Platten effektiv schlafen legen. Wenn sich die Lärmentwicklung als störend erweist muss ich mal nach alternativen Leisetretern ausschau halten, bzw. die üblichen Lüfter-Geräusch-Reduktions-Tricks der Reihe nach ausprobieren.

Mein Fazit bis hierher, die Kosten und die Flexibilität wiegen die beiden akuten Nachteile mehr als auf.

Im Snapshot des Board sieht man ebenfalls den PCIx-1 Slot der für Diagnosezwecke mit an Board ist. Da ein vorbetanktes Speichermedium fehlt, eine Installation blind via USB-Stick oder USB-CDROM eher mühsam erscheint, bietet es sich an hier temporär eine Grafikkarte zu stecken. An den vier vorhandenen USB Buchsen kann man dann noch immer Maus und Tastatur anschliessen.

Als Betriebssystem bietet sich neben den typischen Verdächtigen FreeNAS, Openfiler oder Nexenta noch einiges mehr an. Letzteres reizt mich insbesondere durch die Verwendung von ZFS, was mir hinsichtlich Migration und Zuverlässigkeit wirklich sehr zusagt. Für 100% freie Varianten steht Open Indiana mit den Comstar Erweiterungen zur Verfügung.

Hier stellt sich jedoch die Frage nach der eigentlich gewünschten Verwendung und die geht mitlerweile über die reine Speicherbox hinaus. Eine zentrale Medienablage für unsere gesammelten Fotos und unsere gerippten Backups wäre sehr wünschenswert, zumal auch zunehmend smarte Androiden und nicht zuletzt eine XBox 360 hier den universellen Zugriff erlauben.

Auf der Open Source Schiene bietet sich das Open Media Vault an. Aber die XBox Anbindung bereitet mir hier Schmerzen. Irgendwie bin ich noch nicht auf das richtige Forum gestossen, das mir hier die Sorgen nimmt. Und so bleibt als letzte Line of Defense Windows Home Server 2011 mit einem Windows Media Center. Das funktioniert auf jeden Fall und ist auch vergleichsweise erschwinglich. Allerdings ist man dann wieder closed fest genagelt 🙁

Intel stellt erfreulicherweise noch immer ein Support Dokument für die Windows Home Server Installation zur Verfügung. Das covert zumindest die Installation vom 2008er Server. Die Treiberthemen sollten mit 2011 erledigt sein.

Fazit gibt es noch keins, ich werde die ein oder ander Variante in den nächsten Wochen durchprobieren, bevor ich der Kiste alle meine Daten anvertraue.

kyp. F.

p.s. Auch wenn die Basis schon eine Weile auf dem Buckel hat, erscheint sie mir auch nach gründlicher Betrachtung der Alternativen noch immer sehr interessant.

 

 

 

VMWorld 2012 Musings

Mann geht ja auf Kongresse um zu lernen, Neuigkeiten und Ankündigungen mit zu nehmen und nicht zuletzt um mit dem guten Gefühl nach Hause zu fahren, dass man mit seinen Einschätzungen richtig liegt und insgesamt auf “einem guten Weg” ist.

Die diesjährige VMWorld ist da keine Ausnahme. Mit dem Unterschied, dass zwischenzeitlich tatsächlich eine Große Veränderung statt findet: Die Cloud kriegt gestalt und die vielen offenen Punkte, welche die Zweifler noch immer nähren sind aufgelistet, adressiert und wenn man mutig genug ist, auch gelöst.

Mir gefällt “elastic computing” als Begriff  eigentlich viel besser als Cloud, weil er nicht so nebulös daher kommt. Dabei machen drei Dinge eine funktionierende Umgebung aus.

* virtuelle Compute Ressourcen – Hypervisor auf “Blech”
* virtuelle Storage Ressourcen
* virtuelle Netzwerk Ressourcen

Die Virtualisierung aller drei Bereiche ermöglicht erst die agile – elastische Software-basierende Bereitstellung von Cloudsystemen. Und das unter der Prämisse, dass die Steuerung aus einem homogenen ganzheitlichen Managementsystem rollenbasierend – profilbasierend und Mandanten-fähig erfolgt. Letzeres übrigens auch für private Clouds, da verschiedene Abteilungen Mandanten-Züge haben.

Erkenntniss des Tages: Dass es ohne das vereinheitlichte Management vorraussichtlich nie rund laufen wird.

HP-UX Queue Depth

Just for the occasion … Setting HBA queue depth length on HP-UX systems with an SCSI I/O control command:

scsictl -a -m ir /dev/rdsk/cXtXdX

delivers the current queue- depth on the questionable device cXtXdX, where the Xes refer to the IDs in your systems.

scsictl -m queue_depth=21 /dev/rdsk/cxtxdx

sets the queue-depth to e.g.21.

The value of your queuedepth depends on the supported values of your storage and are given in a range from 1 to 255. By chance these values may conflict or fit together and well result in dedicated HBAs in dedicated zones.

In my case they fit together by default with HP EVA and HDS VSP, keeping in mind that there are changes needed if the EVA systems have to handle extremely large single files within a single LUN.

Knight Kapital: Die Geister die ich rief !

“Die Zukunft der Wall-Street-Firma Knight Capital, die nach einem Riesenverlust von 440 Millionen Dollar ums Überleben kämpft, bleibt weiter unklar.” steht im Heise News Ticker.

Zweifellos ist es dramatisch wenn ein Unternehmen , selbst wenn es aus der viel gescholtenen Finanzbranche stammt, mit seinem Ableben ringt. Meistens ist es ja wirklich schlimm für eine Menge Menschen die dort beschäftigt sind oder deren Vermögen dort verwaltet wird.

Andererseits hatten wir doch unlängst erst eine Finanzkriese, dann eine Eurokriese … usw.

Wie kann es sein, dass man sein Wohl und Wehe mit der gesammelten Macht des eigenen und schlimmer noch des treuhänderisch verwalteten Kapitals in die Hände eines Programmes legt? Eines Programmes das augenscheinlich nicht hinreichend getestet wurde und das sofort im Wirkbetrieb Bugs offenbart die innerhalb Minuten dreistellige Millionenverluste anhäufen.

Jeder Mensch der mit Software zu tun hat weiss um deren grundsätzlichen Fehler. IMHO gibt es nach wie vor nur wenige Zeilen Code im Echtzeitsoftwarebereich, die von ihren Herstellern mit der Garantie auf Fehlerfreiheit vertrieben werden. Alle anderen Wertungen diesbezüglich entstehen empirisch durch Tests. Die Fehler könnte man mittelfristig im Schattenbetrieb eines solchen Werkzeugs möglicherweise stark reduzieren, wie der unmittelbare Alleingang der Software nahe legt.

Andererseits gab es schon diverse beinahe- Crashs die mehr als nur ein Unternehmen betrafen. Was muss eigentlich noch passieren, dass die Herren dieser Tradingcomputer realisieren, dass sie an der Zündung einer Bombe rumpfuschen? Mit Vernunft kann das wenig zu tun haben und der Logik dass “Wenn wir nicht mit machen werden alle anderen uns abhängen” kann ich in diesem Zusammenhang nicht folgen. Was ist denn wenn ein solches Werkzeug irgendwann mal “works as designed” und nur der gefeuerte Entwickler ein paar unfeine Überraschungen zurück gelassen hat?

Alles und jeder wird reguliert in diesem Land, nur nicht das Kapitalmarktäquivalent zur Wasserstoffbombe. Nicht dass ich begeistert bin von einer Transaktionssteuer, aber auf die regulierende Wirkung des Marktes habe ich an diesem Punkt kein Vertrauen mehr. Offensichtlich werden in den einschlägigen Haifischbecken die Grundsätze robuster Softwaretechnik der Gier geopfert. Nicht dass dies das erste Gut wäre, das hier geopfert wird. Allerdings ist es das Erste, das auf Grund seiner umfassenden Zugriffe und Arbeitsgeschwindigkeit in wenigen Minuten selbst die größten Finanzinstitute atomisieren kann. Das konnten die einschlägig bekannt gewordenen Trader nicht!

Ich frage mich wirklich was noch passieren muss um hier ein Umdenken herbei zu führen.

[Update] Nach letzten Meldungen kommen die Herrschaften mit heiler Haut davon, aber zu welchem Preis? Sie sind vorraussichtlich nicht mehr Herr im eigenen Haus. Irgendwie spannend finde ich auch die Haltung der SEC, die klare Kante zeigt und sagt “wenn ihr es euch eingebrockt habt, müsst ihr es auch auslöffeln.” Nicht dass dies auch mit dem Feuer gespielt sein mag, aber die Einforderung von Verantwortungsgefühl finde ich wegweisend [/Update]

 

UCS Caveats: Uplinking the VIC

The VIC virtual interface card allows within the UCS universe to dynamically create up to 256 VIF – Virtual Interfaces which dynamically bind to a virtual machine within a major hypervisor (e.g. VMWare vSphere, HyperV should be supported soon).

The VIC therefore is bypassed by the virtual switching layer within the hypervisor and provides a reasonable I/O performance advantage compared to classical virtual switching concepts. Basically a “virtual switch” module within the network framework of the hypervisor binds the pre-generated logical PCI devices to a dedicated driver within the virtual machine.

Given a proper integration the so generated virtual interface shows up within the UCS-Manager running on the Nexus based Interconnect Fabric as a classical switch-port and can be managed by the network staff accordingly.

Reading the details in the white papers, the driver component within the virtual machines supports only a limited number on interfaces, in cases as limited as eleven interfaces on one hypervisor. Due to the adapter pinning that does not only cover the general network interfaces, the number of VIFs grows with the factor of additional uplinks. The biggest number I am aware of right now is 56 interfaces with four uplinks from a FEX module. Given the two interfaces of the adapter card this comes close to the 128 advertised VIFs but you need to run Linux within the VMs and you need that many uplinks.