How To Configure IRF on HPE FF5700

Approaching a certain quality level of switching and routing, high availability evolves to be an obligation. In these terms, according to the different OSI service layers, there are many high availability protocols, securing the according network services. The Spanning Tree family as STP, RSTP, MSTP, PVST, protocols for link aggregation as LACP and layer three routing redundancy services like VRRP.

These protocols have the advantage, being vendor independent standards and presume to be interoperable. But either design gets complex, interoperability keeps its caveats or ressources are simply disabled and take over in failiure. Thats not exactly performance driving.

So vendors created stacks – which failed otherwise, or they started to create systems of higher complexity which proprietary created load sharing high availability clusters in the Continue reading

HowTo activate SNMP on vSphere 6.0 hosts

Monitoring ESXi with an standard open source monitoring tool usually requires SNMP. Searching for SNMP in the vCenter configuration context this simply allows you to start the service – but not exactly leads to success in the first place. Probably you get an error.

You check in the security profiles and find the service stopped although it is configured to start with the host. Manual start delivers an “ooops”.

Looking for an clickable configuration context did not lead to an solution I was aware of. Continue reading

VMWare standard vSwitches and CDP/LLDP

Wie richtet man CDP/LLDP auf standard vSwitches ein? Aus distributed vSwitches hinreichend aktueller ESX Installationen ist der LLDP Haken in der Konfiguration schnell gesetzt und man erhält eine Layer 2 Plausibilisierung quasi auf Knopfdruck.

Kürzlich wollte ich genau diese Funktionalität auch auf standard vSwitches nutzen und stellte ziemlich unglücklich fest, dass hier keine solche Checkbox zu finden war. Weder im Switch- noch im Interface- Kontext. Allerdings findet sich im Netz die ein oder andere Variante und zumindest seit ESXi 4.x sollte CDP auch auf standard vSwitches möglich sein.

Dazu muss man sich jedoch per SSH auf dem zu konfigurierenden ESX Host anmelden,  Continue reading

VMWare host cabeling validity

Normalerweise befinden sich VMWare Hosts ja in gründlich kontrollierten Umgebungen und nach einem ordentlich dokumentierten Systemaufbau sollte sich hier wenig ändern. Sollte!

Mir begegnet immer wieder Wildwuchs, aus welchen Gründen auch immer, und die traditionelle Art und Weise, Verkabelung aufhübschen, nach dokumentieren und die bisherigen Dokumente auf ihre Aktualität prüfen kostet Zeit und ist zuweilen auch leider Betriebs- gefährdend. Alleine die Möglichkeit, dass die existierende Dokumentation und Port Beschriftung nicht mehr aktuell ist, legt eine Plausibilitätskontrolle nahe.

Ich persönlich bin nach zahlreichen Erfahrungen rund um traditionelle operative Methoden Continue reading

Musings on Hyperconverged Infrastructure

Nachdem die letzten Postings eher an der Oberfläche gekratzt haben, jetzt mal ein paar Grundsätzliche Gedanken zum Thema Hyperkonvergenz und einiger Ableitungen.

Noch einmal die strategischen Ziele: Hyper- converged – die gleichzeitige Virtualisierung von Server und Storage Ressourcen in einem in jeder Hinsicht Software gesteuerten Hypervisor Umfeld. Die erste Ausprägung des Software Defined Datacenter (SDD). Wesentliche Merkmale sind die Flexibilisierung der Ressourcen vereint mit einer granularen Skalierbarkeit. Redundanzen werden auf der Ebene der jeweiligen Virtualisierung geschaffen. Die Systeme sind recht “moderat” zugeschnitten und bei einem wachsenden Bedarf an … Continue reading

Musings on Software Defined Networking – SDN

Mal wieder etwas technisches: SDN – Softare Defined Networking mausert sich ja zum nächsten Hype – mit welchem Recht auch immer – und wie bei jedem Hype Thema springen die üblichen Verdächtigen zügig auf. Die Sprungrate hat dabei 2013 drastisch zugenommen – ob begründet oder unbegründet sei mal dahin gestellt.

Aufspringen bedeutet dabei ja gerne, dass man die Technologie, die man ohnehin schon im Haus hat etwas erweitert und dann seine eigene Deutung definiert, die einen natürlich zum gefragtesten Anbieter in dem Segment macht.

Nachdem VMWare als der Marktführer im Bereich Virtualisierung hier mit der Nicira Aquise hier früh 2012 den Reigen eröffnet hat lohnt sich ein genauerer Blick auf die Szenarien und Aufgabenstellungen, sowie den Status-Quo:

Continue reading

Musings on User Interfaces

Als ich Minority Report gesehen habe hat mich doch einiges Fasziniert. Eines der absoluten Highlights war das futuristische User Interface mit dem der geneigte Agent seinen Recherchen nach geht. Es hat eine Weile gedauert bis ich gemerkt habe, dass es sich hierbei nicht um Science Fiction handelt.

Genug Ressourcen vorausgesetzt, wie sie Geheimdienste oder Ölmultis haben, kann man dieses Gadget kaufen. Es heißt G-Speak und wird von Oblong Industries feil geboten.  Dabei ist es mit Visualisierungs-Technik und Imersion nicht getan. Logischerweise braucht man Anwendungen, welche von dieser Art Bedienung profitieren und die Rechenpower, sowie Datenbestände, welche den Gebrauch mit Leben füllen. Auch das schränkt die Zahl der potentiellen User nach wie vor ein.

In einer Zeit in der die immersiven Telepräsenz Lösungen von CISCO oder HP Halo oft noch immer recht ungläubiges Staunen hervorrufen, mag ich nicht einmal abschätzen wie weit der Vorsprung von Oblong hier ist. Beide habe ich schon benutzen dürfen und dabei geht es ja im Wesentlichen um Videostreaming. Auch habe ich schon 2001 meine ersten Erfahrungen mit den HP Visualisierungs-Lösungen in Zusammenarbeit mit Panoramtech – klassische sphärische 3D Projektion und Datenhandschuh, ausprobieren dürfen. Der Hardware-Aufwand war immens und zumindest Panoramtech war seiner Zeit so weit voraus, dass sie es ökonomisch nicht überlebt haben. In der Realen Anwendung ist Rückprojektion dann doch erheblich günstiger, wenn auch bei weitem der Immersionseindruck fehlt.

Was  mich aber jetzt wirklich erheblich ins Wanken gebracht hat ist, was Microsoft mit der XBox und Kinect anstellt. Das verheiratet mit Smartglass auf einem iPad ist dann doch die Frechheit. Da ich die XBox an einem Beamer betreibe ist der Einduck bei hinreichender Leinwandgröße schon immens. Ein etwas leistungsfähigerer Photonenbeschleuniger mit ausgeprägteren Fähigkeiten zum Trapezausgleich und eine entsprechend hohe Deckenmontage lassen hier noch Raum zur Optimierung, nevertheless bin ich nach ein bisschen Rumexperimentieren schon “deeply impressed”.

Wird das die Immersion des kleinen Mannes?

Ein bisschen weiter gesurft findet man schon einige Leute die reichlich Schabernack mit dem Kinect Sensor treiben und auf diversen Plattformen Codefragmente zur Verfügung stellen, welche die trickreiche Technologie von Microsoft hier anderweitigem Nutzen zuführen sollen. Microsoft selbst scheint mit seinem Software Development Kit hier Vortrieb leisten zu wollen.

 

 

Die Technik ist so genial wie simpel. Die Überlagerung eines Infrarot und eines optischen Bildes, kombiniert mit einem definierten Infrarot Punkteraster das der Kinect Sensor in den  Raum sendet liefert eine recht gut analysierbare Silhouette die zur Gestensteuerung heran gezogen werden kann.

“Anyway, I’m deeply impressed” und habe mal wieder richtig Lust doch auch ein bisschen zu hacken. Das ist tatsächlich einmal Innovation aus dem Haus Microsoft – wenn nicht die eigentliche Erfindung – so doch das Downsizing wirklich hochwertige Technologie Haushalts-kompatibel zu machen. Die Ideen von Oblong dürften was die Gesten-Erkennung  angeht nicht grundsätzlich abweichen.

kyp. F.

 

UCS Caveats: Uplinking the VIC

The VIC virtual interface card allows within the UCS universe to dynamically create up to 256 VIF – Virtual Interfaces which dynamically bind to a virtual machine within a major hypervisor (e.g. VMWare vSphere, HyperV should be supported soon).

The VIC therefore is bypassed by the virtual switching layer within the hypervisor and provides a reasonable I/O performance advantage compared to classical virtual switching concepts. Basically a “virtual switch” module within the network framework of the hypervisor binds the pre-generated logical PCI devices to a dedicated driver within the virtual machine.

Given a proper integration the so generated virtual interface shows up within the UCS-Manager running on the Nexus based Interconnect Fabric as a classical switch-port and can be managed by the network staff accordingly.

Reading the details in the white papers, the driver component within the virtual machines supports only a limited number on interfaces, in cases as limited as eleven interfaces on one hypervisor. Due to the adapter pinning that does not only cover the general network interfaces, the number of VIFs grows with the factor of additional uplinks. The biggest number I am aware of right now is 56 interfaces with four uplinks from a FEX module. Given the two interfaces of the adapter card this comes close to the 128 advertised VIFs but you need to run Linux within the VMs and you need that many uplinks.

DCUCI: Datacenter Unified Computing Implementation

This week I visited the DCUCI training. The best class I had in a reasonable while. There could have been more labs and the marketing coverage – high and wide introduction was much to much considering the fact that there were two four hour eLearning-sessions upfront which covered this stuff more accurate.

Besides this annoying waste of valuable labtime it was a really great introduction into the Unified Computing System world of CISCO. Although it was not feasible to introduce the UCS preparation and uplink configuration part, covered in an appendix, everything else was covered fair. Introducing the pool concepts, updating templates for ports – interfaces, policies and in the server profile it gave a complete introduction into the hows and whens, even the caveats of the CISCO interpretation of stateless servers.

Even the connection and distributed switching integration into VMWare vSphere with the Nexus 1000v as well as the VM-FEX approach was discussed. The labs cover preferably the Nexus 1000v but due to our smart trainer we implemented the VM-FEX approach as well.

Down this road we found a lot of caveats which never have been covered in the technical deep dive classes offered from CISCO for end customers. I was very happy to hear this class, so we may judge better which way to go. In the long run the HP Virtual Connect Flex Fabric approach is not that clumsy as it looks within a superficial comparison to CISCO UCS. Honoring the caveats, the CISCO approach has to be well designed and even more carefully maintained that the HP one. Details will follow.

Configure VRRP on hp networking E5400-Family

Configuring redundant gateway services for hp ProCurve ProVision based switches is not a very big miracle. Basically its about switching it on. VRRP, saying virtual router redundancy protocol is similar to HSRP from  CISCO or CARP from Open BSD. VRRP itself as of today is standardized in RFC5798 by the IETF and follows hp’s habit of using industry standard protocols.

Why is it not redundant routing ? Well since the VRRP feature is enabled on an per VLAN basis and even more, it only defines a redundant IP interface within the according VLAN. The actual routing is covered independently from this. Assuming that the routing is configured properly the failing over IP interface ensures that the routing can happen. Itself provides only a redundant IP interface, which could be used as routing gateway, so we name the function redundant gateway services.

Different to other approaches by other vendors, VRRP only provides pairwise redundancy where the virtual IP interface is the same than the according VLAN IP on the owning routing switch. This address is failed over to the backup switch, who has a second IP interface configured in the VLAN. This is necessary to check the proper operation of the primary interface.

The partnering happens based on a so called virtual router ID, VRID which is defined within the VRRP configuration. This enables administrators to configure even different redundant IP gateways within one VLAN, if static routing requirements have this need.

So configuration on the Master works as follows. First configure the proper VLAN IP address. Naming VLANs is a clever approach and helps in the long run.

vlan 10
name "production east"
ip address 192.168.0.1 255.255.255.0

Then the VRRP feature is globally enabled:

router vrrp

Then the actual redundant IP interface is configured within the according VLAN context:

vlan 10
vrrp vrid 1
owner
virtual-ip-address 192.168.0.1 255.255.255.0
enable

Be aware that the VRID context is independently activated on a per VLAN basis and enabled within each VRID definition.

On the backup routing switch the VLAN IP configuration as wel as the VRRP activation look pretty much the same.


vlan 10
name "production east"
ip address 192.168.0.2 255.255.255.0

router vrrp

Within the VLAN based VRRP configuration here the backup role is defined:

vlan 10
vrrp vrid 1
backup
virtual-ip-address 192.168.0.1 255.255.255.0
enable

Voila, redundant gateway interfaces should be available.

Especially the strict creation of pairs is different to other implementations. Often sets of interfaces may be created. As well the assignment of the virtual IP as the identical IP that the VLAN IP on the owning router is not necessarily something other vendors do the same way. Very often the virtual IP is one and the local VLAN IPs are two different dedicated ones.