Nexenta TestDrive

 

nexenta web dashboard

Software Defined Storage ist in aller Munde und wer sich länger mit dem Thema auseinander setzt kommt an Nexenta eigentlich nicht vorbei. Mit den Wurzeln in der OpenSolaris und Comstar Welt ist es eigentlich das einzige von Oracle unabhängige Produkt, das die extremen Vorteile von ZFS effektiv zum Kunden bringt.

Einen Test kann jeder schnell und einfach durch ziehen. Sollte man im Netz auf eine mehr oder weniger kryptische Anleitung stoßen, dann ist das zwar interessant aber eigentlich heute zunächst nicht mehr notwendig. Ein Test mit der Community Edition auf VMWare ist jederzeit schnell machbar. Diese ist zunächst funktional, jedoch auf 18 TB begrenzt und integriert auch nicht mit zahlreichen PlugIns in Richtung VMWare oder HyperV. Eine  Trial Enterprise steht, 45 Tage timebombed voll funktionsfähig, ebenfalls zum Download zur Verfügung.

Schnell eine VM gebaut, bei  der man ruhig großzügig mit Speichertöpfen sein kann, da man ja Architektur testen will – in diesem Fall mit VMWare Workstation:

nexenta test VM

Continue reading

Musings on Software Defined Networking – SDN

Mal wieder etwas technisches: SDN – Softare Defined Networking mausert sich ja zum nächsten Hype – mit welchem Recht auch immer – und wie bei jedem Hype Thema springen die üblichen Verdächtigen zügig auf. Die Sprungrate hat dabei 2013 drastisch zugenommen – ob begründet oder unbegründet sei mal dahin gestellt.

Aufspringen bedeutet dabei ja gerne, dass man die Technologie, die man ohnehin schon im Haus hat etwas erweitert und dann seine eigene Deutung definiert, die einen natürlich zum gefragtesten Anbieter in dem Segment macht.

Nachdem VMWare als der Marktführer im Bereich Virtualisierung hier mit der Nicira Aquise hier früh 2012 den Reigen eröffnet hat lohnt sich ein genauerer Blick auf die Szenarien und Aufgabenstellungen, sowie den Status-Quo:

Continue reading

UCS Caveats: Uplinking the VIC

The VIC virtual interface card allows within the UCS universe to dynamically create up to 256 VIF – Virtual Interfaces which dynamically bind to a virtual machine within a major hypervisor (e.g. VMWare vSphere, HyperV should be supported soon).

The VIC therefore is bypassed by the virtual switching layer within the hypervisor and provides a reasonable I/O performance advantage compared to classical virtual switching concepts. Basically a “virtual switch” module within the network framework of the hypervisor binds the pre-generated logical PCI devices to a dedicated driver within the virtual machine.

Given a proper integration the so generated virtual interface shows up within the UCS-Manager running on the Nexus based Interconnect Fabric as a classical switch-port and can be managed by the network staff accordingly.

Reading the details in the white papers, the driver component within the virtual machines supports only a limited number on interfaces, in cases as limited as eleven interfaces on one hypervisor. Due to the adapter pinning that does not only cover the general network interfaces, the number of VIFs grows with the factor of additional uplinks. The biggest number I am aware of right now is 56 interfaces with four uplinks from a FEX module. Given the two interfaces of the adapter card this comes close to the 128 advertised VIFs but you need to run Linux within the VMs and you need that many uplinks.