Mixed Reality im Rechenzentrum: Wie RZ-Wartung mit Augmented Reality funktioniert

Datenbrillen und 3D-Apps haben Holly­wood und die Spiele­welten ver­lassen. In­stand­haltung und Wartung gelten jetzt als die größten Wachs­tums­felder von VR-/AR-Techno­logien. Erste Ver­suche mit Lö­sungen, um Rechen­zentren zu visu­ali­sieren und effi­zienter zu be­trei­ben, sind bereits ganz erfolg­reich verlaufen.

Second Life zwischen Serverschränken

Von Eric Brabänder, FNT GmbH

Wir erinnern uns an die magische Szene aus dem Film „Minority Report“: Tom Cruise alias Chief John Anderton führt eine kriminalistische Big-Data-Analyse an einem riesigen, interaktiven Touchscreen aus, indem er zahlreiche Tatortdaten kombiniert, um einen Mordfall zu lösen. Und die Star-Trek-Fans unter uns beneiden bis heute Captain Picard um sein Holodeck. Gerade diese Serie war schon immer technologisch visionär, aber nie allzu unrealistisch in Bezug auf die Umsetzbarkeit. Auch wenn das Beamen bis heute nicht Wirklichkeit geworden ist (und wahrscheinlich auch nie wird), so gibt es doch spannende Innovationen, die in ähnlicher Form heute schon zum Einsatz kommen: Immer mehr Technologien im Umfeld von Virtual Reality (VR) und Augmented Reality (AR) finden ihren Weg zur Marktreife und in reale Anwendungsszenarien, auch im Rechenzentrum.

Entwicklung für Gamer

Als virtuelle Realität bezeichnet man die Darstellung und gleichzeitige Wahrnehmung der „Wirklichkeit“ sowie ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven und virtuellen Umgebung. Ein Beispiel ist die immer noch existente VR-Welt Second Life. Während bei der virtuellen Realität alle Elemente computergeneriert sind, spricht man von Augmented Reality, also von erweiterter Realität, bei einer computergestützten Ergänzung der Realitätswahrnehmung. Häufig geht es dabei um die visuelle Darstellung von Informationen, also die Erweiterung von Bildern oder Videos mit computergenerierten Zusatzinformationen oder virtuellen Objekten durch Einblendung und Überlagerung. Ein Beispiel ist das Smartphone-Spiel Pokémon Go. Neben AR und VR gibt es noch Zwischenstufen – alles, was nicht real oder virtuell ist, wird dann als Mixed Reality bezeichnet.

Mit der Verfügbarkeit neuer VR-Headsets und dem günstigen Zugang zu VR-Technologien, beispielsweise durch Google CardBoard, haben Marktanalysten für das vergangene Jahr einen Durchbruch der VR-Technologien prognostiziert. Insbesondere im Segment der Gamer sollen durch neue Endbenutzer-VR-Geräte wie Oculus Rift, Playstation VR, Samsung Gear VR oder HTC Vive die Umsätze mit Hard- und Software stark – angeblich um rund 100 % – wachsen. Das Marktvolumen wird den jüngsten IDC-Prognosen zufolge 2020 auf über 25 Milliarden US-Dollar anwachsen.

MW-KommRZ2.2017.ID02-Screenshot1.jpg
Blick durch die Datenbrille: Virtuelle Realität zur Signalverfolgung und für die Suche nach freien Einbauplätzen(Bild: FNT)

Ähnliche Trends, wenn auch zeitlich etwas später, zeichnen sich bei der erweiterten Realität ab. Google hatte mit der Google-Glass-Technologie bereits Versuche gestartet. Andere Hersteller haben die ersten Erfahrungen abgewartet und betreten inzwischen mit ihren eigenen Technologien den Markt. Vorneweg geht Microsoft mit der Microsoft HoloLens, welche die Idee von Captain Picards Holodeck künftig in jedes Wohnzimmer bzw. an jeden Arbeitsplatz bringen will – in abgespeckter Form.

Aber nicht nur im Segment der Gamer und im Consumer-Bereich sind Einsatzszenarien für VR und AR denkbar, sondern auch im typischen Geschäftsalltag von Rechenzentrumsbetreibern. Dementsprechend analysieren Softwarehersteller für RZ-Lösungen auch bereits die Anwendungsfälle, die sich aus der wachsenden Akzeptanz und dem vermehrten Einsatz von VR- und AR-Technologien im beruflichen Umfeld ergeben. Hier zeigt sich vor allem im Rahmen verteilter Rechenzentrumsplanung und in gängigen Rechenzentrumsprozessen ein hohes Potenzial.

Anwendung für Datacenter

Mögliche Anwendungsszenarien für VR-Technologien sind die Visualisierung und das Remote-Management verteilter Rechenzentren, etwa durch die räumliche Besichtigung in dreidimensionaler Echtzeit, um einen virtuellen Eindruck der Gegebenheiten vor Ort zu erhalten. Hinzu kommen die dreidimensionale, räumlich-visuelle Planung von Geräten und die Möglichkeit, Geräte direkt zu scannen, um Probleme virtuell einfach zu visualisieren und nachzuverfolgen; entsprechende Warnungen mit Hinweisen zur Fehlerbehebung können dann auch direkt am verursachenden Gerät dargestellt werden. Interessant dürfte auch die Konsolidierung von Daten, die normal erweise nur in verschiedenen Quellen oder Tools verfügbar sind, und deren Visualisierung im virtuellen Raum sein. Möglich ist ferner die Live-Datenintegration in die virtuelle Welt; so können beispielsweise der Status eines Servers oder die aktuell gemessene Temperatur angezeigt und die Klimasituation simuliert werden. Und bei der Einbauplanung lassen sich freie Höheneinheiten, überlastete Racks oder noch freie Netz- und Stromports per VR-Analyse grafisch identifizieren und der entsprechende Einbauplatz auswählen. Signalwege für Strom- und Datennetze können in der virtuellen Umgebung auch für weit entfernte Rechenzentren oder über Rechenzentren hinweg nachverfolgt und virtuell dargestellt werden.

Rechenzentren 2017-02.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechenzentren und Infrastruktur“. Einen Über­blick mit freien Down­load-Links zu sämtlichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Auch im AR-Bereich lassen sich zahlreiche Anwendungsszenarien für die Praxis identifizieren, deren Nutzen sehr hoch einzuschätzen ist, sobald die Technologie alltagstauglicher wird. Ideen und Beispiele für den Einsatz von AR-Technologien im Rechenzentrum wären die ortsabhängige Navigationsunterstützung innerhalb eines Datacenters zu einem bestimmten Gerät, um beispielsweise eine fehlerbehaftete Komponente zu identifizieren oder neue Geräte zu installieren, das Einblenden von Benachrichtigungen oder Alarm- und Warnmeldungen an einem Gerät, das Einfärben von Geräten, um bestimmte Statusmeldungen oder Analysen zu unterstützen oder das Einblenden von Temperaturwerten oder Sensordaten an bestimmten Geräten oder Racks. Sinnvoll wäre sicher die Identifikation von Geräten per integrierten QR-Scanner und das Einblenden gerätebezogener Informationen wie Gewicht, Größenabmessungen, Verbrauchswerte, Anzahl und Verwendung der Ports, unter Umständen bereits bei der Geräteinstallation, wenn sich die Einbauanleitung dazu schrittweise einblenden lässt. Das ließe sich noch ausdehnen auf die Live-Kommunikation und Arbeitsunterstützung via Kamera während des Einbaus neuer Komponenten oder beim Umzug existierender Geräte: So kann der räumlich entfernte Planer mit dem Installateur vor Ort die Arbeitsschritte gemeinsam vollziehen. Praktisch wäre auch die Unterstützung im Rahmen des Freigabeprozesses oder die Validierung, dass der Einbau gemäß Plan umgesetzt wurde; so etwas ist bei Verwendung von Augmented Reality als Livestream oder als Bildupload einfach umsetzbar.

Thema: Extended Reality
Im Schwerpunktbeitrag zeichnet Axel Opermann nach, wie der VR/AR-Hype zum Geschäftsmodell geworden ist. Die weiteren Folgen sichten einerseits konkrete Extended-Reality-Anwendungen in der Industrie, speziell im Automobilbau, andererseits schicke VR-Lösungen zum Anfassen und Eintauchen für Consumer. Außerdem stellen wir das Berufsbild Virtual-Reality-Entwickler vor, zeigen praktische Use Cases bei der RZ-Wartung auf und bitten Dr. Thomas Alt zum Interview über Augmented Reality im Kundensupport. Lohnend ist nicht zuletzt ein Seitenblick ins Erlanger Hybrid Studio und nach Österreich – dort sitzen einige der interessantesten XR-Start-ups weltweit.

Visualisierung per Cardboard

Erste Eindrücke vom Einsatz virtueller und erweiterter Realität im Rechenzentrum hat eine Live-Demonstration im Rahmen der Keynote „Innovations Empowering a Smart World“ auf der NetWork16 gegeben: Mit VR-Brille ist bereits die virtuelle RZ-Inspektion aus der Ferne möglich, etwa um einer SLA-Warnung nachzugehen, komplett mit sofort verfügbaren technischen Daten, nachvollziehbaren Signalwegen und der automatisierten Anzeige freier Einbauplätze.

Die Technologien, die für solche Lösungen zum Einsatz kommen können, sind mannigfaltig und reichen von klassischen SDKs für 3D-Anwendungen wie beispielsweise Unity oder dem OpenGL ES Framework LibGDX bis hin zu proprietären anwendungsspezifischen Entwicklungsumgebungen. Wir haben im Rahmen unserer Forschung und Entwicklung unterschiedliche Technologien getestet und prototypische Einsatzszenarien entwickelt: Für den Bereich Virtual Reality wurde eine erste App auf Basis von Android und dem Google VR SDK für 3D-Animationen entwickelt. Über ein REST-Interface werden Daten aus der zentralen Datenbank des DCIMs (Data Center Infrastructure Management Systems) an die App übertragen, sodass alle Informationen über Rechenzentrumsräume, alle Klima- und Stromaggregate, die vorhandenen Schränke sowie eingebaute Server, Switches bis hin zu Verkabelungen abgerufen und visualisiert werden können. Mithilfe des LibGDX Frameworks werden diese Information im 3D-Raum visualisiert und so aufbereitet, dass sie bereits mittels Google Cardboard als einfache VR-Applikation bereitgestellt werden können.

Der Vorteil dieser Architektur besteht darin, dass keine größeren Kostenblöcke durch spezielle VR-Hardware entstehen, sondern bereits einfache Mittel wie eine App als Add-on und ein Cardboard einen großen Nutzen versprechen.

MW-KommRZ2.2017.ID02-Google-Glass.jpg
Augmented Reality mit Google Glass (Bild: FNT)

Für den Bereich Augmented Reality kam in einem ersten Forschungsprojekt die Google Glass zum Einsatz. Hier konnte auf Basis des Google Glass SDKs eine Android-Applikation entwickelt werden, die dynamisch Objektdaten für Geräte im Rechenzentrum in Tabellen anzeigt. Darüber hinaus ist auch das Scrollen durch die grafische Ansicht von Schaltschränken möglich, die auf Übersichtsbildschirmen dargestellt werden. Außerdem wurde eine virtuelle Karte implementiert, die farblich anzeigt, welche Schaltschränke bereits im Einsatz sind und welche erst geplant werden. Darüber hinaus werden sogenannte Footprints (der Lageplan des Rechenzentrums) automatisch visualisiert.

Navigation in gemischten Welten

Gerade im Bereich Augmented Reality hat sich das Problem der Standortbestimmung und der Navigation innerhalb des Rechenzentrums als besondere Herausforderung dargestellt. Ein Lösungsansatz wären zum Beispiel kleine Bluetooth-Transmitter, sogenannte Beacons, die über den RZ-Schränken angebracht werden. Die Position und Orientierung von Smartphones und anderen Geräten können dann aus der Signalstärke der Beacons im Umfeld durch Multilateration bestimmt werden.

MW-KommRZ2.2017.ID02-Beacons.jpg
AR-Orientierung mit Beacons (Bild: FNT)

Eine Technologiealternative sind optische Marker in Form zweidimensionaler Codes. Diese Marker enthalten jeweils kodierte Informationen: Ortsdaten oder die ID eines Serverschranks. Dann können im Livebild der Kamera virtuelle Objekte und Informationen ortsbezogen überlagert werden. Es werden z.B. erkannte Marker markiert sowie die Ausmaße und Objektinformationen von Serverschränken angezeigt. Bei der Genauigkeit der Positionsbestimmung liefern optische Marker bereits sehr gute Ergebnisse, sobald der Marker im Kamerabild erkannt wird. Über Extended Tracking anhand von Featurepoints funktioniert das auch noch, wenn der Marker bereits aus dem Sichtfeld der Kamera verschwindet. Die Position des Benutzers wird auf einer Minikarte im digitalen 2D-Footprint des Rechenzentrums angezeigt und entsprechend der Orientierung des Benutzers ausgerichtet. Mit diesem Verfahren lassen sich auch Indoor-Navigationen zu gesuchten Objekten realisieren, um beispielsweise Fehlermeldungen zu identifizieren. Zur Lokalisierung und Dekodierung der Marker lässt sich beispielsweise das SDK von Vuforia verwenden, eine plattformübergreifende Lösung für die Programmierung von AR-Anwendungen.

MW-KommRZ2.2017.ID02-Optische-Marker.jpg
AR-Orienterung mit optischen Markern (Bild: FNT)

Da die Google Glass noch nicht ausgereift war und die Weiterentwicklung eingestellt wurde, ist man mittlerweile zur Microsoft HoloLens gewechselt. Von der HoloLens verspricht man sich die Kombination der Vorteile, die sich bei den Erfahrungen mit Google Glass gezeigt haben, und von AR-Lösungen mit dem Smartphone. Die Mitarbeiter haben beide Hände frei für Arbeiten im Rechenzentrum, die Steuerung erfolgt über Sprache und Gesten, die Positionsbestimmung kann ohne zusätzliche Marker oder Beacons durch die integrierte räumliche Kamera zumindest stark vereinfacht werden. Auch sind Auflösung, Positionsstabilität und Performance der überlagerten 3D-Informationen von wesentlich besserer Qualität, und die Akkulaufzeit ist wesentlich länger.

Alles auf DCIM-Datenbasis

Diese Beispiele zeigen das enorme Potenzial, das sich im Bereich des RZ-Managements hinter den neuen und vielversprechenden VR-/AR-Technologien verbirgt. Freilich sind entsprechende Hardware und Softwareanwendungen notwendig, um die Visualisierung, Navigation und die Funktionalitäten in der virtuellen und erweiterten Realität darzustellen und den Anwendern verfügbar zu machen. Und es gilt für die vorgestellten Szenarien eine wesentliche Grundvoraussetzung: Alle relevanten Daten müssen in einem zentralen Datenmodell zusammenlaufen und vorgehalten werden. Diese Datenbank stellt wiederum die notwendigen Daten für die VR- und AR-Anwendungen mittels REST-Schnittstellen bereit. Dann erst kann es gelingen, die virtuelle und erweiterte Realität im Rechenzentrum echte Realität werden zu lassen.

FNT cmyk when transparency matters.jpg

Eric Brabänder ist Marketing-Leiter der FNT GmbH. FNT ist führender Anbieter integrierter Softwareprodukte für die Dokumentation und das Management von IT- und Telekommunikationslösungen sowie Rechenzentren und Gebäuden.


FNT GmbH, Facility Network Technology, Röhlinger Straße 11, 73479 Ellwangen/Jagst, Tel.: 07961-9039-0, info@fntsoftware.com, www.fntsoftware.com

Nützliche Links