Serverkonsolidierung, Teil 3: Wie der Umzug auf schnelle Server klappt

Rechenleistung und Speicherplatz zu bündeln, so dass sie sich flexibel zuweisen lassen, zahlt sich aus. Energiekosten, sagt Fachmann Jens Tintrup in diesem Beitrag von Sabine Philipp, spart man unterm Strich aber kaum – schließlich steigt der Bedarf an Performance und Sicherheit stetig weiter.

Mehr Platz auf weniger Raum

Von Sabine Philipp

Ein vorrangiges Ziel jeder Serverkonsolidierung ist es, die verfügbare Rechenpower so zu fassen – z.B. mithilfe von virtualisierten Servern –, dass sie verlässlich und flexibel immer diejenigen Anwendungen bedient, die gerade Ressourcen brauchen. Der zweite Hauptaspekt ist der Speicherplatz.

Ein realistisches Szenario in vielen Firmen sieht oft so aus, dass die eine Serverfestplatte fast voll ist, während die anderen noch viel Luft haben. Dummerweise lässt sich der freie Platz nicht nutzen, eben weil er sich auf einem anderen Server befindet.

Daher wird bei der Konsolidierung der komplette Speicherplatz der Server als Pool zusammengefasst und kann praktikabler eingeteilt werden. „Ein Server besteht ja immer aus der Rechenmaschine, die das Gehirn des Ganzen ist, und dem Speicherplatz der dahintersteckt“, sagt MittelstandsWiki-Fachmann Jens Tintrup. Wer die Speicherplatte entkoppeln und flexibler zuweisen möchte, braucht Systeme wie die erwähnten Bladeserver oder ein separates Storage Area Network (SAN). „Ein SAN ist ein eigenes Netzwerk mit eigenen Netzwerkkarten und einer oder mehreren Speichereinheiten mit mehreren Festplatten. Die können untereinander gespiegelt werde, so dass das ganze System doppelt aufgelegt ist und auch entsprechende Datensicherungsmöglichkeiten bietet.

JensTintrup.jpg

Jens Tintrup ist Geschäftsführer der Tintrup Com­puter GmbH. Als Kauf­mann und Netz­werk­spezialist weiß er, wie wichtig es für KMU ist, dass sich neue Infra­struktur bald be­zahlt macht. Weil das Lüding­hauser Unter­nehmen auf quali­fizierte (und zerti­fizierte) Her­steller­kontakte setzt, hat Tintrup genau im Blick, was die ein­zelnen Lö­sungen leisten.

Dabei gibt es verschiedene Techniken, die auf Speichervorgänge optimiert und daher besonders schnell sind. Da wären zum einen einfache und relativ günstige Techniken wie iSCSI-SAN, die auf Standardnetzwerktechnik basiert. Bei einer iSCSI-SAN -Lösung für zwei Server kann man ab 5000 Euro starten. Zum anderen gibt es das Fibre-Channel-SAN. „Diese Technik ist viel effizienter und flexibler, und wurde gezielt für die Anforderungen eines SANs entwickelt“, erklärt Tintrup. Für ihren Einsatz benötigt man spezielle Glasfaseradapter und Switches, um das Netzwerk herzustellen. Sie taugt auch für größere Umgebungen, aber sie ist beträchtlich teurer als iSCSI-SAN; über den Daumen gepeilt kommt sie etwa auf das Doppelte.

Im Szenario durchgerechnet

Wer auf aktuelle Serversysteme setzt, ist nicht nur flexibler. „Die Rechenleistung und die Leistungsfähigkeit der modernen Rechensysteme sind natürlich höher als bei Systemen, die, sagen wir einmal, vor drei Jahren auf den Markt kamen“, erklärt Tintrup. Das bedeutet, dass sie trotz stärkerer Leistung sehr viel weniger Strom verbrauchen als alte Geräte, so dass Unternehmen auch Energiekosten sparen können: für den Betrieb der Rechner und für die Kühlung der Serverräume. Denn es macht natürlich einen Unterschied, ob fünf schwache oder nur zwei starke Geräte für heiße Luft sorgen.

„Man muss fairerweise dazusagen, dass Sie die Energie nur unter der Maßgabe einsparen, dass Sie die Rechenleistung gleich halten“, dämpft Tintrup allzu große Erwartungen. „Sobald Sie aufstocken, geht das Spiel von vorne los. Es ist ja so, dass die EDV-Systeme über die Jahre immer wichtiger geworden sind. Generell legen heute viel mehr Kunden Wert auf Ausfallsicherheit, so dass die Systeme durch Spiegelung doppelt vorgehalten werden müssen. Insofern verwischen sich die Effekte ein wenig.“

Serie: Serverkonsolidierung
Teil 1 stellt die beiden Haupt­strategien vor: Blades und Virtualisierung. Teil 2 sieht ge­nauer nach, wo vir­tuelle Systeme noch haken, und er­klärt, warum sie dop­pelt sicher sein müssen. Teil 3 wägt Ersparnis und Mehr­leistung ab; außer­dem gibt es Tipps für den Um­zug auf die neuen Maschinen.

Dennoch bleibt sicher, dass Sie deutlich mehr Leistung für weniger Watt bekommen. Wie viel Sie genau einsparen können, lässt sich nur schwer vorhersagen. Von Tools, die die Energieersparnis berechnen, hält Tintrup übrigens nichts. Denn in der Praxis spielen zu viele Parameter eine Rolle: die Raumgröße, die Art des Bodens (normaler oder Doppelboden), die Anordnung der Server usw.

Tintrup empfiehlt, stattdessen ein gutes Systemhaus zu beauftragen, das mit tagesaktuellen Systempreisen kalkulieren und hochrechnen kann, was ein solches System in drei Jahren verbrauchen wird. Eine solche Beratung kann auch gleich sagen, welches aktuelle System besonders geeignet ist. Denn der Markt ändert sich rasch und ein Anbieter, der letztes Jahr noch top war, ist in diesem Jahr vielleicht schon abgeschlagen. Wichtig ist, dass der Anbieter schon Erfahrungen auf dem Gebiet gesammelt hat und Referenzen vorweisen kann. Dann weiß er auch, was bei einer Migration auf ihn zukommt, und kann entsprechend vorgehen.

Kommunikation-und-netze-2015-02.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Fazit: Umstellung im Parallelbetrieb

Wenn das Projekt geplant, die neuen Server bestellt sind und nur darauf warten, angeschlossen zu werden, beschleicht so manchen Unternehmer das Grauen. Denn je nach Komplexität kann der Wechsel unterschiedlich lange dauern. Der Geschäftsbetrieb sollte dabei möglichst nicht gestört werden. „Besonders schnell geht es bei kleinen Unternehmen. Hier kann man oft die bestehenden Serversysteme mit spezifischen Tools in virtuelle Systeme umwandeln“, weiß Tintrup. Das nimmt je nach Szenario unterschiedlich viel Zeit in Anspruch. „Wenn zwei Systeme virtualisiert und gespiegelt werden sollen, dauert das etwa zwei bis drei Tage. Bei 15 Servern ist der Aufwand dementsprechend höher.“

Oft ist es in Wirklichkeit aber so, dass die Serverkonsolidierung dazu genutzt werden soll, Insellösungen zu beseitigen, die Ad-hoc-Architektur der vergangenen Jahre zu bereinigen und das effektiv Notwendige noch einmal sauber neu zu installieren. Die Mitarbeiter sollen in der Zwischenzeit trotzdem weiter arbeiten können.

In solchen Fällen darf nicht alles von einem Tag auf den anderen abgeschaltet werden. Warten Sie am besten ab, wie die neuen Systeme laufen. Sobald das Ganze ausgiebig geprüft und für gut befunden wurde, kann man die alte Architektur endgültig abreißen und die neuen Server auf produktiv schalten – am besten über das Wochenende, denn dann haben Sie noch immer einen kleinen Puffer. Anschließend ist es sinnvoll, die alten Systeme noch für eine Weile einzufrieren. Man weiß ja nie, wie sich die neuen Server bewähren. So können Sie im Notfall noch immer auf ein System zugreifen, das garantiert läuft.

Nützliche Links