AWS reInvent 2018: Wie Amazon den Kampf um die Cloud-Kunden aufnimmt

Auf dem Cloud-Markt tobt ein Ver­drängungs­wett­bewerb; Ama­zon will ihn end­gültig für sich ent­schei­den und hat auf der re:Invent in Las Vegas zahl­reiche neue Services und Kon­zepte vor­ge­stellt. Das hat Aus­wir­kun­gen auf die Be­schaf­fungs­strate­gien im Be­son­deren und die RZ-Strate­gie im All­gemeinen.

Generaloffensive auf die Hybrid-Cloud

Von Axel Oppermann

Amazon ist bekannt für große Ideen. Und Taten. Über zwei Jahrzehnte lang hat Amazon im Tagesgeschäft Geld verloren oder nur hauchdünne Margen verdient. Mit billigem Geld wurde der direkte oder indirekte Wettbewerb aus dem Markt gedrängt oder Partner wurden übervorteilt. Da aber über Jahre Marktanteile gewonnen wurden und der Wettbewerb regelrecht vernichtet wurde, belohnten Investoren die Strategie mit einem hohen Aktienkurs. Auch die Tatsache, dass die Rentabilität von Amazon, gemessen an der Rendite des investierten Kapitals, im Vergleich zu den Konkurrenten miserabel ist, ändert hieran nichts. Ganz im Gegenteil: Der Kapitalmarkt versorgte die Visionen und Aktivitäten über Jahre mit reichlich Geld, was abermals half, Ideen umzusetzen und Marktanteile zu erhöhen.

Aber, wie gesagt: So richtig profitabel waren die gesamten Geschäfte nicht. Erst der frühe, risikoreiche und stringente Einstieg in das Cloud-Geschäft hat dafür gesorgt, dass Amazon mit Gewinn agiert. So gingen in den vergangenen Jahren nicht nur die Umsätze durch die Decke, sondern auch die Erträge. Eine Steigerung des Betriebsergebnisses gegenüber dem jeweiligen Vorjahr durch den zentralen Treiber Amazon Web Services von fast 70 % ist keine Seltenheit. „Die Cloud“ ist für Amazon mittlerweile ein riesiges Geschäft. Im Jahr 2017 erzielte Amazon mit AWS 17,5 Milliarden US-Dollar Umsatz. Die Wachstumsrate betrug 45 %. Damit ist AWS bei der Infrastruktur aus der Cloud die Nummer 1, gefolgt von Microsoft, IBM, Google und Alibaba.

Jäger und Gejagter zugleich

Diese Position gilt es zu verteidigen. Allein der weltweite Markt für Public-Cloud-Services wird für 2018 auf 200 Milliarden US-Dollar taxiert; der vergleichbare Marktzuschnitt im Äquivalent in Deutschland auf knappe 20 Milliarden Euro. Wettbewerber wie Microsoft, aber besonders Alibaba, fordern Amazon weltweit heraus. Sie treiben den Marktführer vor sich her. Dass der diese Herausforderung annimmt, wurde auf der der diesjährigen Hausmesse re:Invent, zu der Ende November in Las Vegas mehr als 50.000 Teilnehmer anreisten, mehr als deutlich: Amazon hat ein wahres Feuerwerk an Neuerungen, Services und Innovationen angekündigt.

Ein Highlight ist der Plan, ein Netzwerk von zwölf Bodenstationssatellitenanlagen aufzubauen, mit den Cloud-Rechenzentren zu verbinden und somit die Verarbeitung von Satellitendaten zu beschleunigen. Zu den weiteren Höhepunkten zählen die Ankündigungen in Bezug auf die Eigenentwicklung von AI-Chips (Artificial Intelligence), eine Bastler- und Entwicklungsplattform für autonomes Fahren oder Neuerungen in der IoT– und Blockchain-Plattform. Zusammengefasst hatte die AWS re:Invent jedoch zwei zentrale Themen: maschinelles Lernen im Kontext künstlicher Intelligenz und die Relevanz hybrider Angebote. Und damit sind wir auch schon bei den für die Unternehmens-IT und für Rechenzentrumsbetreiber relevanteren Themen.

Rechenzentren 2018-04.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Datacenter mit AWS Outposts

In einem Satz: AWS Outposts ermöglicht eine konsistente Hybrid-Cloud-AWS-Infrastruktur, vor Ort im eigenen Rechenzentrum.

In anderen Worten: AWS Outposts bietet native AWS-Dienste, Infrastruktur und Betriebsmodelle für praktisch jedes Rechenzentrum, jeden Colocation Space und jede On-premises-Umgebung. AWS Outposts sind Rechen- und Speicherracks, die aus Hardware und AWS-Software bestehen und so konzipiert sind, dass sie im RZ des Kunden für die Bereitstellung eingesetzt werden können. AWS wird nicht nur Racks mit Hardware liefern, die mit seinen Software-Services bestückt sind, sondern auch installieren und warten. Anwender können die gleichen APIs, die gleichen Tools und die gleichen Funktionalitäten in lokalen und Cloud-Anwendungen verwenden. Einsatzszenarien sind bei Workloads zu sehen, die wegen geringer Latenzzeiten oder lokaler Datenverarbeitungsanforderungen „vor Ort“ bleiben müssen. Oder exemplarisch bei bestimmten lokalen Datenverarbeitungsanforderungen wie virtuellen Telekommunikationsnetzwerken (VNFs), Hochfrequenzhandelsplattformen, Industrieautomation und älteren Unternehmensanwendungen, die auf lokalen Datenbanken basieren. Kunden können zunächst EC2-Instanzen und EBS-Volumen lokal auf einem Outpost bereitstellen. Später kommen weitere Dienste wie RDS, ECS, EKS oder EMR hinzu.

Mit Outposts geht AWS den bisher größten bzw. bedeutendsten Schritt in Richtung Hybrid-Cloud. Es ist ein Schritt, der von vielen AWS-Kunden als begrüßenswert eingestuft wird. Es ist aber auch ein Schritt, der vergleichbar spät erfolgt – andere Cloud-Provider bieten solche Angebote schon länger. Namentlich Microsoft mit Azure Stack oder Oracle mit Cloud at Customer. Amazon setzt bei Outposts, seiner für den hybriden Cloud-Markt entwickelten Appliance, auch, aber nicht nur auf die Partnerschaft mit VMware.

Konkurrenz um die Hybrid Cloud

Um den wachsenden Anforderungen an Rechenzentren gerecht zu werden und zusätzliche Vorteile wie Agilität, Skalierbarkeit und regelmäßig globale Reichweite zu bieten, verwandelt sich das traditionelle Rechenzentrum in ein hybrides Rechenzentrum. Und diese Entwicklung wird in den kommenden fünf Jahren weitergehen. Mehr noch: Hybrid-Cloud wird weiterhin in der Mehrzahl der Unternehmen eine sehr hohe Priorität haben. Warum? Weil es den heutigen Geschäftsanforderungen entspricht und gleichzeitig der kleinste gemeinsame Nenner ist, um Anforderungen und Trends wie ML (Machine Learning) und KI/AI (künstliche Intelligenz/Artificial Intelligence) abzubilden.

Eine hybride Cloud kombiniert vorhandene Rechenzentrumsressourcen mit vorgefertigten IT-Infrastrukturressourcen (Compute, Networking, Storage, Applikationen und Services), die Skalierungsfunktionen bieten, wie sie in IaaS (Infrastructure as a Service) oder Public-Cloud-Angeboten zu finden sind.

Microsoft ist diesen Weg, den AWS jetzt mit Outposts geht, schon vor längerer Zeit gegangen. So bietet Microsoft neben Azure und Windows Server auch Azure Stack, eine Appliance, gedacht als On-premises-Version der Public Cloud Azure. Die Anzahl der ausgelieferten Einheiten, respektive der Kunden, soll allerdings überraschend klein sein. Der Grund hierfür liegt insbesondere an den Preisen und den Hardware-Vorgaben. Azure Stack ist oft am Edge im Einsatz und ist da ein probates Mittel.

Kurzum: AWS bringt Outposts spät, aber noch rechtzeitig, um den Anforderungen der Kunden gerecht zu werden; und so auch die eigene Relevanz zu steigern. Die Markteinführung von Outposts zeigt die Entschlossenheit von AWS, nicht nur die Public Cloud zu dominieren, sondern die Aktivitäten auf die gesamte IT-Ausstattung (im RZ) zu erweitern, dort relevant zu sein.

Moment mal: „Die Entschlossenheit von AWS“? Ja: AWS hat zwar viele Jahre damit verbracht, die Idee der hybriden Cloud zu zerstören; die Idee niederzumachen. Musste mit ansehen, wie Microsoft mit geschicktem Marketing, intelligenten Produkten und kreativer Preisfindung das Thema Hybrid zu einem wichtigen Verkaufsargument machte und auch deswegen ein noch rasanteres Wachstum als Amazon hinlegen konnte. Aber: Die Anforderungen der Anwender, der Druck des Marktes und die eigenen Ziele führen AWS zu dieser neuen Entschlossenheit. Diese zeigt sich auch durch Services wie AWS Snowball Edge: Das sind Speichergeräte für Orte mit eingeschränkter Internet-Konnektivität, die in der Lage sind, AWS-ähnliche Daten zu verarbeiten, ohne mit der Cloud verbunden zu sein.

Anwender benötigen Installationen vor Ort – sei es, um Bedenken hinsichtlich der Datenhoheit zu zerstreuen oder um, was oft viel wichtiger ist, den Anforderungen an Latenz gerecht zu werden. Dennoch: Trotz absoluter Workload-Portabilität und der eindeutig vorhandenen Vorteile der integrierten Services könnten sich vorsichtigere Kunden oder Kunden mit starkem Aluhut um die Lock-in-Risiken sorgen. Im Grunde wissen wir alle: Identische Cloud- und lokale Stacks, die von nur einem Anbieter verwaltet werden, sind die Büchse der Pandora.

Neues bei Glacier

Allgemein bekannt ist, dass Amazon Glacier ein sicherer, dauerhafter und äußerst kostengünstiger Cloud-Speicherservice für die langfristige Sicherung und Archivierung von Daten ist. Amazon Glacier bietet dauerhafte Storage-Kapazitäten für jede Art von Datenformat. Glacier unterscheidet sich von Amazons teurerem S3 (Simple Storage Service) dadurch, dass S3 für Daten konzipiert ist, die in Echtzeit abgerufen werden müssen. Glacier dagegen speichert in Archiven und Tresoren. Ein Archiv ist ein Datenblock, der aus einer einzelnen Datei oder aggregierten Daten in Form von Tar- oder Zip-Dateien bestehen kann. Glacier-Archive haben eine Größe von 1 Byte bis 40 TByte; es gibt keine Grenzen, wie viele Daten und wie viele Archive ein AWS-Benutzer in Glacier speichern kann. Amazon bietet eine mehrteilige Upload-Funktion für höheren Durchsatz und Zuverlässigkeit bei Archiven über 100 MByte.

AWS hat angekündigt, den Service weiter aufzubohren: Ab Anfang 2019 wird es eine neue Speicherkategorie in Glacier geben. Der Service Amazon S3 Glacier Deep Archive ist eine neue Speicherkategorie, die sich mit den niedrigsten Kosten aller AWS-Speicherservices bewirbt: Mit 0,00099 US-Dollar pro GByte-Monat, also ca. 1 US-Dollar pro TByte-Monat, wird der Service taxiert. Mit Amazon S3 Glacier Deep Archive können Kunden, die über große Datensätze verfügen, die sie lange Zeit aufbewahren wollen, die Kosten und das Management der Bandinfrastruktur eliminieren und gleichzeitig sicherstellen, dass ihre Daten für die zukünftige Verwendung und Analyse gut aufbewahrt werden. Es soll der ideale Dienst zur Archivierung von Daten wie Krankenakten, Medienarchiven und regulierten Finanzdienstleistungsdaten sein.

Auch wenn die Preise zunächst verlockend sind. Teuer wird es, wenn die Daten wieder zur Verfügung gestellt werden müssen. Aber dennoch: zunehmend eine Alternative für Bandinfrastrukturen.

AWS und Cloud-Sicherheit

Fakt ist: In all den Jahren, in denen private Rechenzentren unzähligen Sicherheitsverletzungen und Angriffen zum Opfer gefallen sind, sind die großen Cloud-Anbieter (halbwegs) unbeschadet unterwegs bzw. davongekommen. Dennoch ist Cloud-Security nach wie vor eines der Hauptanliegen der AWS-Kunden. Auch aus diesem Grund wurden auf der re:Invent zahlreiche neue Ansätze vorgestellt: So ist der AWS Security Hub ein neues Dashboard, das es AWS-Kunden ermöglicht, eine Momentaufnahme ihres Sicherheitsstatus in ihrem gesamten Konto zu sehen, indem sie AWS-Sicherheitsdienste wie GuardDuty sowie Sicherheitssoftware von Drittanbietern verwenden (etwa von Symantec und F5 Networks). Die Menge an Sicherheitsmeldungen wird zusammengefasst und in einer leicht verständlichen Weise organisiert. Wichtig dabei: Die Zentralisierung ist nichts Neues. Vielmehr die Fokussierung – die Priorisierung – und intelligente Analyse ist es. AWS wird die Aktivitäten in Bezug auf Sicherheit weiter stark ausbauen.

Cloud-native Hardware

Eine der größten Ankündigungen auf der AWS-Hausmesse war der Graviton-Chip. Hierbei handelt es sich um einen neuen, maßgeschneiderten Serverprozessor auf Basis der ARM-Architektur, den AWS seinen Cloud-Kunden sofort zur Verfügung stellt. Die Graviton-Prozessoren sollen besonders für Scale-out-Workloads konzipiert sein, bei denen Kunden Lasten über mehrere kleinere Instanzen verteilen können. Dazu gehören Instanzen von Microservices, Webservern, Entwicklungsumgebungen und Caching-Server.

Der Prozessor, respektive die Ansätze von AWS, stellen eine neue Ära des Hardwaredesigns dar. AWS wird durch die Eigenentwicklung in der Lage sein, sich auf der Grundlage von Kundenfeedback und sich ändernden Marktanforderungen relativ schnell neu einzustellen und so zügig neue Chips für die Cloud-Computing-Ära einzuführen, in der viele der Standardverfahren der Vergangenheit veraltet aussehen. Was noch wichtiger ist: Hierdurch lassen sich Differenzierungen zu anderen Cloud-Providern erarbeiten. Auch aus diesem Grund forciert Amazon die Entwicklung von Chips für die künstliche Intelligenz.

Axel Oppermann 2013.jpg

Axel Oppermann berät seit über 17 Jahren als IT-Markt­analyst Technologie­unternehmen in Strategie- und Marketing-Fragen. Er arbeitet beim Beratungs- und Analysten­haus Avispador, schreibt für diverse Blogs, Portale, Fach­zeitschriften und kommentiert in diversen Bewegt­bild­formaten aktuelle Themen sowie den Markt. Als Gesprächs­partner für Journalisten und Innovatoren bringt Axel erfrischend neue Ansichten über das Geschehen der digITal-Industrie in die Diskussion ein. Seine viel­fältigen Erkenntnisse gibt Axel in seinen kontroversen, aber immer humor­vollen Vorträgen, Seminaren, Work­shops und Trainings weiter. Seine Themen: Digital & darüber hinaus.

Und sonst?

Amazon hat noch zahlreiche neue oder überarbeitete Services vorgestellt. Hierzu zählen auch File-Services, Datenbanklösungen oder Angebote für Robotics. Alle haben Auswirkungen auf das lokale Rechenzentrum, auf die Strategien von AWS-Kunden und Nichtkunden. Auf Wettbewerber. Auf den Markt.

Nützliche Links