So funktioniert ein Rechenzentrum
Das Rechenzentrum hat noch lange nicht ausgedient: Ein Infrastruktur-Spezialist bei der Arbeit im Data Center von Google in Mayes County, USA.
Foto: Google
Ein Rechenzentrum ist die physische Einrichtung, die die:
Rechenleistung liefert, um Applikationen auszuführen,
Speicherkapazitäten für die Datenverarbeitung zur Verfügung stellt und
die Netzwerke bereitstellt, um die Mitarbeiter mit den für ihre Arbeit erforderlichen Ressourcen zu verbinden.
Nicht wenige Experten prophezeien, dass On-Premises-Rechenzentren durch Cloud-basierte Alternativen abgelöst werden. Inzwischen sind jedoch viele Unternehmen zu dem Schluss gekommen, dass sie einige Anwendungen dauerhaft vor Ort betreiben müssen. Das Data Center stirbt also nicht – es entwickelt sich viel mehr weiter. Moderne Rechenzentren werden dezentraler, arbeiten mit modernen Technologien und werden um Cloud-ähnliche Funktionen erweitert. Selbst On-Premises-Rechenzentren werden in einem Hybridmodell mit Cloud-Ressourcen integriert.
Zudem waren Rechenzentren früher nur für große Unternehmen interessant, die Ressourcen für Anschaffung und Wartung aufbringen konnten. Heutzutage kann ein Data Center diverse Formen annehmen. Nur eines ändert sich nicht: Es bleibt ein isolierter, lauter und kalter Safe Room für Ihre Applikations-Server und Storage Devices.
Rechenzentrum – Komponenten
Allen Rechenzentren liegt eine ähnliche Infrastruktur zugrunde, die idealerweise eine zuverlässige, konsistente Performance ermöglicht. Zu den grundlegenden Komponenten eines Data Center gehören:
Strom: Rechenzentren brauchen eine zuverlässige Stromzufuhr, damit die Geräte rund um die Uhr laufen können. Ein Data Center verfügt über mehrere Stromkreise, die für Redundanz und hohe Verfügbarkeit sorgen und durch unterbrechungsfreie Stromversorgung ein Backup bereithalten.
Kühlung: Elektronik erzeugt Wärme, die, wenn sie nicht gemildert wird, zu Schäden an den Geräten führen kann. Deshalb sind Rechenzentren so konzipiert, dass sie die Warmluft ableiten und gleichzeitig kühle Luft bereitstellen, um Überhitzungen entgegenzuwirken. Um das komplexe Gleichgewicht aus Luftdruck und Flüssigkeitsdynamik herzustellen, ist es nötig, “hot aisles” und “cold aisles” entsprechend zu planen. Nachhaltigkeit spielt hierbei zunehmend eine zentrale Rolle.
Netzwerk: Innerhalb des Rechenzentrums sind die Geräte miteinander verbunden, um kommunizieren zu können. Um den Zugriff auf Unternehmensanwendungen von jedem Ort aus zu ermöglichen, stellen Netzwork Service Provider die Verbindung zur Außenwelt her.
Sicherheit: Ein dediziertes Rechenzentrum bietet eine Ebene der physischen Sicherheit, die weit über das hinausgeht, was durch einen abschließbaren Schrank erreicht werden kann. In einem solchen Rechenzentrum sind die Geräte sicher untergebracht, während Zugangsprotokolle gewährleisten, dass nur befugtes Personal zugreifen kann.
Data Center – Typen
Grundsätzlich lassen sich Rechenzentren fünf verschiedenen Kategorien zuordnen:
On-Premises: Das traditionelle Vor-Ort-Rechenzentrum wird inklusive der erforderlichen Infrastruktur auf dem Unternehmensgelände errichtet. Ein Vor-Ort-Data-Center erfordert beträchtliche Investitionen in Immobilien und Ressourcen, ist aber für Anwendungen geeignet, die aus Sicherheits-, Compliance- oder anderen Gründen nicht in die Cloud verlagert werden können.
Colocation: Ein Colocation-Rechenzentrum befindet sich im Besitz eines Dritten, der physische Infrastruktur und Management gegen Gebühr zur Verfügung stellt. Sie zahlen für den physischen Raum, den Stromverbrauch und die Netzwerkkonnektivität innerhalb der Einrichtung. Die physische Sicherheit wird durch verschlossene Racks im Rechenzentrum oder durch besonders gesicherte Bereiche gewährleistet. Der Zugang zur Einrichtung erfordert eine Legitimation – etwa mittels biometrischer Daten. Innerhalb des Colocation-Modells gibt es zwei Möglichkeiten: Sie können die vollständige Kontrolle über Ihre Ressourcen behalten oder sich für eine gehostete Option entscheiden, bei der der Drittanbieter die Verantwortung für die physischen Server und Speichereinheiten übernimmt.
IaaS: Cloud-Anbieter wie Amazon Web Services, Google Cloud Services oder Microsoft Azure ermöglichen ihren Kunden mit Infrastructure as a Service (IaaS)-Angeboten, über eine webbasierte Benutzeroberfläche remote auf dedizierte Slices gemeinsam genutzter Server und Speichereinheiten zuzugreifen, eine virtuelle Infrastruktur aufzubauen und zu managen. Cloud-Dienste werden auf Grundlage der verbrauchten Ressourcen abgerechnet – die Infrastruktur lässt sich dynamisch skalieren. Der Serviceanbieter managt das gesamte Equipment und kümmert sich um Sicherheit, Stromversorgung und Kühlung. Als Kunde haben Sie in diesem Fall keinen physischen Zugang zum Data Center.
Hybrid: In einem Hybridmodell können die Ressourcen an mehreren Standorten untergebracht sein und so interagieren, als befänden sie sich am selben Ort. Eine Hochgeschwindigkeitsverbindung zwischen den Standorten ermöglicht einen schnelleren Datenverkehr. Eine hybride Rechenzentrums-Konfiguration eignet sich hervorragend, um latenz- oder sicherheitsempfindliche Applikationen in der Nähe des eigenen Standorts zu halten und gleichzeitig auf Cloud-basierte Ressourcen zur Erweiterung der Infrastruktur zuzugreifen. Ein hybrides Modell ermöglicht auch, temporäre Devices schnelle bereitzustellen und abzuschreiben, um unnötige Anschaffungen zu vermeiden.
Edge: Edge-Data-Center beherbergen in der Regel Geräte, die sich näher am Endbenutzer befinden müssen, etwa Cache-Speichergeräte, die aufgrund von Leistungsanforderungen Kopien von latenzempfindlichen Daten enthalten. Es ist üblich, Backup-Systeme in einem Edge-Rechenzentrum zu platzieren, um den Betreibern einen besseren Zugang zu ermöglichen, beispielsweise um Backup-Medien wie Tapes zu ersetzen oder für den Versand an externe Speichereinrichtungen vorzubereiten.
Rechenzentren – Tier 1 bis 4
Rechenzentren werden um Service Level Agreements (SLAs) herum aufgebaut. Diese berücksichtigen das potenzielle Risiko einer Serviceunterbrechung über ein Kalenderjahr. Um Ausfallzeiten zu reduzieren und die Zuverlässigkeit zu erhöhen, werden in einem Data Center mehr redundante Ressourcen eingesetzt. Die Betriebszeit wird als Prozentsatz ausgedrückt. Rechenzentren werden in vier “Tiers” eingeteilt, die sich hinsichtlich der jährlichen Zeit der potenziellen Betriebsunterbrechungen unterscheiden:
Tier 1: Nicht mehr als 29 Stunden (99,671 Prozent Betriebszeit).
Tier 2: Nicht mehr als 22 Stunden (99,741 Prozent Betriebszeit).
Tier 3: Nicht mehr als 1,6 Stunden (99,982 Prozent Betriebszeit).
Tier 4: Nicht mehr als 26,3 Minuten (99,995 Prozent Betriebszeit).
Die Kosten zwischen den einzelnen Stufen können drastisch variieren.
Data-Center-Modernisierung – mit HCI & KI
In der Vergangenheit wurde das Rechenzentrum als eine Ansammlung von Geräten für bestimmte Anwendungen betrachtet. Weil die Applikationen allgemein immer mehr Ressourcen benötigten, wurden zusätzliche Devices angeschafft, für deren Bereitstellung Ausfallzeiten in Kauf genommen werden mussten. Gleichzeitig stieg der Bedarf an physischem Platz, Strom und Kühlung immer weiter an.
Virtualisierungstechnologien haben dieser Entwicklung schließlich Einhalt geboten: Heute sehen wir das Data Center ganzheitlich als einen Pool von Ressourcen, die logisch partitioniert und effizienter genutzt werden können, um mehrere Applikationen zu bedienen. Wie bei Cloud-Diensten können Anwendungsinfrastrukturen mit Servern, Storage und Netzwerken über ein einziges Interface konfiguriert werden. Eine effizientere Nutzung der Hardware ermöglicht effizientere, umweltfreundlichere Rechenzentren, die weniger Kühlung und Strom benötigen.
HCI meets Rechenzentrum
Das traditionelle Rechenzentrum basiert auf einer dreistufigen Infrastruktur: Rechen-, Speicher- und Netzwerkressourcen werden entsprechend zugewiesen, um bestimmte Applikationen zu unterstützen. In einer hyperkonvergenten Infrastruktur (HCI) werden diese drei Ebenen zu einem einzigen Baustein, einem Knoten beziehungsweise einer Node, zusammengefasst. Mehrere Knoten lassen sich wiederum zu einem Ressourcenpool zusammenfassen, der über einen Software Layer gemanagt werden kann.
HCI ist für viele Unternehmen außerdem attraktiv weil:
es Speicher, Rechenleistung und Netzwerk in einem einzigen System kombiniert, um Komplexität zu reduzieren und
es die Bereitstellung in Rechenzentren, Zweigstellen und Edge-Standorten optimiert.
KI im Data Center
Künstliche Intelligenz (KI) versetzt Algorithmen in die Lage, die traditionelle Rolle des Data Center Infrastructure Manager (DCIM) zu übernehmen. Dazu werden Stromverteilung, Kühlungseffizienz, Serverauslastung und Cyberbedrohungen in Echtzeit überwacht und automatisch Effizienzanpassungen vorgenommen. KI im Rechenzentrum ist zudem in der Lage ohne (oder mit minimaler) menschliche Interaktion:
Workloads auf nicht ausgelastete Ressourcen verlagern,
potenzielle Komponentenausfälle erkennen und
Ressourcen im Pool auszugleichen.
Rechenzentrum – Zukunftsausblick
Das Rechenzentrum hat noch lange nicht ausgedient – im Gegenteil. Unternehmen generieren jeden Tag mehr Daten, etwa:
Geschäftsprozessdaten,
Kundendaten,
IoT-Daten,
OT-Daten oder
Patientendaten.
Und sie wollen diese Daten analysieren, entweder vor Ort, in der Cloud oder im Rahmen eines Hybridmodells. Zwar werden dafür nicht notwendigerweise brandneue, zentralisierte Data Center aufgebaut – bestehende aber modernisiert und/oder über Edge-Standorte erweitert. Die Nachfrage nach Rechenzentren wird mit Blick auf Zukunftstechnologien wie KI, autonomes Fahren, Blockchain und Metaverse in der Zukunft sicher nicht kleiner werden.
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.
Hier finden Sie den kompletten Artikel: