search
close-icon
Rechenzentren
PlatformDIGITAL®
Partner
Wissenswertes
Über uns
Language
Login
Ihr Kontakt zu uns
banner
Artikel

Eine kurze Geschichte der Rechenzentren

In einer Welt unzähliger digitaler Interaktionen ist es leicht, eine nahtlose Konnektivität zwischen Menschen, Orten und Dingen als selbstverständlich zu betrachten. Doch es ist das Rechenzentrum, das unsere moderne Welt ermöglicht, indem es die gesamte Konnektivität, Verarbeitung und Speicherung ermöglicht, auf die wir täglich angewiesen sind.

Natürlich waren Rechenzentren nicht immer die eleganten, effizienten Einrichtungen, die wir kennen und lieben. Werfen wir vor diesem Hintergrund einen Blick darauf, wo Rechenzentren entstanden sind, wie sie sich entwickelt haben und wohin sie als nächstes gehen.

Der Beginn der Daten
In den 1950er und 60er Jahren waren Rechenzentren weit von ihren modernen Verwandten entfernt. Tatsächlich wurden sie nicht einmal Rechenzentren genannt, sondern Mainframes.

Der CDC 6600 von Control Data Corporation wird oft als erster Supercomputer bezeichnet und verfügte über eine gewaltige Verarbeitungsgeschwindigkeit von 40 MHz. Diese „Big Iron“-Computer kosteten die Welt und wurden speziell für bestimmte geschäftliche Zwecke gebaut. Sie waren selten, launisch und arbeitsintensiv. Es war schon eine Errungenschaft, sie über mehrere Tage hinweg betriebsbereit zu halten.

Ohne Netzwerkkonnektivität waren diese frühen Großrechner Inseln der Rechenleistung in einer Welt mit Stift und Papier. So erinnert sich Pitt Turner, Geschäftsführer des Uptime Institute, an den nahe gelegenen Großrechner einer großen Regionalbank: „Am Abend kamen all diese Lastwagen an … mit Papier. In der Nacht, in der das Papier verarbeitet wurde, wurden die Daten verarbeitet, neue Ausdrucke erstellt und dann wurden die Dokumente an die Filialbanken zurückgesendet, damit diese am Morgen öffnen konnten.“

In den 1970er und 1980er Jahren verbreitete sich das Mooresche Gesetz weiter: Die Rechenleistung stieg immer weiter und Desktop-Computer wurden zum alltäglichen Anblick. Allerdings ging es bei der Mainframe-Entwicklung in dieser Zeit nicht in erster Linie um Rechenleistung und Effizienz, sondern um Zuverlässigkeit. Die Fähigkeit, die Datenreinheit sicherzustellen und Korruption zu vermeiden, nahm stetig zu, doch die Verwaltung der Rechenleistung war weiterhin kostspielig, was viele Unternehmen dazu veranlasste, ihre Anforderungen auszulagern, anstatt interne „Maschinenräume“ zu unterhalten.

Werden sie bedient?
In den 1990er Jahren änderte sich alles. Ein perfekter Sturm spülte traditionelle Großrechner weg, als die Welt Zeuge des Mikroprozessor-Booms, der Geburt des Internets und der Entwicklung von Client-Server-Rechnermodellen wurde.

Plötzlich wurde die IT flexibler: Verzögerungen und Bürokratie machten der Möglichkeit Platz, Geschäftsanwendungen viel schneller auf relativ kostengünstiger Hardware bereitzustellen und zu installieren. Alte Großrechnerräume füllten sich mit Mikroprozessor-Computern, die als Server fungierten, und legten den Grundstein für die ersten hauseigenen Rechenzentren. Langsam wurde diese Infrastruktur sowohl im Design als auch im Betrieb standardisiert und die modularen Racks, die wir heute kennen, waren geboren.

Auch außerhalb des Unternehmens veränderten sich die Dinge. Als eine ständige Präsenz im Internet unerlässlich wurde, wurden Netzwerkkonnektivität und Colocation-Dienste plötzlich geschäftskritisch. Internetprovider und Hosting-Unternehmen begannen mit dem Bau großer externer Einrichtungen zur Bereitstellung ihrer Dienste und lösten damit einen rasanten Aufschwung bei der Einführung von Rechenzentren aus.

Boom und Pleite
Als das Internet Anfang der 2000er Jahre ausgereift war, rückten Rechenzentren in den Mittelpunkt. Die IT-Investitionen schossen in die Höhe, und auf der ganzen Welt schossen neue Einrichtungen in die Höhe, da alle versuchten, vom Dotcom-Boom zu profitieren.

Als die Blase schließlich platzte, wurde die Rechenzentrumsbranche dezimiert: 17 der 27 paneuropäischen Akteure gaben ihr Geschäft auf. Der Abschwung löste jedoch auch eine ruhigere Revolution aus: die Virtualisierung.

In diesen schwierigen Zeiten waren Hardwareauslastung, Stromversorgung, Kühlung und Kosteneffizienz an der Tagesordnung, was es Unternehmen ermöglichte, den Platzbedarf ihres Rechenzentrums zu reduzieren und sowohl CapEx als auch OpEx zu senken. Die Auswirkungen der Virtualisierung waren dramatisch: Letztendlich reduzierte sich der Strom-, Platz- und Kühlbedarf des Rechenzentrums um etwa 80 %.

Mit der Finanzkrise 2008 gewann das Bestreben, IT-Ausgaben zu reduzieren, Anforderungen auszulagern und das Potenzial von Skaleneffekten zu nutzen, an Bedeutung. Der Colocation-Markt erlebte einen durchschlagenden Erfolg, der bis heute anhält.

Ich freue mich auf die Zukunft
Aufstrebende Trends wie Cloud Computing, das Internet der Dinge und der aufstrebende Bereich der Cyber-Physical Systems (auch bekannt als Künstliche Intelligenz) werden das Rechenzentrum weiterhin zum Herzstück der digitalen Wirtschaft machen.

Um den strengen Leistungs-, Zuverlässigkeits- und Sicherheitsanforderungen gerecht zu werden, entscheiden sich Unternehmen zunehmend dafür, On-Premise-Rechenzentrumsstrategien zugunsten von Colocation aufzugeben. Heutige Colocation-Einrichtungen nutzen die gesamte Konnektivität, Nachhaltigkeit, Effizienz, Belastbarkeit und das Fachwissen, das im letzten halben Jahrhundert so hart erkämpft wurde. Kein Wunder also, dass das Geschäft boomt; Laut Research and Markets wächst die Colocation-Branche bis Ende 2021 auf einen Gesamtwert von 55,31 Milliarden US-Dollar an.

Natürlich sind weitere Veränderungen unvermeidlich. Niemand weiß, was die Zukunft bringt, aber hochmoderne Colocation-Einrichtungen bieten Unternehmen die besten Chancen, darauf vorbereitet zu sein.

Tags