The Heat Is On

isotopp image Kristian Köhntopp -
August 7, 2006
a featured image

Rückkühler, 2x3m (6 qm) Kupferkühlfläche pro Seite

[ Dieser Artikel hätte vor zwei Wochen fertiggestellt werden sollen, auf dem Höhepunkt der Hitzewelle, aber ich war zu schlapp zum Schreiben. – kris ]

“1.21 Gigawatt? Tom Edison, wie erzeugt man so viel Strom?”Dr. Emmett Brown

Ein Rechenzentrum ist im Wesentlichen eine große isolierte Kiste, deren Türen die meiste Zeit geschlossen gehalten werden. In das Rechenzentrum herein führen - da kommen die meisten Leute von selber drauf - Stromkabel und Netzwerkkabel. Ins Rechenzentrum herein führen außerdem - und das unterschätzen die meisten Leute - auch Wasserleitungen. Diese pumpen kaltes Wasser in die Wärmetauscher der Klimaanlage und lassen das warme Wasser wieder herausfließen.

Also, wie viel Energie brät so ein Rechenzentrum denn so weg?

Platz im Rechenzentrum wird in HE, Höheneinheiten von 19-Zoll-Schränken, abgerechnet. Ein Schrank hat Platz für 40-42 HE. Ein IBM Bladecenter Chassis faucht hinten aus seinen beiden Radiallüftern 3000-3500 Watt raus, wenn es voll bestückt ist. Es belegt 7 HE. Machte man den Schrank mit 5 oder 6 von diesen Dingern randvoll, würden in diesem Schrank zwischen 15000 und 21000 Watt rausgeblasen werden. In einem kleinen RZ mit 30 Schränken sind das um die 500 kW.

Wie viel Energie ist das?

Kilowatt sind nur neumodische Worte für PS. Ein Kilowatt sind 1.36 altbekannte Pferdestärken. 15 kW sind also 20 PS, in etwa ein Renault 4 , und 21 kW sind 28 PS - mit dieser Leistung flog Louis Blériot im Jahre 1909 über den Ärmelkanal. 500 kW sind 680 PS. Das ist die Leistung des Motors einer ME 109 , oder etwa halb so viel wie der Motor eines Leopard 2 oder 2/3 der Leistung eines Bugatti Veyron .

Dafür bekommt man die Power von ca. 5000 Intel-Prozessoren bei 3 GHz, und etwa 5 Terabyte RAM, aber man hat noch keine Platten irgendwo in Betrieb genommen.

Das alles muss man nun circa mal drei bis vier nehmen, denn man muss ja die Platten, den Leistungsverlust durch dezentrale Netzteile und die zusätzliche Energie für Kühlung mitrechnen.

Natürlich stellt man sich nicht alles voll mit Blades - man muss ja auch noch Datenbanken, Fileserver, Ciscos und anderes Zeugs haben, also hat man am Ende nicht einen Raum mit 30 Schränken, sondern drei Räume mit 90 Schränken voll Hardware. Aber man arbeitet mit so knapp an die 2 Megawatt, oder zwei Schiffsdieseln mit 1250 PS pro Stück.

Dies ist ein Schrauben- kompressor, wie er in jedem Kühlschrank seinen Dienst tut. Dieser Kompressor hier wiegt 6 Tonnen und schafft 700 kW weg.

Das klingt nach einer ganzen Menge Power, ist aber tatsächlich relativ klein so im Vergleich.

Google zum Beispiel zieht jetzt an einen Staudamm in Oregon . Die Aluminiumhütte dort hat zugemacht und die 1.8 Gigawatt aus dem Damm am Columbia River kommen Google gerade recht. Zumal man das Wasser aus dem Damm dann auch gleich zur Kühlung nutzen kann und es in Oregon meist nicht so warm ist. Google muss das, denn sonst wird Blogger dunkel .

Auch andere Internet Firmen verfolgen dieselbe Strategie . Das alles ist ein ernstes Problem . Man kann sich jetzt auf seinen Status als offizieller Sun Fanboy zurückziehen und sagen “Mit Sun Servern wäre das nicht passiert”, aber das geht am Kern des Problems vorbei. Denn dann hätte man mehr Server, aber genau denselben Leistungshunger.

Wie sieht das in Deutschland aus? Wir sind ja ein ordentliches Land und nicht so drittweltig wie die USA, wo schon mal 14 Tage lang der Strom in einer Großstadt wegbleiben kann. Aber auch bei uns passiert dasselbe .

Für ein Rechenzentrum ist der Ausfall der Klimaanlage ein schneller Tod. Wenn die Rückkühler, die die Abwärme des Rechenzentrums in die Umgebung ableiten sollen, beschädigt oder blockiert sind, dann bleiben je nach Systemkonstruktion noch 20-30 Minuten, bis die Zulufttemperatur der Geräte die magische 35 °C Schwelle überschreitet. Der Betreiber hat dann die Wahl zwischen Abschalten und Hitzetod.

Im Rechenzentrum sieht das inzwischen nicht viel anders aus. Damit man auf kleinem Raum überhaupt so viel Abwärme generieren kann, muss man seine Luftströme im Rechenzentrum sorgfältig organisieren. Einen ganzen Raum zu kühlen und die Server dann da einfach reinzustellen funktioniert schon bei relativ kleinen Abwärmemengen nicht mehr.

Stattdessen bläst man kalte Luft in den Unterboden und drückt diese in der Mitte einer Rackreihe hoch. Die kalte Luft muss durch die Racks hindurch, um in den Abwärmegang zu gelangen, wo sie abgesaugt und wieder gekühlt wird - Kaltgang - Warmgang ist der Suchbegriff für Google. Entscheidend ist jedenfalls die getrennte Führung von kalter und warmer Luft durch das gesamte Rechenzentrum. Das Paper Keeping Your Data Center Cool: There Is Another Way (PDF) von IBM gibt einen netten Überblick über “Cold Aisle, Warm Isle”, über das Problem des Abluftkurzschlusses und das Problem des Wärmestaus unter der Decke. IBM bewirbt in dem Paper Rear Door Heat Exchangers, also Abluftkühler in Racktüren. Aber selbst wenn man deren Produkt nicht will, ist das Papier eine nette Sammlung von typischen Kühlungsproblemen, die man mit ein wenig Aerodynamik und geordneter Luftführung in den auch passiv Griff bekommen kann.

Wenn Ihr das nächste Mal also Google benutzt, oder Yahoo, oder web.de, dann denkt mal an Euren Klimatechniker und was der damit zu tun hat, daß das Internet noch funktioniert.

Share