Energietechnologien, die den Energieverbrauch von Rechenzentren angehen

Green Datacenter gewinnt den Prix Watt d'Or 2013 des Bundesamtes für Energie (Juni 2019).

$config[ads_text] not found
Anonim

Rechenzentren benötigen fortschrittliche Kühlstrategien, Hardwarevirtualisierung und Direktkonvertierungsarchitekturen

VON BOB CANTRELL
Senior Anwendungstechniker
Ericsson Energiemodule
www.ericsson.com/powermodule

Die Energie, die von Rechenzentren auf der ganzen Welt verbraucht wird, hat in den letzten zehn Jahren dramatisch zugenommen und ist von fast nichts auf über 2% der weltweiten Stromversorgung angewachsen. Hinzu kommt die Produktion von ca. 2% der weltweiten Treibhausgasemissionen. Es gibt heute Prognosen, dass sich der Energieverbrauch in Rechenzentren im nächsten Jahrzehnt verdreifachen und sogar den Stromverbrauch von ganzen Ländern mit mäßig großen Volkswirtschaften übertreffen wird.
Kühlprobleme
Ein wichtiger Bereich, der zum Energieverbrauch beiträgt, ist die Bereitstellung der erforderlichen Kühlung für Anlagen, die massive Klimaanlagen und -systeme verwenden. Es gibt ein paar laufende Ansätze, um den Verbrauch in diesem Bereich zu reduzieren. Die erste, die von vielen großen Rechenzentrumsanbietern verfolgt wird, ist die Anhebung der maximalen Umgebungstemperatur geringfügig über die üblicherweise akzeptierten Grenzwerte für den Betrieb von Servern und anderen Geräten hinaus, aber nicht ausreichend, um signifikante Zuverlässigkeitsprobleme einzuführen. Ein zweiter Ansatz besteht darin, von Klimas mit deutlich niedrigeren Durchschnittstemperaturen zu profitieren und Rechenzentren in kühleren Teilen der Welt zu lokalisieren, beispielsweise in den skandinavischen / nordischen Ländern: Große Unternehmen wie Facebook errichten bereits Einrichtungen in Dänemark und Schweden. Darüber hinaus suchen diese Länder unter anderem zunehmend nach erneuerbaren Energiequellen, einschließlich auf Wasserkraft basierenden Lösungen, um kohlenstoffarme Stromlieferungen zu liefern. Natürlich können diese beiden Ansätze zusammen verwendet werden, um den Energieverbrauch zu reduzieren.
Macht Architektur heute
Der zweite Gesamtbereich des Beitrags zum Energieverbrauch des Rechenzentrums ist offensichtlich der Strom, der für den Betrieb von Servern, Massenspeichersystemen und Datenkommunikations- und Netzwerkgeräten erforderlich ist. In diesem Bereich werden neue und innovative moderne Energietechniken in der Industrie gesucht, um den Energieverbrauch in modernen Rechenzentren zu reduzieren. In der Vergangenheit, zumindest in den 1980er Jahren, war in Telekommunikations- und Datenkommunikationsanwendungen die dezentrale Stromversorgungsarchitektur vorherrschend, in der eine AC-Netzspannung gleichgerichtet wird, um typischerweise 48 Vdc für die Verteilung an Serverschränke über individuelle Onboard- und streng regulierte Of-Load (PoL) -Wandler.
Diese Architektur hat sich jedoch in den letzten zehn Jahren mit der Einführung der Intermediate-Bus-Architektur (IBA) weiter entwickelt, bei der IBCs (Intermediate Bus Converters) vom 48-V-Bus auf ein typisches Spannungsniveau von 12 V herunterkonvertiert werden Die Einrichtung des Zwischenbusses wurde in erster Linie entwickelt, um die Kosten und den Umfang mehrerer isolierter DC / DC-Wandler zu sparen. Jenseits der IBCs befinden sich die integrierten und nicht isolierten PoL-Konverter, die den 12-VDC-Zwischenbus weiter auf die Spannungen reduzieren, die von Board-Level-Komponenten wie Prozessoren, ASICs, FPGAs, Speicher-ICs und anderen Logikgeräten benötigt werden. Spannungen können typischerweise unter 1 V liegen, wie es für die Stromversorgung von Prozessoren oder der FPGA-Kernlogik erforderlich ist.
Der Einsatz von zwei Abwärtskonvertierungsstufen hat den Vorteil, dass ein optimales Gleichgewicht zwischen dem die PoL-Wandler liefernden Zwischenbus und den von den PoLs gelieferten Lastströmen bereitgestellt wird, was zur Maximierung der Leistungswandlungseffizienz auf Systemebene wichtig ist. Der 12-VDC-Spannungspegel wurde gewählt, um eine ausreichend hohe Spannung sicherzustellen, um in Zeiten mit hohem Netzwerkdatenverkehr die gesamte von der Last oder Karte benötigte Leistung zu liefern, zusätzlich zu niedrigeren Verteilungsverlusten. Der Ansatz kann jedoch zu geringen Effizienzen führen, insbesondere bei geringer Verkehrsnachfrage. Ein Überblick über die Architektur des Zwischenbusses ist in Fig. 1 gezeigt .

Abb. 1: Spannungsumsetzungsstufen in typischen Rechenzentren oder Datenkommunikationsanlagen.

Der Gesamtwirkungsgrad dieses gesamten Netzwerks von der Wechselstromleitung beträgt jedoch ungefähr 85%, was bedeutet, dass bis zu 15% der Leistung des Systems als Wärme von den verschiedenen Leistungsvorrichtungen abgeführt werden. Diese Wärme muss entfernt werden, um eine hohe Systemzuverlässigkeit zu ermöglichen, oder zumindest innerhalb klar definierter akzeptabler Grenzen.
Trends
In der Branche gibt es eine Reihe von Trends, die darauf abzielen, die Effizienz zu maximieren, den Stromverbrauch zu senken und die Kosten zu minimieren. Es gibt den Schritt hin zu fortschrittlichen Software-basierten Architekturen, wie Software-defined Networking (SDN) und Netzwerkfunktionsvirtualisierung (NFV); die zunehmende Nutzung von digitaler Energie und deren Erweiterung ist das Entstehen der softwaredefinierten Energiearchitektur; und das Wiederauftreten der Direktumwandlungs-Technologie, die seit etwa 35 Jahren existiert, um die traditionelle 48-VDC-Leitung direkt auf die Spannungen auf Leiterplattenebene herunter zu konvertieren, die von Prozessoren und anderen Logik-ICs benötigt werden.
Die erste davon adressiert: Bei SDN geht es im Wesentlichen darum, die Steuerungsebene von der Datenebene zu trennen - oder die Software von der Hardware. Anwendungssoftware muss nicht unbedingt auf bestimmter Netzwerkhardware ausgeführt werden, sondern möglicherweise auf Servern in einem Datencenter. Darüber hinaus bietet NFV signifikante Skaleneffekte und Standardisierung: Mehrere Funktionen oder Anwendungen können auf "virtuellen Maschinen" basierend auf handelsüblicher Hardware konsolidiert werden. Die Virtualisierung kann zwar einen Beitrag zur Senkung des Energieverbrauchs leisten, aber auch die Kontrolle der Software auf Vorstandsebene ist entscheidend.
Digitale Macht
Das zweite Element ist digitale Energie. Herkömmliche analoge Schaltleistungswandler erreichen im Allgemeinen eine Spitzeneffizienz gerade unterhalb der maximalen Last. Während der Wirkungsgrad bei maximaler Belastung nur geringfügig reduziert wird, ist er beispielsweise bei halber Last oder bei geringer Nachfrage deutlich geringer. Der Grund dafür liegt vor allem in der Verwendung von Festwertkondensatoren, die für eine stabile Versorgung über einen weiten Bereich von Betriebsbedingungen sorgen. Der Nachteil ist ein Mangel an Flexibilität und die Unfähigkeit, eine hohe oder gleichmäßige Effizienz über den möglichen Bereich von Lasten zu liefern. Die Möglichkeiten der digitalen Stromversorgung können diese Einschränkung jedoch überwinden. Der digitale Regelkreis kann einfach und schnell über digitale Überwachung und Steuerung verändert und optimiert werden. Außerdem erfordert die Verwendung von digitalen Stromwandlern weniger externe Komponenten, wodurch die Zuverlässigkeit verbessert und Platinenplatz gespart wird.
Diejenigen, die schon früh Digital Power eingeführt haben, einschließlich derjenigen, die Rechenzentrumseinrichtungen einrichten, haben die vielen Vorteile ihrer erhöhten Flexibilität erkannt. Die Simulationsfunktion der Ericsson Power Designer Software kann beispielsweise schnell die optimierte Anzahl von Kondensatoren bestimmen, die auf jeder Schiene verwendet werden, um Stabilität über einen großen Bereich von Transienten hinweg zu gewährleisten. Dies spart Zeit und kann die Markteinführungszeit erheblich verlängern . Die Tools sind auch verfügbar, um die Verfolgung und Sequenzierung von Stromschienen anzuwenden, die mehrere Lasten für ein bestimmtes Stück Silizium aufweisen. Darüber hinaus können die Ausgangsspannungen im laufenden Betrieb geändert werden sowie die Überwachung von Spannungen, Strömen und Temperaturen.
In Systemen auf Digital-Power-Basis erfolgt die Kommunikation zwischen IBCs und PoL-Konvertern über den PMBus, einen aus dem SMBus entwickelten Industriestandard, der die physikalische Verbindung und das Datenaustauschprotokoll zwischen einer zentralen Steuerung und Powermodulen definiert.
Softwaredefinierte Leistung
Eine weitere Erweiterung des Trends der digitalen Leistung ist ein wichtiger nächster Evolutionsschritt, nämlich die Software-Defined-Power-Architektur (SPDA). Dies führt zu einer Echtzeitanpassung an digitale Netzteile und hat das Potenzial, wirklich energieeffiziente und leistungsoptimierte Funktionen auf Platinenebene in fortschrittliche Netzwerkanwendungen zu integrieren. In der SPDA können fortgeschrittene Prozessoren die Software-Befehlssteuerung verwenden, um Ausgangsspannungen anzupassen, um die Prozessorleistung zu erhöhen, oder niedrigere Spannungen in Zeiten geringer Lastanforderungen.
Die SPDA ist im Wesentlichen ein Schema, das viele fortgeschrittene Techniken implementiert, einschließlich Konzepte wie die dynamische Busspannung (DBV) und die adaptive Spannungsskalierung (AVS) sowie andere, einschließlich einer fragmentierten Leistungsverteilung oder Phasenverteilung. Als eine Weiterentwicklung des IBA passt der DBV dynamisch die Zwischenbusspannung des IBC als eine Funktion des Laststroms an, um eine höhere Leistungsumwandlungseffizienz zu liefern. AVS ist eine Technik zur Optimierung der Versorgungsspannungen und zur Minimierung des Energieverbrauchs in modernen Hochleistungs-Mikroprozessoren. Es verwendet einen Closed-Loop-Ansatz in Echtzeit, um die Ausgangsspannung anzupassen, um die Leistung einzelner Prozessoren zu optimieren.
Direkte Umwandlung
Der dritte Trend ist die direkte Umwandlung, die vielen Betreibern von Rechenzentren erhebliche Vorteile bieten dürfte. Das Prinzip besteht darin, die Verwendung von IBCs und PoL-Konvertern zu umgehen und ein neues, hocheffizientes Leistungsmodul einzusetzen, das die typischerweise in Datenkommunikationsanwendungen verwendete 48-V-Busspannung direkt auf die PoL-Bordspannung umwandelt, die unter 1 liegen kann V, aber in einer einzigen Leistungsstufe (siehe Abb. 2 ).

Abb. 2: Konventioneller zweistufiger IBC + POL-Konverter gegenüber einer Direktkonversionslösung.

Die neuesten IBCs bieten typischerweise Wirkungsgrade von 95-96%; und PoL-Konverter können typischerweise mehr als 90% bieten. Ein kombinierter Energieverlust kann jedoch den Gesamtwirkungsgrad auf ungefähr 86, 4% reduzieren, während ein einzelner Wandler bei derselben gegebenen Last einen Wirkungsgrad von 89% oder mehr liefern kann.
Wie bereits erwähnt, ist das Direct-Conversion-Konzept nicht neu, aber die Verringerung der Größe und die wettbewerbsfähige Preisgestaltung von Direct-Conversion-DC / DC-Modulen bringt die Architektur wieder in den Vordergrund. Der wichtigste Grund für diese Änderung des Ansatzes ist die Vereinfachung der Stromverteilung aufgrund des steigenden Leistungsbedarfs moderner Rechenzentren und die erforderliche Verringerung der I 2 R-Verteilungsverluste. Die Verteilung von 12 V bei hohem Strom zu einigen der führenden Serverschränke, die heutzutage in Rechenzentren verwendet werden, ist unerschwinglich und nicht praktikabel. Direct-Conversion-Architekturen können jedoch eine Leistung von 48 V anstelle von 12 V verteilen. Der Bus, der den Wandler versorgt, trägt nur 25% des Stroms, der erforderlich wäre, um das gleiche Leistungsniveau bei 12 V zu liefern, was auch eine Reduzierung von die Menge an Kupferschienen und -kabeln.
Fazit
Der Energieverbrauch ist ein wichtiges Thema für Rechenzentrumsbetreiber. Neue und fortschrittliche Leistungsarchitekturen und -techniken werden benötigt, um die Systemeffizienz zu erhöhen und Kosten sowie Kohlenstoffemissionen zu reduzieren. Neben der Implementierung fortschrittlicher Kühlstrategien für die Wärmeableitung werden wichtige Technologien die Hardwarevirtualisierung, die digitale Stromversorgung und die SDPA-Erweiterung sowie in vielen möglichen Anwendungen den Einsatz von Direct-Conversion-Architekturen umfassen.