
Infineon Technologies entwickelt eine neue Stromversorgungsarchitektur für die KI-Rechenzentren der Zukunft. In Kooperation mit Nvidia entsteht die nächste Generation von Stromversorgungssystemen, die auf einer neuen Architektur mit zentraler Stromerzeugung durch 800-Volt-Hochspannungsgleichstrom (HVDC) basieren. Diese neue Systemarchitektur verbessert die energieeffiziente Stromverteilung im Rechenzentrum erheblich. Sie ermöglicht die Stromumwandlung direkt am Grafikprozessor-Chip (GPU) im Server. Infineons Expertise in der Stromumwandlung vom Netz zum Prozessor basiert auf allen relevanten Halbleitermaterialien Silizium, Siliziumkarbid und Galliumnitrid. Sie beschleunigt die Entwicklungszyklen hin zu einer vollständigen HVDC-Architektur.
Infineon setzt neue Standards für Stromversorgung von KI-Rechenzentren
Mit diesem wegweisenden Schritt wird der Weg für die Einführung fortschrittlicher Stromversorgungsarchitekturen in Hochleistungsrechenzentren für noch schnelleres KI-Computing geebnet. Zudem wird deren Zuverlässigkeit und Effizienz weiter verbessert. Schon heute enthalten KI-Rechenzentren mehr als 100.000 einzelne Grafikprozessoren, was den Bedarf an einer effizienteren Stromversorgung erhöht. Noch vor 2030 werden KI-Rechenzentren eine Stromversorgung von einem Megawatt und mehr pro IT-Rack benötigen. Vor diesem Hintergrund wird die HVDC-Architektur in Kombination mit mehrphasigen Lösungen mit hoher Stromdichte einen neuen Branchenstandard setzen und die Entwicklung hochwertiger Komponenten und Stromverteilungssysteme vorantreiben.
Schnellere, effizientere und skalierbarere KI-Rechenleistung
„Infineon ist ein Innovationstreiber im Bereich künstlicher Intelligenz,“ sagt Adam White, Divisionspräsident Power & Sensor Systems bei Infineon. „Die Kombination aus dem Anwendungs- und System-Know-how von Infineon in der KI-Stromversorgung von ‚Grid to Core‘ und Nvidias weltweit führender Expertise im Bereich Hochleistungs-Computing ebnet den Weg für einen neuen Standard in der Stromversorgungsarchitektur von KI-Rechenzentren. Damit ermöglichen wir eine schnellere, effizientere und skalierbarere KI-Rechenleistung.“
„Die neue 800-V-HVDC-Architektur bietet eine hochzuverlässige und energieeffiziente Stromverteilung im gesamten Rechenzentrum“, sagt Gabriele Gorla, VP System Engineering bei Nvidia. „Durch diesen innovativen Ansatz ist Nvidia in der Lage, den Energieverbrauch unserer fortschrittlichen KI-Infrastruktur zu optimieren, was unser Engagement für Nachhaltigkeit unterstützt und gleichzeitig die Leistung und Skalierbarkeit liefert, die für die nächste Generation von KI-Workloads erforderlich ist.“
Zukünftige Systemarchitektur ist zentralisiert
Aktuell erfolgt die Stromversorgung in Rechenzentren für künstliche Intelligenz dezentral. Im Klartext bedeutet das, dass die KI-Chips über eine Vielzahl von Netzteilen mit Strom versorgt werden. Die zukünftige Systemarchitektur wird zentralisiert sein und den begrenzten Platz in einem Server-Rack bestmöglich nutzen. Damit steigt die Bedeutung moderner Leistungshalbleiterlösungen. Sie kommen mit möglichst wenigen Leistungswandlungsstufen aus und ermöglichen Upgrades auf noch höhere Versorgungsspannungen.
Infineon erwartet höheren Anteil an Leistungshalbleitern
Hinsichtlich des Anteils an Leistungshalbleitern rechnet Infineon in einer zentralisierten HVDC-Architektur mit einem ähnlichen oder höheren Anteil als in der heutigen Gleichstromverteilungsarchitektur. Neben der Skalierung der HGÜ-Stromversorgungsarchitektur unterstützt Infineon auch weiterhin moderne mehrphasige DCDC-Lösungen und Zwischenarchitekturen für Hyperscaler und Betreiber von KI-Rechenzentren mit einem breiten Produktportfolio, das alle relevanten Halbleitermaterialien entlang der Stromversorgungskette umfasst.