Höchstleistungsrechenzentrum Stuttgart

Future-Computing-Gruppe wird neue Technologien evaluieren

Gruppenfoto von sieben Mitgliedern der Future Computing Group in einem Flur des HLRS.
Unter der Leitung von Johannes Gebert (zweiter von links) vereint die Future Computing Group ein Dutzend Spezialisten für HPC-Hardware und -Software aus verschiedenen Abteilungen des HLRS.

Ein neues Team des HLRS untersucht mittels Kooperationen das Potenzial von Quantencomputern, neuromorphen und weiteren neuartigen Rechnerarchitekturen zur Beschleunigung der Arbeitsabläufe seiner Nutzer:innen.

Fortschritte im Hardware-Design in den vergangenen Jahrzehnten haben unglaubliche Geschwindigkeits- und Effizienzsteigerungen bei den führenden Supercomputern ermöglicht, dank derer im Jahr 2022 Exascale-Level erreicht wurde. Historisch gesehen folgte diese Entwicklung dem Moore'schen Gesetz. Dieses sagte in den 1970er Jahren voraus, dass sich die Anzahl der Transistoren auf einem Mikrochip etwa alle zwei Jahre verdoppeln würde, was zu einer stetigen Steigerung der Rechenleistung und Effizienz führen würde. Die aktuellen Fortschritte wurden mit Grafikprozessoren (GPUs) als Beschleunigern erzielt, die in den meisten der schnellsten Supercomputer der aktuellen Top500-Liste zu finden sind.

In den kommenden Jahren rechnen Experten jedoch damit, dass die stetigen Leistungssteigerungen nach dem Moore'schen Gesetz stagnieren werden. Die Herstellung von Mikrochips kann mittlerweile in einer erstaunlichen Größe von nur 2 Nanometern erfolgen, was bedeutet, dass die Miniaturisierung sich ihren physikalischen Grenzen nähert. Und obwohl es möglich wäre, schnellere GPUs zu bauen, wäre dies nur bei höheren Preisen wirtschaftlich rentabel. Demzufolge würden Höchstleistungsrechner (HPC) zunehmend unerschwinglich. 

Infolgedessen treibt die HPC-Community ihre Innovationen weiter voran. Parallel zum Einzug der GPUs haben große und kleine Hardware-Unternehmen vielversprechende neue Paradigmen entwickelt, die sich entweder grundlegend von denen traditioneller CPU-basierter und GPU-beschleunigter Systeme unterscheiden oder auf etablierten Architekturen aufbauen und diese innovativ weiterentwickeln. Obwohl viele dieser Ansätze noch nicht ausgereift sind, bergen sie das Potenzial, zumindest bestimmte Rechenherausforderungen schneller und mit deutlich weniger Energieaufwand zu lösen als selbst die besten Supercomputer von heute. 

Mit Blick auf die Zukunft müssen HPC-Zentren wie das Höchstleistungsrechenzentrum Stuttgart (HLRS) entscheiden, welche dieser neuen Technologien wann eingeführt werden sollen. Denn die Investition in eine neue Technologie ist nicht nur eine finanzielle Entscheidung, sondern kann ein Zentrum auf einen bestimmten technologischen Kurs festlegen, der seine Relevanz im Zuge der weiteren Entwicklung des HPC bestimmt.

Kürzlich hat das HLRS die „Future-Computing-Gruppe“ ins Leben gerufen, um das Potenzial neuer Technologien für Höchstleistungsrechner zu untersuchen und zu prüfen, welche davon den wissenschaftlichen und industriellen Anwender:innen des HLRS gerecht werden. In enger Zusammenarbeit mit Technologieunternehmen wird die Gruppe HPC-Fachwissen bereitstellen, um die industrielle Forschung im Bereich der Computerhardware der nächsten Generation zu unterstützen. 

Dr. Johannes Gebert, Leiter der Future-Computing-Gruppe, erklärt: „Wir sind offen für die Zusammenarbeit mit Unternehmen und die Bewertung ihrer Computerparadigmen. Wir müssen verstehen, ob die Hardware die Herausforderungen unserer Anwender lösen kann. Dazu müssen wir viele Fragen beantworten. Ist die neue Hardware für bestimmte Algorithmen und Softwarepakete relevant? Überwiegen die Vorteile im Vergleich zu etablierteren Technologien und Unternehmen?“ Da Computerarchitekturen zunehmend heterogen werden, bewertet die Future-Computing-Gruppe, welche Technologiekombination den Anforderungen des HLRS am besten entspricht.

Im Wettlauf um optimierte HPC-Technologien mithalten

Das HLRS plant, seinen nächsten Supercomputer, Herder, im Jahr 2027 zu installieren. Wie andere hochmoderne Supercomputer wird auch Herder GPU-Beschleuniger einsetzen. Was nach Herder kommt, ist jedoch noch offen. Es wird in vielerlei Hinsicht davon abhängen, wie sich die Hardware für Höchstleistungsrechner und die Anforderungen der Nutzer:innen in den kommenden Jahren entwickeln.

In der Supercomputing-Community wird Quantencomputing als eine mögliche Ergänzung des Portfolios betrachtet. Bereits heute sind bescheidene Quantensysteme in Betrieb. Im Zuge der weiteren Forschung ist damit zu rechnen, dass sich mehr als eine einzige Architektur zuverlässig, vielseitig und in der täglichen Praxis einfach verwenden lässt. Eine weitere aufkommende Technologie ist das neuromorphe Computing, dessen Architektur vom menschlichen Gehirn inspiriert ist. Dieser Ansatz verspricht Berechnungen mit ähnlichen Geschwindigkeiten wie die schnellsten heutigen Systeme bei einem Bruchteil des Energieverbrauchs. Die praktische Umsetzung des neuroinspirierten Computing in HPC-Umgebungen ist jedoch noch Zukunftsmusik. In der Zwischenzeit werden weitere interessante Technologien mit dem Ziel entwickelt, Leistungs- und Effizienzsteigerungen mit traditionelleren Architekturen zu erzielen.

In den kommenden Jahren wird die Future-Computing-Gruppe des HLRS die Reife solcher Architekturen bewerten, die Leistung von Algorithmen auf diesen Technologien untersuchen und Software entwickeln. Daraus resultierende wissenschaftliche Veröffentlichungen der Gruppe sollen wissenschaftliche und industrielle Kreise dabei unterstützen, von der Hardware der Zukunft zu profitieren.

Kooperation untersucht neues Mikrochip-Konzept für HPC

Im November 2025 begann die Future Computing Group die erste von mehreren geplanten Partnerschaften zur Technologiebewertung. Das HLRS arbeitet nun mit Openchip zusammen, einem internationalen Unternehmen mit Sitz in Barcelona, das Hochleistungs-Beschleunigerchips, Plattformen und Software-Stacks für fortschrittliche Rechenanwendungen auf Basis des globalen RISC-V-Architekturstandards entwickelt. Mit einem Ansatz zur Beschleunigung, der die Vektorverarbeitung neuartig nutzt, versprechen die System-on-a-Chip-Lösungen von Openchip eine „in Europa entwickelte” für Höchstleistungsrechner optimierte Technologie, die nachhaltiger und effizienter ist, ohne dass Codes komplex auf GPUs portiert werden müssen. Openchip ist ein Projekt von gemeinsamem europäischem Interesse (IPCEI) und hat sich zum Ziel gesetzt, die digitale Souveränität Europas insgesamt voranzutreiben.

Dr. Kateryna Bondar (dritte von links) und Mitglieder des Openchip-Teams arbeiten mit dem HLRS zusammen, um die Kompatibilität ihrer RISC-V-Chiparchitektur in typischen groß angelegten HPC-Workflows zu bewerten. Foto: Openchip

„Selbst die beste Technologie ist nutzlos, wenn niemand sie kaufen oder verwenden möchte. Daher ist es entscheidend, dass unser Produkt wettbewerbsfähig ist und die Bedürfnisse der Nutzer:innen wirklich erfüllt“, sagt Ivan Rodero, Chief Innovation Officer bei Openchip. „Wir arbeiten mit dem HLRS und anderen Zentren zusammen, um besser zu verstehen, welche Anforderungen HPC-Einrichtungen an die Hardware stellen. Durch die Untersuchung eines breiten Spektrums von Anwendungen wollen wir deren Anforderungen klären und sicherstellen, dass Anwendungen auf RISC-V effizient laufen können. Die Future-Computing-Gruppe des HLRS erleichtert diese Zusammenarbeit erheblich und lässt uns echte Innovationen vorantreiben – etwas, das nicht immer einfach ist.“

Die Zusammenarbeit mit Openchip ist nur ein erster Schritt für die Future-Computing-Gruppe. Gebert geht davon aus, dass in den kommenden Monaten mehrere weitere Kooperationen mit Technologie-Startups starten werden.

Bevorstehende Workshops zu künftigen Computertechnologien

Die Future-Computing-Gruppe hat sich zum Ziel gesetzt, die Community rund um neue HPC-Technologien mithilfe von Wissenstransfer zu unterstützen. Im Januar 2026 organisiert sie eine „Birds of a Feather”-Sitzung auf der SCAsia, dem größten Treffen der asiatischen High-Performance-Computing-Community. Am 16. und 17. März 2026 wird das HLRS außerdem den Future Computing Workshop in Stuttgart veranstalten, bei dem Hardware-Anbieter, Entwickler:innen von Forschungssoftware und domänenspezifische Forschende den aktuellen Stand der Höchstleistungsrechnerarchitekturen und das Potenzial neuer Computing-Paradigmen diskutieren.

Laut Gebert spielt das HLRS eine wichtige Rolle bei der Überbrückung der Kluft zwischen Technologieunternehmen und den Wissenschaftler:innen, deren Forschung von ihren Produkten der nächsten Generation profitieren wird: „Das HLRS verfügt über viel Erfahrung in der Unterstützung der computergestützten Forschung. Wir wissen, dass Forschende klare Vorstellungen davon haben, welche Herausforderungen sie mit Zugang zu viel schnelleren HPC-Systemen lösen könnten. Ziel der Future-Computing-Gruppe ist es, die Infrastruktur zu identifizieren, die die Entwicklung von Algorithmen, Software und heterogenen Computing-Workflows optimal unterstützt, um wissenschaftliches Rechnen voranzutreiben.“

Christopher Williams