HammerHAI ist ein KI-optimierter Supercomputer, der im Höchstleistungsrechenzentrum Stuttgart in Verbindung mit der AI Factory HammerHAI betrieben werden soll. Sein Inbetriebnahme ist für die zweite Hälfte des Jahres 2026 geplant. Mit bis zu 15 Exaflops KI-Inferenzleistung bietet das System eine leistungsstarke Plattform für mittelgroße bis große Workloads in den Bereichen künstliche Intelligenz, maschinelles Lernen und Datenverarbeitung. Es wird einen Cloud-nativen Software-Stack enthalten, der der KI-Community vertraut ist, sodass Anwendungen von lokalen Systemen oder kommerziellen Cloud-Umgebungen einfach migriert oder skaliert werden können. Mit Sitz in Deutschland bietet es gleichzeitig eine souveräne europäische Alternative zu kommerziellen KI-Dienstleistern, die gemäß den EU-Datenschutzbestimmungen betrieben wird. Nach seiner Installation wird HammerHAI in die Zertifizierung des HLRS nach der Norm ISO 27001 für Informationssicherheits-Managementsysteme einbezogen.
Das HammerHAI-System wurde entwickelt, um der europäischen Industrie, kleinen und mittleren Unternehmen, Start-ups und der wissenschaftlichen Forschung, insbesondere in den Bereichen Ingenieurwesen, Fertigung, Automobilindustrie und Mobilität, leistungsstarke KI-Fähigkeitenzur Verfügung zu stellen. HammerHAI ist der erste eigenständige, KI-optimierte Supercomputer in Europa, der von der EuroHPC Joint Undertaking im Rahmen der AI Factory Initiative beschafft wird.
Weitere Informationen zur HammerHAI AI Factory finden Sie unter https://www.hammerhai.eu.
HPE
| 215 NVIDIA GB200 NVL-4 Knoten (860 GPUs) | Jeder Knoten beinhaltet: - 2 NVIDIA Grace CPU (72 cores) - 4 NVIDIA B200 Blackwell GPUs - 744 GB HBM3e Speicher mit hoher Bandbreite - 940 GB LPDDR5X Speicher mit niedrigem Energieverbrauch - 30 TB NVMe lokaler Speicher |
| Axelera AI Knoten (9 AIPUs) | Jeder Knoten beinhaltet eine Axelera AI Processiong Unit Axelera AI processing unit (AIPU) (Lieferung erwartet in 2027) |
| Benutzerdefinierte Knoten | 13 NVIDIA L4 Tensor Core CPUs (24 GB Speicher) 5 NVIDIA RTX A1000 große Speicherknoten (4 TB Speicher) |
10 PB VAST Data DASE
NVIDIA Quantum-X800 InfiniBand (800 Gbit/s)
NVIDIA Spectrum X (800 Gigabit Ethernet)
15 Exaflops KI-Inferenzleistung
Betriebssystem: Ubuntu 24.04
HPE Morpheus Enterprise Cloud-Management-Platform
SLURM für eine Isolierung auf Knotenebene und Trainingjobs im großen Maßstab.
Kubernetes für dynamische Workloads
HammerHAI wird von der European High Performance Computing Joint Undertaking im Rahmen der Fördervereinbarung Nr. 101234027 gefördert. Das Projekt wird von der Europäischen Kommission, dem Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR), dem Ministerium für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg, dem Bayerischen Staatsministerium für Wissenschaft und Kunst und dem Niedersächsischen Ministerium für Wissenschaft und Kultur kofinanziert.