Das Projekt AuralReality hat zum Ziel, die Art und Weise, wie immersives Spatial Audio für standortbasierte Unterhaltungsformate (Freizeitparks, immersive Ausstellungen, Escape Rooms und Eventlocations) entwickelt, implementiert und erlebt wird, zu transformieren. Es ist eine direkte Antwort auf die wachsende Marktnachfrage nach interaktiven, zugänglichen und technisch flexibleren Audio-Umgebungen und adressiert kritische Probleme bestehender Lösungen. Dazu gehören das Fehlen von echtzeitfähigen räumlichen Simulations-Tools (Digital Twin), die begrenzte Unterstützung für Multi-Zonen-Lautsprecherwiedergabe, mangelhafte Workflows für Authoring und Deployment sowie starre Lizenzierungsmodelle.
Im Zentrum von AuralReality steht die Entwicklung einer modularen, latenzarmen Softwareplattform, die drei bislang voneinander getrennte Bereiche der immersiven Audioproduktion vereint:
- Ein Authoring-Tool für das Spatial Sound Design über mehrere Zonen hinweg, inklusive Timeline-Automatisierung, OSC/DMX-Steuerung und dynamischem Routing,
- eine Runtime-Engine für objektbasiertes Rendering auf beliebigen Lautsprecher-Layouts, und
- ein akustischer Digital Twin in Echtzeit, der auf realen Messdaten basiert und prädiktive Simulationen sowie Offline-Authoring ermöglicht.
Diese Toolkette befähigt Sounddesigner/innen, Integrator/innen und Betreiber/innen dazu, interaktive Spatial-Audio-Erlebnisse effizient zu erstellen, zu testen und in komplexen realen Umgebungen bereitzustellen. Das Authoring-System ermöglicht es, räumliche Klangwelten remote und virtuell in einem digitalen Zwilling des Zielortes zu gestalten – inklusive vollständiger Auralisation, Signalverteilung und Visualisierung des Lautsprecher-Setups. Dies reduziert kostenintensive Vor-Ort-Iterationen und unterstützt eine parallele Entwicklung mit anderen Gewerken (z. B. Showsteuerung, Licht oder Video).