Flexiblere Robotik durch Künstliche Intelligenz: ein Interview mit Marco Huber

Keyvisual image main
Prof. Marco Huber. Foto: Fraunhofer IPA.

Forschung, die Simulation und KI kombiniert, könnte die Entwicklung von maßgeschneiderten automatisierten Fertigungssystemen beschleunigen.

Weil sich Anwendungen, die auf Maschinellem Lernen oder Künstlicher Intelligenz basieren, immer mehr verbreiten, können neue Arten von Produktionssystemen entstehen. Als Professor für Kognitive Produktionssysteme in der Maschinenbaufakultät der Universität Stuttgart und Leiter des Zentrums für Cyber Cognitive Intelligence am Fraunhofer IPA in Stuttgart untersucht Prof. Marco Huber innovative Ansätze mit Maschinellem Lernen, die diese Systeme flexibler machen können.

Hubers Doppelrolle bietet optimale Bedingungen für einen produktiven Austausch zwischen Forschung und Industrie. Als Professor an der Uni erforscht er hochaktuelle Themen nicht nur aus einer rein theoretischen Perspektive, sondern auch hinsichtlich praktischer Anforderungen aus dem Produktionsumfeld. Am Fraunhofer IPA unterstützt er Unternehmen bei der Nutzung neuester Methoden der Künstlichen Intelligenz in der Produktion. „Da geht es weniger darum, neue Methoden zu entwickeln“, erklärt Huber, „sondern eher darum, die schon in der Grundlagenforschung existierenden Methoden aufzugreifen und in die Anwendungen einzubringen, um die Problemstellungen, die ein Unternehmen hat, angehen zu können."

In November 2020 unterzeichneten das Fraunhofer IPA und das HLRS einen Kooperationsvertrag, wodurch Huber und seinen KollegInnen Zugriff auf die Rechenressourcen für Höchstleistungsrechnen (High-Performance Computing/HPC) und Simulation des HLRS bekommen. Beide Organisationen werden auch Themen erforschen, an denen sie gleichermaßen Interesse haben: Quantencomputing und Künstliche Intelligenz. In diesem Interview erläutert Prof. Huber, wie diese Partnerschaft zustande kam und wie die Rechenressourcen des HLRS die Fähigkeiten des Fraunhofer IPA ergänzen.

Professor Huber, welche neuen Möglichkeiten bietet die Künstliche Intelligenz für die Robotik?

In der Industrie programmieren heutzutage noch immer primär Experten Roboter. Davon wollen wir wegkommen. Das soll kein Prozess sein, den nur Experten vornehmen können, sondern jeder sollte in der Lage sein, einen Roboter zu programmieren.

Anstatt den Roboter explizit zu programmieren, formulieren wir die Aufgabe, die es zu lösen gilt — zum Beispiel: ein Objekt aus einer Kiste zu greifen. In einer Simulation lernt der Roboter eigenständig, wie er das am besten tut. Am Anfang macht er die Aufgabe relativ schlecht, aber da es ja nur simuliert ist, ist das in Ordnung. Er kann ja nichts kaputtmachen. Mithilfe eines Paradigmas aus dem maschinellen Lernen namens "Reinforcement Learning" wird er immer besser, bis wir sagen können, das ist für die Anwendung jetzt ausreichend. Sobald wir an diesem Punkt angelangt sind, haben wir automatisch ein Roboterprogramm, das wir in der Produktion verwenden können. Das heißt, der Roboter programmiert sich selbst.

Picture of robot, grasping items in a box

Mithilfe von Simulationen lernen Roboter, ihre Fähigkeiten wie beispielsweise Greiftechniken zu verbessern. Bild: Fraunhofer IPA.

Der Vorteil beim Einsetzen von Simulationen für die Robotik ist, dass man eigentlich keinen physikalischen Roboter braucht. Heute ist es so, dass der Roboter für den gesamten Zeitraum, währenddessen er programmiert wird, für die Produktion nicht zur Verfügung steht. Dabei handelt es sich nicht nur um Stunden, denn es dauert eine gewisse Zeit, bis alles sicher funktioniert. Solche Unterbrechungen in der Produktion können wir vermeiden, weil alles in der Simulation passiert.

In der Zeit, in der eine Produktionsmaschine ein Produkt fertigt, soll sie in der Simulation unter Nutzung unseres Ansatzes gleichzeitig lernen, wie sie das nächste Produkt zu fertigen hat. Das ist unsere Vision, die uns antreibt. Wir werden sie nicht heute oder morgen in der Realität umsetzen, aber wir denken, dass wir in den nächsten Jahren so weit sein werden.

Welche Vorteile könnte dieser Ansatz für die Industrie bieten?

Die Vision, die wir verfolgen, ist, den Produktionswandel sicher hin zu einer sogenannten Losgröße-1-Produktion zu begleiten. Idealerweise will man von einer Massenfertigung wegkommen, und im Stuttgarter Raum gibt es das Konzept der sogenannten "Mass Personalization". Unternehmen möchten hochwertige, individualisierte Produkte fertigen, dies aber trotzdem zu einem günstigen Preis. Um das zu ermöglichen, muss die Produktionsmaschine in der Lage sein, sich auf jedes neue Produkt einzustellen.

Ein Beispiel ist die Herstellung von Schaltschränken, die heutzutage kundenindividuell gebaut werden. Mittlerweile ist fast schon jeder Schaltschrank ein Unikat, das Menschen herstellen. Hier gibt es beispielsweise sogenannte Hutschienen, auf die Komponenten gesteckt und dann entsprechend verkabelt werden müssen. Weil das ein sehr schwieriger und kostspieliger Prozess ist, möchten wir erreichen, dass ein Roboter durch die Simulation lernt, angepasste Schaltschränke effizient herzustellen.

Warum ist das Höchstleistungsrechnen bei solchen Ansätzen erforderlich?

Reinforcement Learning und andere Arten von Maschinellem Lernen leben von Daten, die oftmals jedoch nicht in der Art und Menge zur Verfügung stehen, wie es nötig wäre. Deswegen gehen wir den Weg, einen Großteil der Daten in einer hochgenauen Simulation für das Training der Algorithmen bereit zu stellen. Somit ist nur noch eine geringe Anzahl realer Daten erforderlich, um ein Feintuning der Algorithmen zu ermöglichen. Am Fraunhofer IPA machen wir das schon im kleinen Stil aber wir haben nicht die benötigte Rechenkapazität, um aufwendige Simulationen durchzuführen.

Für einen einzelnen Roboter können wir das noch problemlos vornehmen, aber sobald man in größeren Skalen denkt — also mehrere Roboter oder verkettete Produktionsprozesse — würden wir das mit unseren Rechenkapazitäten nicht hinbekommen. Deswegen ist der Zugriff auf den Supercomputer des HLRS der Eckpfeiler unserer Kooperation. Die Zusammenarbeit bietet uns neue Möglichkeiten, komplexe Systeme zu simulieren, während der Simulation zu lernen und die Programme in die Industrie zu übertragen, und das im großen Stil.

Gibt es andere potenzielle Anwendungen von HPC im maschinellen Lernen?

Ein anderes Thema der Kollaboration adressiert die Verifikation von neuronalen Netzen. Wenn man neuronale Netze in sicherheitskritischen Anwendungen einsetzen will, dann ist das heute immer ein Problem, weil man nie garantieren kann, ob das Netzwerk das tut, was es tun soll. Hier kommt die Verifikation ins Spiel. Man formuliert Anforderungen, die das Netzwerk erfüllen soll, und prüft anschließend mathematisch, ob dies auch tatsächlich gewährleistet ist. Gemeinsam mit einem Unternehmen haben wir einen solchen Anwendungsfall untersucht, und in einem Testlauf haben wir bewiesen, dass es prinzipiell möglich ist.

Nichtsdestotrotz ist diese Verifikationsaufgabe unglaublich rechenaufwendig. Wir können diese Aufgabe mit unserer Rechenkapazität am Fraunhofer IPA nicht in erträglicher Zeit lösen. Wir haben uns mit dem HLRS und mit diesem Unternehmen darauf verständigt, im ersten Quartal des Jahres 2021 gemeinsam ein Demonstrator-Projekt durchzuführen. Das HLRS stellt uns die entsprechenden Rechenressourcen zur Verfügung und wir werden diese Verifikationsaufgabe angehen.

Generell steht uns für das Thema Künstliche Intelligenz hier am Fraunhofer IPA ein GPU-Cluster zur Verfügung, mit dem wir aktuell bereits neuronale Netze trainieren. Da mittlerweile viele meiner KollegInnen aus ganz unterschiedlichen Bereichen dieses Cluster nutzen, werden die Anforderungen immer größer und es entstehen vermehrt Engpässe. Auch hier ist die Idee, die Ressourcen des HLRS umfassend nutzen zu können.

Der Kooperationsvertrag geht auch um Themen aus dem Quantencomputing. Was sind Ihre Pläne in dem Bereich?

Das Fraunhofer IPA hat gemeinsam mit dem HLRS und weiteren Partnern erfolgreich einen Projektantrag namens SEQUOIA (Software-Engineering industrieller, hybrider Quantenanwendungen und -algorithmen) gestellt, der unter anderem zum Ziel hat, die zukünftigen Anwendungsmöglichkeiten des Quantencomputing zu erforschen. Diese Art von Rechnen ist immer noch neu, und deswegen gibt es wichtige Fragen: Welche praxisrelevanten Probleme lassen sich mit Quantencomputing schneller lösen, als dies ein klassischer Rechner kann? Und welche Problemstellungen werden von der sogenannten "Quantum Supremacy" nicht profitieren?

In diesem Projekt erhalten wir Zugriff auf den Quantencomputer, den IBM der Fraunhofer-Gesellschaft in 2021 zur Verfügung stellt. Dieser bietet zwar nur vergleichsweise wenige Qubits — man wird also keine Reale-Welt-Probleme darauf lösen können — aber er erlaubt uns, Erfahrungen zu sammeln und kleine Fallbeispiele zu untersuchen, um besser zu verstehen, was möglich ist.

Momentan ist Quantencomputing — wie auch die Roboter-Programmierung — noch ein Expertengeschäft. Es gibt nur ganz wenige Experten auf der Welt, die einen Quantencomputer programmieren können. Deswegen ist unsere Idee auch, die Softwareentwicklung für solche Quantencomputer deutlich zu vereinfachen. Dadurch hoffen wir, dass Quantencomputing für Wissenschaftler und die Industrie einfacher zugänglich wird.

— Interview: Christopher Williams