Holger Graf leitet die Abteilung Virtual & Augmented Reality am Fraunhofer IGD. Er und sein Team arbeiten unter anderem daran, Augmented Reality (AR) für die Qualitätssicherung in der Fertigung zu nutzen. Seine Vision ist, dass die Technologie irgendwann zum Interface für alle Informationen wird.
Herr Graf, Sie arbeiten daran, AR speziell für die Qualitätssicherung zu nutzen – unter anderem zusammen mit Daimler. Warum braucht der Autobauer die Unterstützung des Fraunhofer IGD?
Daimler kam auf uns zu, weil die Trainingsaufwände für die Prüffälle in der Montage sehr hoch waren. Konkret geht es darum, dass ein Produktaufbau unter ein fest installiertes Kamera-Array geschoben wird. Basierend auf den eintrainierten Daten sucht ein optisches Qualitätssicherungssystem dann nach Fehlern. Also zum Beispiel, ob alle Bauteile vorhanden und in der richtigen Position sind. Das Problem: Die Lernphasen sind zu lang. Wenn man einen kleinen Produktaufbau testen möchte, muss dieser in allen Eventualitäten abfotografiert werden.
Und wie hilft jetzt AR?
Mit AR können wir direkt gegen die CAD-Geometrie prüfen, die ja als Referenzmodell vorliegt. Dadurch fällt der gesamte Lernaufwand weg. Und wenn eine Variantenumstellung in der Produktionslinie stattfindet, können wir schnell umrüsten. Wir müssen nur das CAD-Modell der neuen Variante einschwemmen und dann die Prüffälle aufsetzen. Aber die Lösung bietet noch weitere Möglichkeiten.
Wie sehen die aus?
Auch der Fertigungsprozess selbst lässt sich beschleunigen. Mit traditionellen optischen Verfahren ist es noch so, dass das zu prüfende Objekt unter das Kamera-Array fährt und dort kurz stehen bleibt, um geprüft zu werden. Mithilfe von AR lassen sich Objekte aber auch dynamisch erfassen. Die Linie muss also nicht unbedingt anhalten. Die Produktion könnte theoretisch in einem durchgehenden Fluss laufen – ohne einen Prüfstopp.
Daneben haben Sie auch eine mobile Prüfmöglichkeit entwickelt.
Richtig. Dabei wird das Prüfteil von der Kamera eines Tablets aus unterschiedlichen Perspektiven erfasst und mit dem CAD-Modell abgeglichen. Das ermöglicht eine handgeführte, visuelle Inspektion durch den Nutzer – zum Beispiel außerhalb des Werkes bei einem Zulieferer. In einem nächsten Schritt arbeiten wir daran, auch Tiefeninformationen auf diese Weise zu verarbeiten, um Deformationen am Objekt erkennen zu können.
AR ist gewöhnungsbedürftig. Wie nehmen die Nutzer in den Werken die neue Technologie an?
Die Werker müssen natürlich zunächst geschult werden. Und am Anfang ist die Lernkurve sehr steil. Man muss den Leuten Zeit geben. Aber wenn sie zwei oder drei Mal mit dem System gearbeitet haben, merken die Nutzer schon, dass sich Bauteile schneller zusammenbauen lassen oder sie den Zusammenbau leicht überprüfen können. Dann erledigt sich das Akzeptanzproblem. Aber das ist ja kein unbekanntes Phänomen. Immer wenn der Mensch mit einem neuen Interface konfrontiert ist – zum Beispiel bei neuen Funktionalitäten in einem Windows-System –, ist es zunächst schwierig für ihn, dieses zu nutzen. Bis er dann merkt, dass er damit besser arbeiten kann.
Wie sind eigentlich Ihre persönlichen Erfahrungen mit AR?
Ich bin ein Gadget-Nerd. Ich finde die Technologie und die Lösungen, die mein Team daraus entwickelt, super cool. Aber es gibt dabei auch immer Herausforderungen, die mir den Schweiß auf die Stirn treiben.
Was meinen Sie damit?
Die Technologie ist schon sehr weit, wir haben sehr viel erreicht in den letzten Jahren. Aber aus den Ideen müssen auch produktive Lösungen entstehen. Und die Anforderungen in so einer Produktionsumgebung - wie etwa bei einem Autobauer - sind sehr herausfordernd.
Sie meinen die Überführung einer Technologie wie AR, die eher aus dem Unterhaltungsbereich bekannt ist, in die Fertigungswelt?
Ja. Es ist aber ein gegenseitiges Befruchten. Oft wird vergessen, dass z.B. eine Technologie wie VR zuerst in der Industrie eingesetzt wurde. Dann hat der Konsumentenmarkt sie übernommen und weiter vorangetrieben. Wir haben dann wiederum viele Impulse von den Gamern aufgenommen und für unsere Zwecke genutzt. Und die Entwicklung geht weiter. Das gilt gleichermaßen für AR.
Inwiefern?
Ich spreche von den neuen Endgeräten, die jetzt auf den Markt kommen – zum Beispiel das iPad Pro oder das iPhone 12. Diese besitzen mittlerweile kleine Lidar-Systeme. Damit kann das mobile Endgerät seine gesamte Umgebung erfassen. Und das wirft für uns automatisch die Frage auf: Was lässt sich mit den Punktwolken machen? Welche Anwendungen können wir daraus für die Produktionsumgebung entwickeln?
Wie wird es Ihrer Meinung nach mit AR weitergehen?
Unsere Vision ist, dass AR das natürliche Interface zum digitalen Informationsraum wird. Es wird zum natürlichen Bestandteil von Ausgabeeinheiten, die eine Fusion von realer und digitaler Welt ermöglichen. Ein Nutzer macht dann alles über AR. Er zieht sich eine Brille auf und alles wird für ihn in 3D dargestellt, lagerichtig verortet und verfolgt, auch dynamisch sich verändernde Objekte. Aber davon sind wir noch weit entfernt.