Selbst in ansonsten modern gestalteten Produktionshallen ist es bis heute oft noch üblich, Bauteile ungeordnet in Kisten oder Gitterboxen zu transportieren und zu lagern. Aufwendiges Abstapeln erspart man sich damit ebenso wie spezielle Ladungsträger. Allerdings müssen die Mitarbeiter die Bauteile dann meist von Hand entnehmen und ihrer weiteren Verarbeitung zuführen – eine kostenintensive, eintönige und auf Dauer gesundheitsschädliche Tätigkeit.
Automatisierung eintöniger Arbeiten
Es bietet sich also an, solche Arbeiten zu automatisieren. Dazu gibt es zum Beispiel Rütteltöpfe, die allerdings viel Platz brauchen, Bauteile beschädigen können und obendrein für jedes Werkstück neu konfiguriert werden müssen. Die andere Möglichkeit ist, dass ein Handhabungsroboter diese Aufgabe übernimmt. Doch da gilt die Faustregel: Was Menschen leicht fällt, bereitet Robotern mitunter große Schwierigkeiten. Entsprechend langsam und unzuverlässig war der roboterbasierte Griff-in-die-Kiste bisher.
„Gerade bei metallisch glänzenden Objekten stieß die automatisierte Handhabungstechnik bislang schnell an ihre Grenzen“, sagt Werner Kraus, Gruppenleiter beim Fraunhofer IPA in Stuttgart. „Die bildgebenden Sensoren lieferten oft Aufnahmen, deren Bildrauschen genauso groß war wie die Bauteildicke. In solchen Fällen war der Griff-in-die-Kiste noch nicht einmal in zehn Prozent aller Fälle erfolgreich“, erklärt Kraus den Grund für die bisherige Unzuverlässigkeit.
Bildverarbeitungssoftware als Schlüssel
Überhaupt möglich macht den roboterbasierten Griff-in-die-Kiste die Bildverarbeitungssoftware bp3, die Kraus und sein Team am Fraunhofer IPA entwickelt haben und laufend verbessern. Sie befähigt Industrieroboter Werkstücke in einer Kiste zuverlässig zu erkennen, sicher zu greifen und definiert abzulegen.
Bildgebende Sensoren erzeugen zunächst eine Punktwolke. Anhand dieser lokalisiert und detektiert die Software bp3 einzelne Objekte in einer Kiste. Spezielle Algorithmen gleichen diese mit den hinterlegten CAD-Modellen ab und finden Übereinstimmungen. Ist ein Bauteil zweifelsfrei identifiziert, wird ein geeigneter Greifpunkt bestimmt.
Hierbei spielt es keine Rolle, wenn Bauteile ungeordnet in einer Kiste lagern, also unterschiedlich ausgerichtet und teilweise verdeckt sind. Für jeden Gegenstand, den ein Industrieroboter vereinzeln soll, sind mehrere Stellen vordefiniert, an denen der Greifer prozesssicher ansetzen kann. Unabhängig vom gewählten Greifpunkt legt die Software alle baugleichen Objekte in der vorab festgelegten Ausrichtung ab. Die Bewegungsbahn wird entsprechend angepasst.
Einfaches Einlernen neuer Bauteile
Darüber hinaus ist die Bildverarbeitungssoftware nicht nur bei der Bauteilform flexibel, sondern sie unterstützt auch Sensoren und Roboter ganz verschiedener Hersteller. Eine grafische Benutzeroberfläche erleichtert Anwendern zudem die Bedienung. Mit wenigen Klicks können sie neue Bauteile einlernen und komplexe Greifergeometrien bei Bedarf mit bis zu zwei Zusatzachsen als siebte und achte Roboterachse zusammenstellen. Die einfache Konfiguration erlaubt das schnelle Umrüsten bei neuen Produktvarianten. Damit lässt sich bp3 in eine wandlungsfähige Produktion integrieren, in der Kleinserien mit der gleichen Effizienz gefertigt werden wie Massenware.
Die Bildverarbeitungssoftware bp3 profitiert von neuester Sensortechnik. Sie liefert hochaufgelöste Bilder, wodurch Industrieroboter nun auch reflektierende Bauteile erkennen und präziser als jemals zuvor greifen können. Damit sind sie jetzt auch in der Lage dünne, metallisch glänzende Blechteile in mehr als 95 Prozent aller Fälle zuverlässig zu vereinzeln. Die nächste große Leistungssteigerung erwarten die Forscher um Kraus vom Einsatz maschineller Lernverfahren.
Perfekt durch maschinelle Lernverfahren
Durch maschinelle Lernverfahren ändert sich die Art der Datenverarbeitung grundlegend: Wo bisher noch die Algorithmen des Roboterarms für jede Aufgabe und jedes Bauteil neu programmiert werden müssen, soll schon bald künstliche Intelligenz zum Einsatz kommen. „Roboter werden damit in der Lage sein, Objekte zu erkennen, die sie noch nie vorher gesehen haben, und Strategien zu entwickeln, wie sie diese am besten handhaben“, fasst Kraus das Ziel zusammen. „Noch sind die Lernzeiten für das Machine Learning zu lang für den Praxiseinsatz in der Industrie“, sagt Kraus. „Wir arbeiten daher mit Simulationen – und vermeiden damit auch Fehlgriffe und Kollisionen mit realen Robotern.“
Im Forschungsprojekt Deep Grasping arbeitet er gerade zusammen mit Wissenschaftlern von der Universität Stuttgart an einer virtuellen Lernumgebung, in der Roboter künftig vor ihrer Inbetriebnahme die eigenen neuronalen Netze schulen und sich über ihre Erfahrungen austauschen sollen. Der Griff-in-die-Kiste soll also nicht mehr in der Praxis geübt, sondern nur noch simuliert werden. Die vortrainierten Netze werden anschließend auf den realen Roboter übertragen.
Schon bald wollen die Wissenschaftler ihren Laboraufbau in einen Demonstrator überführen und in ein bis zwei Jahren sollen erste Projekte mit Partnern aus der Industrie anlaufen.