Bei einer Störung in einem Chemiewerk oder bei einer Überschwemmung brauchen die Einsatzkräfte Möglichkeiten, sich schnell einen Überblick über die Situation zu verschaffen. Um sich nicht selbst in Gefahr zu bringen, dürfen sie den Ort des Geschehens aber oft nicht betreten.
Forscher des Fraunhofer FKIE in Wachtberg arbeiten im Projekt 3D-InAus an einer Lösung für dieses Problem. Ein mit einem LiDAR-Laser (Light Detection and Ranging) ausgestatteter Roboter erkundet die Umgebung. Die LiDAR-Technologie nutzt Lichtimpulse, um die Umgebung abzutasten und Entfernungen zu messen. So entsteht ein 3D-Modell, das Gebäude, Räume, Freiflächen, Objekte und alle dazugehörigen Dimensionen und Entfernungen zeigt. Die Nutzer können sich in der 360-Grad-Visualisierung mit einem Joystick frei bewegen und die virtuelle Umgebung erkunden.
Timo Röhling, technischer Projektleiter in der Abteilung Kognitive Mobile Systeme, erklärt: „Im Vergleich zu Robotersystemen, die mit Kameras eine Gefahrenzone erkunden, geht unser Projekt einen großen Schritt weiter. Die Laserimpulse liefern Messwerte für eine präzise 3D-Kartografie eines Geländes oder Gebäudes. Entfernungen und Abmessungen werden nicht geschätzt, sondern mit einer Genauigkeit von wenigen Zentimetern bestimmt.“
Geometrische Punktwolke, abgeleitet aus Laserimpulsen
Das Herzstück der Hardware ist ein LiDAR-Laser, der auf einem Drehtisch montiert ist.In das LiDAR-Modul ist ein rotierender Spiegel eingebaut.Er kann ein Gebiet, das aus 16 vertikalen Abschnitten besteht, zehnmal pro Sekunde abtasten.
Der Drehtisch dreht den Laser so, dass die vertikalen Schnitte eine komplette 360-Grad-Ansicht entlang der horizontalen Achse abdecken. Das System erzeugt insgesamt 1,3 Millionen Laserimpulse pro Sekunde. Diese Impulse prallen an den umliegenden Objekten ab, und aus der Zeitspanne dazwischen wird die jeweilige Entfernung berechnet. Das LiDAR-Modul ist auf einem Fahrzeug montiert, das sich entweder kontinuierlich oder im Stop-and-Go-Betrieb durch das Gebiet bewegt. Der kontinuierliche Betrieb ist viel schneller, aber auch weniger genau.
Das Ergebnis ist eine 3D-Punktwolke, in der jeder Punkt für einen Laserimpuls oder eine Entfernungsmessung steht. Außerdem gibt es ein Kamerasystem mit bis zu sechs Kameras. Die Bilder der Kameras werden verwendet, um die zugehörigen Objekte oder Formen einzufärben. „Man kann sich vorstellen, dass wir die Kamerabilder und die Punktwolke miteinander verschmelzen. So erhalten wir eine lebendige, detaillierte und auch geometrisch genaue 3D-Umgebung, die Gebäude, Freiflächen und Objekte zeigt“, sagt Röhling.
Die vom LiDAR-Laser erfassten Rohdaten werden von einem Computermodul im Inneren des Roboters vorverarbeitet, noch bevor dieser seinen Einsatz beendet. Die endgültige Visualisierung wird dann stationär während der Nachbearbeitung erstellt. Die Kartierung eines 400 x 400 m großen Gebiets dauert etwa drei Stunden. Im Katastrophenfall, wenn die Zeit drängt, kann der beschleunigte Betrieb genutzt werden, um in nur einer Stunde einen ersten Überblick zu erhalten. Es ist auch möglich, ein Gebiet mit mehreren Fahrzeugen gleichzeitig zu erkunden.
Diese Methode der 3D-Kartierung ist auch für die Bundeswehr wertvoll, die das Forschungsprojekt in Auftrag gegeben hat. Sie kann komplexe Lageübersichten über unbekanntes Terrain oder eine Gefahrenzone erstellen und so das Leben von Soldaten retten. Die Software des Systems ist in der Lage, die Messwerte von Sensoren, die gasförmige Schadstoffe oder Strahlungsquellen detektieren, zu verarbeiten und auf den 3D-Karten zu platzieren.
Virtuelles GPS im Inneren des Gebäudes
Das Robotersystem wird in der Regel per Funk von einem Benutzer gesteuert, der mit einem Joystick und einem Tablet arbeitet. Besteht kein Funkkontakt, könnten sich die Robotersysteme auch selbstständig im Gelände bewegen.
Die Erkundung von Gebäuden ist eine Herausforderung, da es dort keinen GPS-Empfang gibt, aber auch dafür haben die Forscher am Fraunhofer FKIE eine Lösung gefunden. Aus der Kartierung des Geländes sind Position und Größe des Gebäudes bereits bekannt, und die Software generiert daraus ein virtuelles GPS für das Innere des Gebäudes. Damit kann das Robotersystem auch im Inneren des Gebäudes autonom navigieren.
Das Team des Fraunhofer FKIE konnte bei der Arbeit an dem Projekt auf seine langjährige Expertise in der robotergestützten Modellierung von 3D-Umgebungen zurückgreifen. „Wir haben das Konzept erstellt, die Komponenten ausgewählt und die Algorithmen implementiert“, erklärt Röhling.
Flexible Plattform für verschiedene Szenarien
Das Team hat darauf geachtet, dass das Robotersystem so vielseitig wie möglich ist. Das Lasermodul und der Drehtisch können zum Beispiel auf einer Vielzahl verschiedener Fahrzeuge montiert werden. Je nach Gelände können Fahrzeuge mit Rädern oder Ketten oder sogar Drohnen eingesetzt werden. Die Benutzer stellen die spezifischen Komponenten für jedes Szenario zusammen.
Dieser Artikel wurde mit Deepl aus dem Englischen übersetzt.