Omnidirektionales SLAM-Verfahren

Mithilfe einer omnidirektionalen Kamera, der V.360° von VSN, entwickeln wir ein Verfahren um die Position des Roboters bestimmen zu können. Die zugrunde liegenden Methoden versuchen dabei den photometrischen Fehler zwischen zwei Bildern zu minimieren, um so die Bewegung des Roboters schätzen zu können. Zu überwindende Schwierigkeiten ergeben sich daraus, dass bei omnidirektionalen Kameras von keinem Lochkamera-Modell ausgegangen werden kann. Das erschwert die Kalibrierung und resultiert in einem aufwendigerem Stereo-Matching.

Während Abbildung 1 die Kamera darstellt, skizziert die zweite Abbildung das zylindrische Kamera-Modell, mit welchem wir arbeiten. Abbildung 3 zeigt unsere Software und die 3D-Rekonstruktion aus 2 Bildern (Hier ist die Normale der epipolaren Ebene und der Schnitt dieser Ebene mit der Bildfläche pink hervorgehoben). In der nächsten Version der Software werden die Informationen aus mehreren Bildern akkumuliert und somit eine genauere 3D-Rekonstruktion und bessere Lokalisierung zu erlauben.

Abbildung1

Abbildung 1

Abbildung2

Abbildung 2


Abbildung3

Abbildung 3

 

Posted in Allgemein.