• Zielgruppen
  • Suche
 

Dissertations-Projekte

1 | Alternative Integritätsmaße mittels Intervallmathematik

M.Sc. Hani Dbouk

Erstbetreuer: Schön; Co-Betreuer: Neumann

Projektbeschreibung

Dieses Dissertationsvorhaben beschäftigt sich mit der Entwicklung von alternativen Integritäts­maßen auf Basis der Intervallmathematik, Fuzzy-Theorie und unscharfer Zufallsvariablen. Für ausgewählte Sensoren aus der Experimentierstube sind verbleibende Systematiken durch Fehlerbänder in Form von Intervallen abzuleiten und experimentell zu validieren. Diese sind dann geeignet auf die geschätzten Zustände zu übertragen, um garantierte Wertebereiche abzuleiten. Neben der Intervallauswertung von Schätzern und rotationsinvarianten Unsicherheitsbereichen durch Zonotope steht die Set Inversion im Fokus. Weiterhin werden die Vorteile der entwickelten Maße gegenüber einer rein stochastischen Betrachtung untersucht und eine methodische Handlungsempfehlung für die Ableitung von Unschärfe von typischen Multi-Sensor-Systemen, wie sie im Rahmen der Experimentierstube eingesetzt werden, entwickelt. Dieses Thema ist eng verzahnt mit der Filterung (Thema 2) und der Darstellung in Karten (Themen 3, 8) und der zeitlichen Komponente (Thema 9).

2 | Development of a Filter Model with Integrity Measures

M.Sc. Ligang Sun

Erstbetreuer: Neumann; Co-Betreuer: Schön

Projektbeschreibung

This project deals with the development of methods and procedures for reliable solutions with integrity measures for dynamic sensor networks in which both the observations and the system knowledge are superimposed by random and unknown but bounded (UBB) uncertainties. For this purpose, the nonlinear observation and system equation of the filter are extended to the imprecise case and solved by methods considering both random and UBB uncertainties. This includes the extension of the available basic concepts by elements of guaranteed parameter estimation as well as filtering for merging the knowledge from observation and about the system. A particular focus of this project is on the propagation of imprecision, with the goal of significantly solving the problem of overestimation, which usually occurs with interval mathematics when finding suitable reformulations. These contents are transferred to selected multi-sensor systems in the experimental laboratory. As input values, measurements collected in projects of the Geodetic Institute can be used. Real measurements as well as measurements with superior accuracy of a reference measurement system are available, which data may serve for the validation of the methods.

Currently we developed two set-based filteringmodels: Ellipsoidal and Gaussian Kalman Filter (EGKF) for discrete-time nonlinear systems and Zonotopic and Gaussian Kalman Filter (ZGKF) for hybrid LTI systems. Here are the estimated results when applying EGKF onmulti-sensor system (MSS) and Mapathon data sets.

 

The future work includes the applications of these set-based filtering models on real data sets, e.g., state estimation for multi-sensor system or overtaking strategies for autonomous vehicles.

3 | Semantic segmentation of point clouds using transfer learning

M.Sc. Torben Peters

Erstbetreuer: Sester; Co-Betreuer: Brenner

Projektbeschreibung

Many state of the art solutions in the fields of artificial intelligence are based on deep learning. In autonomous driving, deep learning is used i.a. for motion planning, object classification or even end-to-end learning. In classical supervised learning such a network is trained with data of a specific domain for the given task. However if one domain intersects with another domain the knowledge can be transferred to another task. This procedure is therefore called transfer learning. Autonomous cars are often using different sensors in order to solve related tasks. In this project we want to fuse different sensor information in order to solve semantic segmentation in 3d. The Problem state is to map and control the information flow between different domains while preserving the quality of the data. Furthermore classification in 3d is still considered as problematic since there is no common solution. To that end we want to advance in the field of 3d point cloud classification using state-of-the-art deep learning techniques.

4 | Optimale kollaborative Positionierung

M.Sc. Nicolas Garcia Fernandez

Erstbetreuer: Schön; Co-Betreuer: Heipke

Projektbeschreibung

Kollaboratives Positionierung (CP) ist eine vielversprechende Technik, die auf einer Gruppe von dynamischen Knoten (Fußgänger, Fahrzeuge usw.) basiert. Diese sind mit verschiedenen (zeitsynchronisierten) Sensoren ausgestattet. Die Qualität der Positionierungs-, Navigations- und Zeitbestimmungsinformationen (PNT) kann dabei durch die Durchführung von Messungen zwischen Knotenpunkten oder Elementen der Umgebung (Stadtmöbel, Gebäude usw.) erhöhet werden. Im Vergleich zur Einzelknotenpositionierung, z.B. mittels Einzel-GNSS oder ’Tightly coupled’ GNSS+IMU Lösungen, nimmt die Robustheit der Positionierung zu und beschreibt eine Verbesserung der Genauigkeit, Integrität, Kontinuität und Verfürgbarkeit. Daher kann das Navigationssystem als ein geodätisches Netzwerk angesehen werden, in dem einige der Knoten ihre Position ändern und bei dem die Verbindungen zwischen den Knoten durch Messungen definiert werden, die mit zusätzlichen Sensoren durchgeführt werden (V2X-Messungen). Um Einblicke in das Verhalten solcher Netzwerke zu erhalten und die Vorteile von CP in Bezug auf Einzelfahrzeugansätze zu evaluieren, wurde ein realistisches Simulationstool für kollaborative Navigationssysteme entwickelt. Wir kombinieren Satellitennavigation, Trägheitsnavigation, Laserscanner, Photogrammetrie und Odometrie, um einen Algorithmus zu erhalten, der uns dabei hilft, die Multisensordaten zu fusionieren und die Korrelationen und Abhängigkeiten der geschätzten Parameter und Beobachtungen zu bewerten. Das Simulationstool ermöglicht es uns, die Vor- und Nachteile der verschiedenen Algorithmen zur Fusion der Sensormessungen zu bewerten, die CP-Techniken ausführen können.
Die Validierung des Simulationstools mit realen Daten garantiert, dass die aus der Analyse gezogenen Schlussfolgerungen eindeutig zu einer Verbesserung der Robustheit der Schätzung führen, die in eine sichere und präzise Navigation übersetzt werden kann.

5 |Dynamic Control Information for the relative Positioning of Nodes in a Sensor Network

M.Sc. Max Coenen

Erstbetreuer: Rottensteiner; Co-Betreuer: Heipke

Projektbeschreibung

 

Motivation: Autonomous driving comes with the need to handle highly dynamic environments. To ensure safe navigation and to enable collaborative positioning and interactive motion planning together with other traffic participants, 3D scene reconstruction and the identification and reconstruction of moving objects, especially of vehicles, are fundamental tasks. Furthermore, collaborative motion planning and vehicle positioning requires knowledge about the relative poses between cars for them to be used as vehicle-to-vehicle (V2V) measurements.

Enabling the communication and transmission of relative poses between the vehicles allows incorporating them as dynamic control information to enhance the positioning. This leads to the need of techniques for precise 3D object reconstruction to derive the poses of other vehicles relative to the position of the observing vehicle. In this context, stereo cameras provide a cost-effective solution for sensing a vehicle's surroundings.

Consequently, this project is mainly based on stereo images acquired by a stereo camera rig mounted on the moving vehicle as observations and has the goal to detect and identify other sensor nodes, i.e. other vehicles in this case, and to determine their relative poses.

Most of the existing techniques for vehicle detection and pose estimation are restricted to a coarse estimation of the viewpoint in 2D, whereas the precise determination of vehicle pose, especially of the orientation, and vehicle shape is still an open problem, that is addressed here.

Goal: The goal of this project is to propose a method for precise 3D reconstruction of vehicles in order to reason about the relative vehicle poses in 3D, i.e. the position and rotation of the vehicles with respect to the observing vehicle, and to leverage the determined shape for the identification of other sensor nodes.

For the detection of vehicles, we combine a generic 3D object detection approach with a state-of-the-art image object detector. To reason about the vehicle poses and shapes, a deformable vehicle model is learned from CAD vehicle models (Fig. 1). Given the vehicle detections our aim is to fit such a deformable vehicle model to each detection, thus finding the pose and shape parameters representing the model that describes the information derived from the images best. The model fitting is based on the shape prior, reconstructed 3D points, image features and automatically derived scene knowledge. Fig. 2 shows qualitative results of our vehicle reconstruction approach.

6 |Collaborative Pedestrian Tracking

M.Sc. Uyen Nguyen

Erstbetreuer: Heipke; Co-Betreuer: Rottensteiner

Projektbeschreibung

People detection and tracking are significant for applications related to autonomous driving, robotics, safety surveillance, etc. Most tracking work focuses on assigning and generating a complete trajectory rather than improving the geometric accuracy of the resulting trajectories in world coordinates. However, in many practical applications such as autonomous driving the geometric accuracy is a significant factor need to be taken into account.

In this project, we address the pedestrian tracking problem using stereo images.  With stereopsis information, 3D position in object space of tracked people can be estimated, which is significant for applications related to autonomous driving. Moreover, we also extend the multiple persons tracking problem from only single viewpoint to multiple perspectives so that lacking information from a certain viewpoint can be fulfilled by the others. A scenario was set up in which multiple moving cars collaboratively carried out the tracking task, illustrated in Fig.1.

Our tracking system is based on tracking-by-detection method, which comes in three phases: first, an object detector performs in each image independently; second, corresponding detections in different frames are associated w.r.t each other; finally, a filter step is employed to smooth the trajectory based on their previous states.  Fig. 2 shows exemplary trajectory of tracked pedestrians back projected to the image space.

7 | Integre informationsbasierte Georeferenzierung

M.Sc. Sören  Vogel

Erstbetreuer: Neumann; Co-Betreuer: Brenner

Projektbeschreibung

Sowohl innerhalb geschlossener Räumlichkeiten mit komplexen räumlichen Strukturen (z.B. Bürogebäude) als auch in städtischen Umgebungen, mit einer Vielzahl an höheren Gebäuden, ist eine integre Georeferenzierung von kinematischen Multisensorsystemen (MSS) nur höchst aufwendig zu realisieren, da u.a. genaue und zuverlässige GNSS-Beobachtungen aufgrund von Abschattungen nicht zur Verfügung stehen. Echtzeitprozessierung oder hohe Genauigkeitsansprüche werden so nur sehr schwer erreicht. Dieses Dissertationsprojekt beschäftigt sich mit der Entwicklung eines allgemeinen mathematischen Ansatzes für die Georeferenzierung kinematischer MSS auf Basis von verschiedenartigen Informationen. Forschungsaufgaben umfassen insbesondere eine Auseinandersetzung bei der optimalen Integration von Laserscanner-basierten Objektrauminformationen als auch der mathematischen Abbildung von priori-Informationen auf Grundlage von geometrischen (Un)gleichungsrestriktionen (z.B. auf Basis von definierten DIN-Toleranzen im Bauwesen). Weiterer Schwerpunkt ist die ständige Gewährleistung der Integrität des MSS, bzw. dessen Robustifizierung, durch die Einführung ebensolcher unabhängigen geometrischen Informationen. Die Ergebnisse werden sowohl auf Basis simulierter als auch im Rahmen des GRK erfassten Datensätze angewandt und validiert. Die methodischen Entwicklungen sollen auf ein MSS übertragen werden, das auch in Thema 2 genutzt wird. So sind Vergleiche der Ergebnisse zwischen der gezielten Modellierung mit Integritätsmaßen und mittels geometrischen (Un)gleichungsrestriktionen möglich. Bezüge bestehen zum Filtermodell mit Integritätsmaßen (Thema 2), zur relativen Positionierung von Sensorknoten (Thema 5) sowie zur massiv kollaborativen Erfassung von Umgebungsinformation (Thema 8).

8 | Massiv kollaborative Erfassung von dynamischen Umgebungen und ihre Abbildung in digitalen Karten (Brenner/Sester)

Dipl.-Ing. Julia Schachtschneider

Erstbetreuer: Brenner; Co-Betreuer: Sester

Projektbeschreibung

Die Bestimmung der Position und Orientierung von Plattformen nutzt in der Regel Beobachtungen, die relativ zu einer Umgebung gewonnen werden. Daher ist die Erfassung und Bereitstellung eines gemeinsamen Umgebungsmodells Grundbestandteil der Zustandsschätzung. Die hierfür not­wen­di­gen Beobachtungen werden wiederum von der Vielzahl der Plattformen kollaborativ gewonnen. Eine zentrale Aufgabe ist daher, unter Berücksichtigung von Integritäts­anforderungen, Konzepte zur Aggregation von individuell (pro Plattform) gewonnenen Karten zu einer Gesamtkarte zu untersuchen. Ein wesentlicher Aspekt ist hierbei die Abbildung der Dynamik der Umgebung, beispielsweise der Repräsentation von abklingenden bzw. periodischen Zuständen durch ent­sprechende latente Variablen, wodurch widersprüchliche Beobachtungen, welche sich aus multitemporalen Effekten ergeben, miteinander in Einklang gebracht werden können. Insbesondere werden die Wirkungen diskreter Entscheidungen betrachtet, welche beispielsweise bei der Zuordnung von beobachteten Objekten zur Karte (data association problem) oder bei der Vorhaltung multipler (alternativer) Karten­repräsentationen auftreten. Ein direkter Bezug besteht zum Thema 3, multiskaligen digitalen Karten, sowie zu alternativen Integritätsmaßen (Thema 1), Ansätzen zur Filterung (Themen 2 und 7) und kollaborativen Positionierung (Themen 4 und 6), sowie zur Behandlung zeitlicher Aspekte (Thema 9).

9 | Bounded-Error Visual-Lidar Odometry on Mobile Robots Under Consideration of Spatiotemporal Uncertainties

M.Sc. Rafael Voges

Erstbetreuer: Wagner, Co-Betreuer: Brenner

Projektbeschreibung

 

To localize without GPS information, mobile robots have to compute their ego-motion gradually using different sensors such as cameras, laser scanners or inertial measurement units (IMUs). In order to do that, this project aims at developing a visual-lidar odometry algorithm that computes – in contrast to established approaches – no point-valued pose, but a bounded domain that is guaranteed to contain the true pose. To properly fuse information from these different sensors, we have to assume unknown but bounded errors not only for each individual sensor, but also for inter-sensor properties such as the transformation between sensor coordinate systems and offsets or drifts between sensor clocks. Using intervals for these errors is more adequate than stochastic error modeling since transformation errors or sensor clock offsets are naturally bounded (e.g. +/- 1 cm or +/- 10 ms). Furthermore, in contrast to stochastic error modeling, unknown systematic errors that often arise during inter-sensor calibration are perfectly compliant with the assumption about unknown but bounded errors.

Thus, the first goal of this project is to investigate approaches to determine these inter-sensor properties – which we also call spatiotemporal calibration parameters – under interval uncertainty. Subsequently, we develop an approach that fuses information from camera, laser scanner and IMU in a bounded error context to compute a robot’s ego-motion. This allows us to determine guaranteed bounds for a robot’s true pose. These bounds can then be used to limit the search space of traditional stochastic approaches making them more reliable, and thus are especially relevant for safety-critical systems such as autonomous cars. Finally, we have to account for the previously determined spatiotemporal calibration parameters in the visual-lidar odometry algorithm.

1 | Alternative Integritätsmaße mittels Intervallmathematik

M.Sc. Hani Dbouk

Erstbetreuer: Schön; Co-Betreuer: Neumann

Projektbeschreibung

Dieses Dissertationsvorhaben beschäftigt sich mit der Entwicklung von alternativen Integritäts­maßen auf Basis der Intervallmathematik, Fuzzy-Theorie und unscharfer Zufallsvariablen. Für ausgewählte Sensoren aus der Experimentierstube sind verbleibende Systematiken durch Fehlerbänder in Form von Intervallen abzuleiten und experimentell zu validieren. Diese sind dann geeignet auf die geschätzten Zustände zu übertragen, um garantierte Wertebereiche abzuleiten. Neben der Intervallauswertung von Schätzern und rotationsinvarianten Unsicherheitsbereichen durch Zonotope steht die Set Inversion im Fokus. Weiterhin werden die Vorteile der entwickelten Maße gegenüber einer rein stochastischen Betrachtung untersucht und eine methodische Handlungsempfehlung für die Ableitung von Unschärfe von typischen Multi-Sensor-Systemen, wie sie im Rahmen der Experimentierstube eingesetzt werden, entwickelt. Dieses Thema ist eng verzahnt mit der Filterung (Thema 2) und der Darstellung in Karten (Themen 3, 8) und der zeitlichen Komponente (Thema 9).

2 | Development of a Filter Model with Integrity Measures

M.Sc. Ligang Sun

Erstbetreuer: Neumann; Co-Betreuer: Schön

Projektbeschreibung

This project deals with the development of methods and procedures for reliable solutions with integrity measures for dynamic sensor networks in which both the observations and the system knowledge are superimposed by random and unknown but bounded (UBB) uncertainties. For this purpose, the nonlinear observation and system equation of the filter are extended to the imprecise case and solved by methods considering both random and UBB uncertainties. This includes the extension of the available basic concepts by elements of guaranteed parameter estimation as well as filtering for merging the knowledge from observation and about the system. A particular focus of this project is on the propagation of imprecision, with the goal of significantly solving the problem of overestimation, which usually occurs with interval mathematics when finding suitable reformulations. These contents are transferred to selected multi-sensor systems in the experimental laboratory. As input values, measurements collected in projects of the Geodetic Institute can be used. Real measurements as well as measurements with superior accuracy of a reference measurement system are available, which data may serve for the validation of the methods.

Currently we developed two set-based filteringmodels: Ellipsoidal and Gaussian Kalman Filter (EGKF) for discrete-time nonlinear systems and Zonotopic and Gaussian Kalman Filter (ZGKF) for hybrid LTI systems. Here are the estimated results when applying EGKF onmulti-sensor system (MSS) and Mapathon data sets.

 

The future work includes the applications of these set-based filtering models on real data sets, e.g., state estimation for multi-sensor system or overtaking strategies for autonomous vehicles.

3 | Semantic segmentation of point clouds using transfer learning

M.Sc. Torben Peters

Erstbetreuer: Sester; Co-Betreuer: Brenner

Projektbeschreibung

Many state of the art solutions in the fields of artificial intelligence are based on deep learning. In autonomous driving, deep learning is used i.a. for motion planning, object classification or even end-to-end learning. In classical supervised learning such a network is trained with data of a specific domain for the given task. However if one domain intersects with another domain the knowledge can be transferred to another task. This procedure is therefore called transfer learning. Autonomous cars are often using different sensors in order to solve related tasks. In this project we want to fuse different sensor information in order to solve semantic segmentation in 3d. The Problem state is to map and control the information flow between different domains while preserving the quality of the data. Furthermore classification in 3d is still considered as problematic since there is no common solution. To that end we want to advance in the field of 3d point cloud classification using state-of-the-art deep learning techniques.

4 | Optimale kollaborative Positionierung

M.Sc. Nicolas Garcia Fernandez

Erstbetreuer: Schön; Co-Betreuer: Heipke

Projektbeschreibung

Kollaboratives Positionierung (CP) ist eine vielversprechende Technik, die auf einer Gruppe von dynamischen Knoten (Fußgänger, Fahrzeuge usw.) basiert. Diese sind mit verschiedenen (zeitsynchronisierten) Sensoren ausgestattet. Die Qualität der Positionierungs-, Navigations- und Zeitbestimmungsinformationen (PNT) kann dabei durch die Durchführung von Messungen zwischen Knotenpunkten oder Elementen der Umgebung (Stadtmöbel, Gebäude usw.) erhöhet werden. Im Vergleich zur Einzelknotenpositionierung, z.B. mittels Einzel-GNSS oder ’Tightly coupled’ GNSS+IMU Lösungen, nimmt die Robustheit der Positionierung zu und beschreibt eine Verbesserung der Genauigkeit, Integrität, Kontinuität und Verfürgbarkeit. Daher kann das Navigationssystem als ein geodätisches Netzwerk angesehen werden, in dem einige der Knoten ihre Position ändern und bei dem die Verbindungen zwischen den Knoten durch Messungen definiert werden, die mit zusätzlichen Sensoren durchgeführt werden (V2X-Messungen). Um Einblicke in das Verhalten solcher Netzwerke zu erhalten und die Vorteile von CP in Bezug auf Einzelfahrzeugansätze zu evaluieren, wurde ein realistisches Simulationstool für kollaborative Navigationssysteme entwickelt. Wir kombinieren Satellitennavigation, Trägheitsnavigation, Laserscanner, Photogrammetrie und Odometrie, um einen Algorithmus zu erhalten, der uns dabei hilft, die Multisensordaten zu fusionieren und die Korrelationen und Abhängigkeiten der geschätzten Parameter und Beobachtungen zu bewerten. Das Simulationstool ermöglicht es uns, die Vor- und Nachteile der verschiedenen Algorithmen zur Fusion der Sensormessungen zu bewerten, die CP-Techniken ausführen können.
Die Validierung des Simulationstools mit realen Daten garantiert, dass die aus der Analyse gezogenen Schlussfolgerungen eindeutig zu einer Verbesserung der Robustheit der Schätzung führen, die in eine sichere und präzise Navigation übersetzt werden kann.

5 |Dynamic Control Information for the relative Positioning of Nodes in a Sensor Network

M.Sc. Max Coenen

Erstbetreuer: Rottensteiner; Co-Betreuer: Heipke

Projektbeschreibung

 

Motivation: Autonomous driving comes with the need to handle highly dynamic environments. To ensure safe navigation and to enable collaborative positioning and interactive motion planning together with other traffic participants, 3D scene reconstruction and the identification and reconstruction of moving objects, especially of vehicles, are fundamental tasks. Furthermore, collaborative motion planning and vehicle positioning requires knowledge about the relative poses between cars for them to be used as vehicle-to-vehicle (V2V) measurements.

Enabling the communication and transmission of relative poses between the vehicles allows incorporating them as dynamic control information to enhance the positioning. This leads to the need of techniques for precise 3D object reconstruction to derive the poses of other vehicles relative to the position of the observing vehicle. In this context, stereo cameras provide a cost-effective solution for sensing a vehicle's surroundings.

Consequently, this project is mainly based on stereo images acquired by a stereo camera rig mounted on the moving vehicle as observations and has the goal to detect and identify other sensor nodes, i.e. other vehicles in this case, and to determine their relative poses.

Most of the existing techniques for vehicle detection and pose estimation are restricted to a coarse estimation of the viewpoint in 2D, whereas the precise determination of vehicle pose, especially of the orientation, and vehicle shape is still an open problem, that is addressed here.

Goal: The goal of this project is to propose a method for precise 3D reconstruction of vehicles in order to reason about the relative vehicle poses in 3D, i.e. the position and rotation of the vehicles with respect to the observing vehicle, and to leverage the determined shape for the identification of other sensor nodes.

For the detection of vehicles, we combine a generic 3D object detection approach with a state-of-the-art image object detector. To reason about the vehicle poses and shapes, a deformable vehicle model is learned from CAD vehicle models (Fig. 1). Given the vehicle detections our aim is to fit such a deformable vehicle model to each detection, thus finding the pose and shape parameters representing the model that describes the information derived from the images best. The model fitting is based on the shape prior, reconstructed 3D points, image features and automatically derived scene knowledge. Fig. 2 shows qualitative results of our vehicle reconstruction approach.

6 |Collaborative Pedestrian Tracking

M.Sc. Uyen Nguyen

Erstbetreuer: Heipke; Co-Betreuer: Rottensteiner

Projektbeschreibung

People detection and tracking are significant for applications related to autonomous driving, robotics, safety surveillance, etc. Most tracking work focuses on assigning and generating a complete trajectory rather than improving the geometric accuracy of the resulting trajectories in world coordinates. However, in many practical applications such as autonomous driving the geometric accuracy is a significant factor need to be taken into account.

In this project, we address the pedestrian tracking problem using stereo images.  With stereopsis information, 3D position in object space of tracked people can be estimated, which is significant for applications related to autonomous driving. Moreover, we also extend the multiple persons tracking problem from only single viewpoint to multiple perspectives so that lacking information from a certain viewpoint can be fulfilled by the others. A scenario was set up in which multiple moving cars collaboratively carried out the tracking task, illustrated in Fig.1.

Our tracking system is based on tracking-by-detection method, which comes in three phases: first, an object detector performs in each image independently; second, corresponding detections in different frames are associated w.r.t each other; finally, a filter step is employed to smooth the trajectory based on their previous states.  Fig. 2 shows exemplary trajectory of tracked pedestrians back projected to the image space.

7 | Integre informationsbasierte Georeferenzierung

M.Sc. Sören  Vogel

Erstbetreuer: Neumann; Co-Betreuer: Brenner

Projektbeschreibung

Sowohl innerhalb geschlossener Räumlichkeiten mit komplexen räumlichen Strukturen (z.B. Bürogebäude) als auch in städtischen Umgebungen, mit einer Vielzahl an höheren Gebäuden, ist eine integre Georeferenzierung von kinematischen Multisensorsystemen (MSS) nur höchst aufwendig zu realisieren, da u.a. genaue und zuverlässige GNSS-Beobachtungen aufgrund von Abschattungen nicht zur Verfügung stehen. Echtzeitprozessierung oder hohe Genauigkeitsansprüche werden so nur sehr schwer erreicht. Dieses Dissertationsprojekt beschäftigt sich mit der Entwicklung eines allgemeinen mathematischen Ansatzes für die Georeferenzierung kinematischer MSS auf Basis von verschiedenartigen Informationen. Forschungsaufgaben umfassen insbesondere eine Auseinandersetzung bei der optimalen Integration von Laserscanner-basierten Objektrauminformationen als auch der mathematischen Abbildung von priori-Informationen auf Grundlage von geometrischen (Un)gleichungsrestriktionen (z.B. auf Basis von definierten DIN-Toleranzen im Bauwesen). Weiterer Schwerpunkt ist die ständige Gewährleistung der Integrität des MSS, bzw. dessen Robustifizierung, durch die Einführung ebensolcher unabhängigen geometrischen Informationen. Die Ergebnisse werden sowohl auf Basis simulierter als auch im Rahmen des GRK erfassten Datensätze angewandt und validiert. Die methodischen Entwicklungen sollen auf ein MSS übertragen werden, das auch in Thema 2 genutzt wird. So sind Vergleiche der Ergebnisse zwischen der gezielten Modellierung mit Integritätsmaßen und mittels geometrischen (Un)gleichungsrestriktionen möglich. Bezüge bestehen zum Filtermodell mit Integritätsmaßen (Thema 2), zur relativen Positionierung von Sensorknoten (Thema 5) sowie zur massiv kollaborativen Erfassung von Umgebungsinformation (Thema 8).

8 | Massiv kollaborative Erfassung von dynamischen Umgebungen und ihre Abbildung in digitalen Karten (Brenner/Sester)

Dipl.-Ing. Julia Schachtschneider

Erstbetreuer: Brenner; Co-Betreuer: Sester

Projektbeschreibung

Die Bestimmung der Position und Orientierung von Plattformen nutzt in der Regel Beobachtungen, die relativ zu einer Umgebung gewonnen werden. Daher ist die Erfassung und Bereitstellung eines gemeinsamen Umgebungsmodells Grundbestandteil der Zustandsschätzung. Die hierfür not­wen­di­gen Beobachtungen werden wiederum von der Vielzahl der Plattformen kollaborativ gewonnen. Eine zentrale Aufgabe ist daher, unter Berücksichtigung von Integritäts­anforderungen, Konzepte zur Aggregation von individuell (pro Plattform) gewonnenen Karten zu einer Gesamtkarte zu untersuchen. Ein wesentlicher Aspekt ist hierbei die Abbildung der Dynamik der Umgebung, beispielsweise der Repräsentation von abklingenden bzw. periodischen Zuständen durch ent­sprechende latente Variablen, wodurch widersprüchliche Beobachtungen, welche sich aus multitemporalen Effekten ergeben, miteinander in Einklang gebracht werden können. Insbesondere werden die Wirkungen diskreter Entscheidungen betrachtet, welche beispielsweise bei der Zuordnung von beobachteten Objekten zur Karte (data association problem) oder bei der Vorhaltung multipler (alternativer) Karten­repräsentationen auftreten. Ein direkter Bezug besteht zum Thema 3, multiskaligen digitalen Karten, sowie zu alternativen Integritätsmaßen (Thema 1), Ansätzen zur Filterung (Themen 2 und 7) und kollaborativen Positionierung (Themen 4 und 6), sowie zur Behandlung zeitlicher Aspekte (Thema 9).

9 | Bounded-Error Visual-Lidar Odometry on Mobile Robots Under Consideration of Spatiotemporal Uncertainties

M.Sc. Rafael Voges

Erstbetreuer: Wagner, Co-Betreuer: Brenner

Projektbeschreibung

 

To localize without GPS information, mobile robots have to compute their ego-motion gradually using different sensors such as cameras, laser scanners or inertial measurement units (IMUs). In order to do that, this project aims at developing a visual-lidar odometry algorithm that computes – in contrast to established approaches – no point-valued pose, but a bounded domain that is guaranteed to contain the true pose. To properly fuse information from these different sensors, we have to assume unknown but bounded errors not only for each individual sensor, but also for inter-sensor properties such as the transformation between sensor coordinate systems and offsets or drifts between sensor clocks. Using intervals for these errors is more adequate than stochastic error modeling since transformation errors or sensor clock offsets are naturally bounded (e.g. +/- 1 cm or +/- 10 ms). Furthermore, in contrast to stochastic error modeling, unknown systematic errors that often arise during inter-sensor calibration are perfectly compliant with the assumption about unknown but bounded errors.

Thus, the first goal of this project is to investigate approaches to determine these inter-sensor properties – which we also call spatiotemporal calibration parameters – under interval uncertainty. Subsequently, we develop an approach that fuses information from camera, laser scanner and IMU in a bounded error context to compute a robot’s ego-motion. This allows us to determine guaranteed bounds for a robot’s true pose. These bounds can then be used to limit the search space of traditional stochastic approaches making them more reliable, and thus are especially relevant for safety-critical systems such as autonomous cars. Finally, we have to account for the previously determined spatiotemporal calibration parameters in the visual-lidar odometry algorithm.