Bachelor: Geodata Science

431 - Geodatenfusion

Empfohlenes Studiensemester: 4

Turnus: Sommersemester

Sprachen: Deutsch

ECTS: 5

Prüfungsform: schrP(0,75) und ModA(0,25) oder (mdlP(0,75) und ModA(0,25) oder ModA), weitere Angaben siehe SPO und Studienplan

Lehrform und SWS: SU (2SWS), Ü (2SWS)

Gesamter Workload: 150 Stunden

Präsenzzeit: 30 Stunden Seminaristischer Unterricht, 30 Stunden Übung

Selbststudium: 90 Stunden

Modulverantwortung: Prof. Dr. Thomas Abmayr (FK08)

Empfohlene Voraussetzung für die Teilnahme

Geosensorik 2

Lernziele

Geodatenfusion bedeutet, Messwerte unterschiedlicher Sensoren zu kombinieren, um so Schwächen der einzelnen Sensoren zu kompensieren.

Ziel des Moduls ist es, den Studierenden vertiefte Kenntnis über Algorithmen und Methoden aus diesem Themenbereich zu vermitteln. Dabei sollen die Studierenden befähigt werden, eigene Lösungsansätze zu entwickeln und umzusetzen.

Fach- und Methodenkompetenz

  • Problem- und lösungsorientiertes Denken
  • Umsetzung der vorgestellten Algorithmen und Methoden eigenständig und im Team
  • Entwicklung eigener Lösungsansätze

Inhalt

In der Vorlesung wird gezeigt, wie geeignete Sensoren so fusioniert werden können, dass sich eine mobile Plattform selbst lokalisieren kann. Dies beinhaltet folgende Themenbereiche:

  • Methodische Grundlagen
  • Trajektorien
  • Bewegungs- und Messmodelle für eine mobile Roboterplattform
  • Kalmanfilter (Kalmanfilter, extended Kalmanfilter, Sigma Point Kalmanfilter)
  • Partikelfilter
  • LSQ-Methoden (loop Closure, Scanmatching und Regressionsansätze)
  • Landmarkendetektion
  • Filterentwurf für Multisensor Systeme

Die Konzepte der Vorlesung werden in der begleitenden Übung selbst entwickelt und implementiert.

Lehrmethoden und Lernformen

Lehrvortrag; Beamer; Tafel; virtuelle Lehrräume; E-Learning-Material; problembasiertes Lernen;

Verwendbarkeit des Moduls

Bachelor Geodata Science

Literatur

  • Abmayr, T. (2021): Geodatenfusion, unveröffentlichtes Skript zur Vorlesung, Hochschule München, Fakultät für Geoinformation,
  • Corke, P. (2011): Robotics, Vision and Control: Springer Verlag
  • Trucco, E., Verri, A. (1998): Introductory Techniques for 3-D Computer Vision, Prentice Hall
  • Wendel, J. (2006); Integrierte Navigationssysteme. Oldenburg Verlag München, Wien