Durch die Verfügbarkeit von kostengünstigen Nahfeldsensoren, die 3D daten der aufgenommenen
Szene in Echtzeit erstellen, entstehen neue Anwendungen im Bereich Computer Vision. Diese Anwendungen
reichen von der Erstellung neuer Mensch-Maschine-Schnittstellen (bekannt als Natural
User Interfaces) über die Erstellung von sehr detaillierten Rekonstruktionen komplexer Szenen (z.B.
in der Spuren an Tatorten oder Kulturstätten) bis hin zu Autonomem Fahren und Erweiterter Realität.
Diese Tiefensensoren basieren hauptsächlich auf zwei effizienten Technologien, dem: Structured-
Light (SL) Prinzip (wie in der Xbox 360 Kinect Kamera) and Time-of-Flight (ToF) Prinzip (wie
Kameras der Firma pmdtechnologies). Während ToF-Kameras die Zeit zwischen Lichtemission der
Beleuchtungseinheit und Empfang der Rückstreuung auf dem ”smart detectors” messen, projizieren
SL Kameras ein bekanntes Lichtmuster in die Szene und messen die Verzerrung zwischen ausgesendetem
Muster und dem resultierenden Bild. Beide Technologien haben ihre Vor- und Nachteile.
Diese Dissertation besteht aus vier Beiträgen. Wir schlagen einen effizienten Ansatz vor,
um Bewegungsartefakte von ToF-Rohbildern zu kompensieren. Danach arbeiten wir an 3DRekonstruktionsanwendungen
und verbessern die Robustheit des Kameratrackings durch die Segmentierung
von bewegten Objekten.
Der zweite Beitrag liegt in der robusten Handhabung von Rauschen in den Rohdaten über die ganze
Verarbeitungskette der Rekonstruktion. Hier wird eine neue Art der Informationsfusion verwendet,
welche die anisotropischen Eigenschaften von Rauschen in den Tiefendaten berücksichtigt und
damit eine schnellere Konvergenz für hochqualitative Rekonstruktionen erzielt.
Abschließend wird eine Methode entworfen welche die Information über die Oberflächenkrümmung
verwendet um auch feine Strukturen von kleinen Objekten robust zu rekonstruieren. Zusätzlich
wird der Gesamtfehler des Kameradrifts eingeschränkt.