[Back]


Diploma and Master Theses (authored and supervised):

G. Lebeth:
"Automatisierte Abschätzung von Raum-Dimensionen aus SfM-Punktwolken";
Supervisor: M. Wimmer, N. Pfeifer; Department of Geodesy and Geoinformation, TU Wien, 2022; final examination: 2022-01-20.



English abstract:
Photogrammetry offers the opportunity to generate three-dimensional models from RGB photos. This thesis uses one part of the photogrammetry, named Structur-from-Motion (SfM). With this method it is possible to compute the relative orientation of a multitude of photos of the same object. Afterwards a pointcloud can be generated from these oriented photos. Generally SfM-pointclouds are not correctly oriented and scaled, but there are a couple of options to do so.This thesis is especially about indoor SfM-pointclouds and the deviated room-size. The orientation and scaling is done with dative bound targets. Pointclouds from indoor-SfM are often irregular distributed and affected by random noise, which causes typical segmentation methods, like they are used for laser-scanning-data or ToF-camera-data to fail. For this reason a robust algorithm was developed, which is capable of handling these difficulties. For every classified wall a plane is fitted and statistical information is exported to have information about the fitting, even after the processing has finished. Finally the room dimensions are calculated by miscutting all six planes and calculating the distances between the points of intersection. When the algorithm was tested on 10 different rooms, the average length error was about ∼ 2.5 cm compared to the ground truth.The biggest challenge when it comes to plane fitting occurs, if photos are taken from greater distance to a wall, which is also single-colored without any texture. With these walls, length errors of about ∼ 12 cm (at a room length of about ≥ 12 m) occurred. To get better results there, some additional photos from shorter distance should have been made.

German abstract:
Die Photogrammetrie bietet eine Möglichkeit, aus RGB-Fotos dreidimensionale Modelle zu berechnen. In dieser Arbeit wurde mit einem Teilgebiet der Photogrammetrie namens Structure-from-Motion (SfM) gearbeitet. Dabei wird von einer Vielzahl an Fotos desselben Objektes die relative Orientierung bestimmt. Anschließend kann aus den orientierten Fotos eine Punktwolke rekonstruiert werden. SfM-Punktwolken sind von Haus aus nicht korrekt orientiert und skaliert, es gibt jedoch verschiedene Möglichkeiten dafür.Diese Arbeit beschäftigt sich konkret mit SfM-Punktwolken von Innenräumen und den daraus ableitbaren Raum-Größen. Die Orientierung erfolgt über koordinativ festgelegte "Targets". Da die Punkte von Innenraum-Punktwolken häufig unregelmäßig verteilt und verrauscht sind, stoßen typische Segmentierungs-Methoden, wie sie für Laser-Scanning-Daten und ToF-Kamera-Daten verwendet werden, hier an ihre Grenzen. Aus diesem Grund wurde ein robuster Algorithmus entwickelt, der in der Lage ist, trotz dieser Erschwernisse die Wände abzuschätzen. Zu jeder geschätzten Wandebene werden statistische Informationen exportiert, um auch nach dem Processing Information über die Zuverlässigkeit der Ebenen-Schätzung zu haben. Abschließend werden die Raummaße über den Verschnitt aller Ebenen und den daraus resultierenden Eckpunkten bestimmt. Bei der praktischen Anwendung der Methodik auf 10 Räume betrug der durchschnittliche Längenfehler im Vergleich zu den Referenzmessungen ~ 2.5 cm.Die größte Herausforderung beim Ebenen-Fitting stellen Wände dar, die nur aus großer Entfernung fotografiert wurden und einfärbig ohne jegliche Textur waren. Durch solche Wände traten in dieser Arbeit Längenfehler von maximal 12 cm (= bei einer Raumlänge von ≥ 12 m) auf. Um diese Wände besser rekonstruieren zu können, sollten zusätzliche Fotos mit geringerer Entfernung aufgenommen werden.


"Official" electronic version of the publication (accessed through its Digital Object Identifier - DOI)
http://dx.doi.org/10.34726/hss.2021.97840

Electronic version of the publication:
https://repositum.tuwien.at/handle/20.500.12708/19223


Created from the Publication Database of the Vienna University of Technology.