Franziska Mini, 27.02.2015
„Unter Photogrammetrie versteht man allgemein Methoden, aus einem oder mehreren Bildern eines beliebigen Objektes indirekt dessen Form und Lage durch Bildmessung sowie dessen inhaltliche Beschreibung durch Bildinterpretation zu gewinnen.“ [1]
Photogrammetrische Verfahren sind in allen Anwendungsbereichen einsetzbar, die es ermöglichen ein Messobjekt fotografisch abzubilden und auszuwerten. Ziel jeder photogrammetrischen Messung ist die dreidimensionale geometrische Rekonstruktion des Objekts, wobei die Modellierung des Objekts sowohl in digitaler als auch in grafischer Form erfolgen kann. Außerdem stellt das Bild einen Informationsspeicher dar, auf den für inhaltliche Interpretationen zurückgegriffen werden kann. Die Photogrammetrie zählt zu den berührungslosen Messtechniken. [1]
Die Nahbereichsphotogrammetrie stellt ein Teilgebiet der Photogrammetrie dar. Sie unterscheidet sich von anderen photogrammetrischen Messverfahren durch deutlich geringere Aufnahmeentfernungen von weniger als 300 Meter. Der Einsatzschwerpunkt der Nahbereichsphotogrammetrie befindet sich zwischen Objektgrößen von ca. einem Meter bei Genauigkeiten von bis unter 0,1 Millimeter (Industrieanwendungen) und Objektgrößen von ca. 200 Millimeter bei Genauigkeiten im Zentimeter-Bereich (Architektur- und Ingenieuranwendungen). [1]
Die Photogrammetrie als dreidimensionales Messverfahren basiert auf dem mathematischen Modell der zentralprojektiven Abbildung, d.h. der Abbildung von Punkten eines Raumes in Punkte der Ebene mit Hilfe von Geraden. Die Eigenschaften der Zentralprojektion sind, dass jedem Punkt des Raumes genau ein Punkt im Bild entspricht, aber jedem Punkt des Bildes entsprechen unendlich viele Punkte des Raumes, nämlich alle Punkte der Geraden, die durch das Projektionszentrum O‘ und den Bildpunkt P‘ verlaufen. [2]
Über die Rekonstruktion von Strahlenbündeln werden Lage und Form des Objekts ermittelt. Jeder Bildpunkt P‘ legt mit dem Projektionszentrum O‘ eine Raumrichtung des entsprechenden Strahls zum Objektpunkt P fest. Die absolute Beschreibung im 3D-Raum kann nur erfolgen, wenn die innere Orientierung – die reale Abbildungsgeometrie in der Kamera - und die äußere Orientierung – die Lage des Aufnahmesystems im Raum- bekannt sind. [1]
Zur dreidimensionalen Auswertung sind zwei Aufnahmen notwendig, die von zwei unterschiedlichen Orten aufgenommen wurden und sich teilweise überdecken. Der Schnitt von mindestens zwei korrespondierenden, räumlich verschiedenen Bildstrahlen ergibt einen dreidimensionalen Objektpunkt. In der Mehrbildphotogrammetrie dürfen mehrere Aufnahmen verwendet werden, in der Stereophotogrammetrie hingegen nur zwei. [2] [1]
Die Parameter der inneren Orientierung beschreiben das geometrische Modell der Aufnahmekamera. Als Kameramodell wird das Modell der Lochkamera verwendet, die in Abbildung eins dargestellt ist. Durch das Projektionszentrum O‘ als wichtigster Bezugspunkt verlaufen alle Bildstrahlen geradlinig. Die innere Orientierung beschreibt die räumliche Lage des Projektionszentrums in einem kamerafesten Bezugssystem, dem sogenannten Bildkoordinatensystem, sowie Abweichungen von der idealen zentralperspektiven Abbildung (Abbildungsfehler). [1]
Die für die Photogrammetrie verwendeten Kameras stimmen in mehreren Punkten nicht mit dem Modell der Lochkamera überein. Abweichungen von der idealen Abbildungsgeometrie können zum Beispiel durch ein mehr oder weniger stabiles Kameragehäuse, eine nicht ebene und senkrecht auf der optischen Achse stehende Bild- oder Filmfläche verursacht werden. Deswegen ist es notwendig, die Parameter der inneren Orientierung durch Kalibrierung für jedes Aufnahmesystem individuell zu bestimmen. [1]
Der wesentliche Parameter einer photogrammetrischen Abbildung ist der Abbildungsmaßstab oder Bildmaßstab. Mit Hilfe der Bildmaßstabszahl mb wird das Verhältnis von Aufnahmeentfernung L1 zur Kamerakonstanten L2 bzw. das Verhältnis einer Objektstrecke H1 zur entsprechenden Strecke im Bildraum H2 beschrieben.
mb = H1/H2 = L1/L2
Die Parameter der äußeren Orientierung beschreiben die absolute räumliche Lage der Kamera in einem übergeordneten Koordinatensystem. Der Bezug zwischen dem Bildkoordinatensystem und dem übergeordneten Objektkoordinatensystem, die das Projektionszentrum als gemeinsamen Bezugspunkt besitzen, wird über drei Rotationen und drei Translationen hergestellt. In der Praxis werden die Parameter der äußeren Orientierung durch Bildmessung bekannter Objektpunkte festgelegt. Als übergeordnetes Objektkoordinatensystem wird ein lokales Koordinatensystem verwendet. [1] [2]
Die Messung eines Bildpunktes entspricht einer räumlichen Richtungsmessung vom Projektionszentrum zum Objektpunkt. Zunächst ist die Länge des Richtungsstrahls nicht bekannt, d.h. jeder auf dem Strahl liegende Objektpunkt führt zum selben Bildpunkt. Eine eindeutige Umkehrung der Abbildung ist somit nicht möglich. Der Objektpunkt auf dem Strahl lässt sich erst absolut im Raum festlegen, wenn der Bildstrahl zum Beispiel mit einer Raumgerade oder einer Objektebene zum Schnitt gebracht wird. [1]
Jedes Bild spannt über die in ihm gemessenen Bildpunkte und dem jeweiligen Projektionszentrum ein räumliches Strahlenbündel auf. Werden mehrere Strahlenbündel über die Strahlenschnittbedingung verknüpft, entsteht ein dichtes Netz von Raumstrahlen. Dieses weist bei geeigneter Aufnahmekonfiguration eine hohe geometrische Stabilität auf. Die Methode der Bündeltriangulation ermöglicht die simultane, rechnerische Orientierung beliebig vieler Bilder (Strahlenbündel) und die Bestimmung der zugehörigen Objektpunkte. [1]
Abb. 1 Modell der Lochkamera Quelle: Arne Nordmann (norro) - Own illustration, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=3415556 |
Für die exakte Rekonstruktion eines Objekts aus Bildern muss zunächst der physikalische Entstehungsprozess der Aufnahme beschrieben werden. In Abbildung drei sind die an diesem Prozess beteiligten Komponenten dargestellt: Lichtquelle, Eigenschaften der Objektoberfläche, Eigenschaften der vom Licht durchlaufenen Medien, Sensor- und Kameratechnik, Bildsignalverarbeitung, Objektrekonstruktion und Weiterverarbeitung. Für die Bildinterpretation und –messung sind Methoden notwendig, die es ermöglichen einen abgebildeten Objektpunkt aus der Helligkeits- oder Farbverteilung im Bild zu identifizieren. Daraufhin können jedem Bildpunkt Messwerte in Form radiometrischer Informationen (Grauwert, Farbwert, Intensität) und geometrische Informationen (Lage im Bild) zugeordnet werden. Dazu sind Bildmesssysteme mit entsprechender geometrischer und optischer Qualität nötig.
Schließlich erfolgt aus den durchgeführten Messungen die Rekonstruktion und Modellierung des Objekts. Dafür wird basierend auf einem mathematischen Modell eine Transformation zwischen Bild- und Objektraum definiert. Die Transformation beinhaltet die bereits beschriebenen Vorgänge von Bildaufnahme und Bildmessung.
Neben den physikalischen und mathematischen Modellen spielt auch der Mensch eine wichtige Rolle, inwieweit er mit Hilfe seines Wissens, seiner Erfahrung und seines Handelns das aufgenommene Objekt rekonstruieren kann. In Abbildung vier ist der photogrammetrische Prozess vereinfacht dargestellt.
Abb. 3 Vom Objekt zum Ergebnis | Abb. 4 Der photogrammetrische Prozess: vom Objekt zum Modell |
Im Prinzip kann jede digitale Kamera für photogrammetrische Messzwecke eingesetzt werden. Die Höhe der Genauigkeit der geometrischen Messung hängt unter anderem von den Ansprüchen an die Sensorauflösung, die Gehäusestabilität und die Qualität der Optik ab. So geht der Einsatz von preiswerten digitalen Spiegelreflex- oder Systemkameras über zu hochauflösende Kameras für Anwendungen mit Echtzeitauswertung oder Langzeitstabilität. [3]
Im Folgenden wird der Arbeitsablauf einer Aufnahme in der Nahbereichsphotogrammtrie dargestellt: [1] [3]
Die Aufgabe der Auswertung ist die Detektion und Identifikation von Punkten im Bild, die Mehrbildzuordnung dieser Punkte im Bildverband und die Bestimmung ihrer 3D-Koordinaten aus Bildkoordinaten homologer Punkte in mehreren Bildern. Die Bildauswertung erfolgt mit Methoden der Bildanalyse. Hierzu werden verschiedenste Verfahren angewendet, wie zum Beispiel die Detektion signalisierter Punkte, die automatische Bildzuordnung oder die Kantendetektion.
Durch den Einsatz von Digitalkameras ist ein geschlossenes digitales System möglich, da sämtliche Aufgaben ohne räumliche und zeitliche Trennung zwischen Bildaufnahme und Ergebnispräsentation realisiert werden können. [1] [3]
Die Abbildung eines dreidimensionalen Gegenstandes in ein zweidimensionales Bild ist immer mit Informationsverlusten behaftet. Objektebereiche, die nicht im Bild sichtbar sind, können nicht mehr rekonstruiert werden. Dies können sowohl verdeckte Bereiche des Objekts sein, wie die Rückseite eines Gebäudes, als auch Stellen, die wegen zu geringem Kontrast oder zu kleiner Größe nicht mehr erkennbar sind, beispielsweise einzelne Steine einer Fassade. Weitere Ursachen für geometrische Veränderungen sind, die dreidimensionale Gestalt des Objekts, die räumliches Anordnung von Gegenstand und Kamera, optische Abbildungsfehler und die projektive Abbildung. Desweiteren kann es zu radiometrischen Veränderungen kommen, da die elektromagnetische Strahlung unter anderem durch Luft, Glas oder durch die Filmempfindlichkeit beeinflusst wird. [1]
Aus den dreidimensionalen Objektkoordinaten können sowohl weitere Größen wie Linien, Abstände, Flächen, Oberflächenbeschreibungen und Qualitätsmaße als auch geometrische Elemente, wie Geraden, Ebenen oder Zylinder, abgeleitet werden. Das Bild dient als Dokumentation für den Zustand des Objekts zum Zeitpunkt der Bildaufnahme. Zu typischen photogrammetrischen Produkten zählen die auf ein Bezugssystem entzerrten Orthophotos, 3D-Modelle, Soll-Ist-Vergleiche und Oberflächendaten. [1] [2]
Die Einsatzgebiete der Nahbereichsphotogrammetrie sind sehr vielfältig. Sie reichen von der Automobilindustrie über die Luft- und Raumfahrtindustrie bis hin zu Anwendungen in der Medizin. [1] Beispiele für Anwendungen im Ingenieurbau sind die Deformationsmessungen an einer Brücke oder Staumauer und die Rissdetektion bei Belastungsversuche. [3]
Als konkretes Anwendungsbeispiel wird auf die Überwachung von Trocknungsprozessen an Betonbauteilen eingegangen. Das Deformationsverhalten während der Trocknungsphase von drei Betonstäben unterschiedlicher Mischungen wurde über einen Zeitraum von sechs Monaten beobachtet. Die Signalisierung der Betonstäbe erfolgte mit je 25 Zielmarken. Gemessen wurde in sieben Epochen über ein halbes Jahr. Um die Transformation der jeweiligen Epoche in ein gemeinsames Koordinatensystem zu ermöglichen, wurden codierte Zielmarken auf einem starren Rahmen angebracht. Es wurde mit Deformationen in X-Richtung (Risse) und in Z-Richtung (Aufbiegung) gerechnet. Die Aufnahme in den Epochen wurde mit je 26 Aufnahmen als hoch-redundanter photogrammetrischer Block mit einer 1500-1000-Pixel-Kamera durchgeführt. Da die Marken auf dem Rahmen eine Transformation in ein gemeinsames Koordinatensystem ermöglichten, musste die Aufnahmekonfiguration in den einzelnen Epochen nicht übereinstimmen. Daher konnte die Kamera zwischen den Messungen für andere Projekte eingesetzt werden. Für die Auswertung wurde eine Bündelblockausgleichung mit Selbstkalibrierung gewählt.
Um die Analyse der Koordinatenänderungen, die Null sein sollte, zu ermöglichen, wurden die Punkte auf dem Rahmen zum Teil als Referenzpunkte für die Koordinatentransformation und zum Teil als Kontrollpunkte verwendet. Das Ergebnis der Auswertungen waren Werte von 0.003/0.003/0.006 mm in X/Y/Z-Richtung. Bezogen auf die Länge der Betonstäbe entspricht dies einer Relativgenauigkeit von 1:250.000. Durch die Verwendung von Kameras mit größerem Sensorformat könnte diese noch weiter gesteigert werden. [3]