Parameter der Bildaufnahme
1. Strahlung2. Atmosphäre3. Interaktion mit Oberfläche4. Sensor
Atmosphärische Einflüsse
- Streuung (scattering): Ablenkung der Strahlung durch kleine Materialteilchen (Aerosol)- Absorption: Umsetzung der elektromagnetischen Energie in andere Formen durch Auftreffen auf Gase- Refraktion: Strahlenkrümmung verursacht durch Dichteänderung der Luft
Interaktion mit Oberfläche:
-->Energieerhaltungsgesetz<--
Besagt, dass I=A+T+R istI=einfallende StrahlungA=absorbierter TeilT=transmittierter TeilR=reflektierter Teil
Reflexionsgrad ist abhängig von?
(optische Sensoren)
- Wellenlänge (spektraler Reflexionsgrad)- Rauigkeit der Oberfläche (spiegelnd oder diffus)- zeitliche Variation- Sonnenstand (Mitlicht, Gegenlicht)- Feuchtigkeitsgrad (i.d.R. Abnahme mit zunehmender Feuchtigkeit)
Was sind Sensoren?
--> 1. Sensortypen
--> 2. Detektor
Instrumente, die elektromagnetische Strahlung empfangen und so in ein Signal umwandeln, dass daraus ein Bild erzeugt werden kann 1. - Kamera (photographische Aufnahme) - Scanner (Abtastung) - Radarsystem, MW-Sensor (Antenne)2. Strahlungsempfänger, der ein von elektromagnetischer Strahlung abhängiges messbares Signal ergibt
Auflösungen
spektrale Auflösung = Anzahl, Breite & Anordnung der verschiedenen Kanäle des Aufnahmesytems Räumliche Auflösung = geometrische Auflösung: Beschreibung (Maß) für die Fähigkeit benachbarte Objektzeinzelheiten getrennt aufzuzeichnen (-> Detailerkennbarkeit) Zeitliche Auflösung = Zeit der Aufnahme & Wiederholungsrate Radiometrische Auflösung = Beschreibung (Maß) für die Fähigkeit verschiedene Strahlungsunterschiede aufzuteichnen (Sensitivität) --> Kontrast
Orbit?
- 1. Parameter
- 2. Arten
Umlaufbahn (Raumkurve), die ein Raumfahrzeug durchläuft1. - Flughöhe über Erdoberfläche - Orientierung relativ zur Erde - Geschwindigkeit2. - geostationär (sehr hohe Flughöhe, erscheinen immer über gleichem Punkt - polnah/polar (fast komplette Abdeckung der Erdoberfläche, Inklination) - sonnensynchron (Überflug eines Gebietes immer zur gleichen lokalen Zeit)
Bodenspur?
Grundrissprojektion der Umlaufbahn
Keplersche Bahnparameter
Ungerstörte Satellitenbahn gehorcht Keplerschen Gesetzen:Satellit kreist auf Ellipse mit Erde in einem Brennpunkt --> Bahn wird durch 6 Keplersche Parameter beschrieben
Temporale Auflösung?
+ Arten
Zeitlicher Abstand zwischen zwei Aufnahmen desselben Objektes - Wiederholungsrate (repetition rate): Identischer Orbit wird erreicht - Revisit rate: Identsiches Bodengebiet kann aufgenommen werden (Überlappung, Schrägaufnahme)
Landsat Satellitensysteme
- Landsat 1-6 nicht mehr operationell- Landsat 7&8 operationell- Aufnahmeprinzip opto-mechanisch (whrisk-broom)Technische Parameter: Landsat 7 Landsat 8radiometrische Auflösung 8 bit 12 bitspektrale Auflösung 8 Kanäle 12 Kanäle
Passive Sensors vs. Active Sensors
Passive Sensors Active SensorsNon-Imaging ex.: Microwave radiometer, ex.: Microwave radiometer, microwave magnetic sensor altimeter, laserImaging ex.: cameras, opticale mechanical ex.: Real Aperture Radar, Synthetic scanner, spectrometer, microwave Aperture Radar radiometer
Radarbänder
Kürzel Wellenlänge (cm) Frequenz (GHz) Ka 0,8-1,1 40-26,5 K 1,1-1,7 26,5-18 Ku 1,7-2,4 18-12,5 X 2,4-3,8 12,5-8 C 3,8-7,5 8-4 S 7,5-15 4-2 L 15-30 2-1 P 30-100 1-0,3
Radarbildhelligkeit ist abhängig von?
- Illuminating signal - Wellenlänge - Polarisation - Auftreffwinkel - Blickwinkel in Beziehung auf Platformvorwärtsbewegung- Illuminated surface - Rauhigkeit - Gestaltung/Orientierung - dielektrische Eigenschaften
RADAR
SLAR
SAR
Radar = Radio Detection And RangingSLAR = Side Looking Airborne RadarSAR = Synthetic Aperture Radar
SLAR Grundprinzip
- Aussenden und Empfangen von Impulsen über eine Antenne
Verzerrungen in Radarbildern
- Schrägmessungen --> slant range gemessen, ground range verlangt- Höhenunterschiede --> Abhängig von Depressionswinkel (Θ) & Geländeneigung (ε) - Layover (ε<Θ) --> Spitze vor Fußpunkt - Schatten (ε=Θ) - Foreshortening (ε>Θ) --> Fußpunkt vor Spitze
Rückstreuungsparameter Radar
- Oberflächen-Rauhigkeit: - je glatter, desto weniger Rückstreuung - Grenze zwischen diffuse (rau) & specular (glatt)- Oberflächen-Winkel: - je kleiner der Auftreffwinkel, desto heller & umgekehrt- Elektrische Eigenschaften: - je größer die Leitfähigkeit (dielektsiche Konstante) desto mehr Rückstrahlung - Bsp.: - normaler, trockener Boden ε0=3-8 - feuchter Boden ε0=30 - Wasser ε0=80- Wellenlänge: - je länger die Wellenlänge, desto größer die Eindringtiefe
ESA-Kopernikus Programm
- 6 verschiedene Missionen (Sentinel 1-5 & 5P)- Sentinel 1: - Kombination aus zwei Satelliten - polarer & sonnensynchroner Orbit auf 693km, 12 Tage Wiederholungsrate (6 in Konstellation) - C-Band Radar - 4 verschiedene Modis für Auflösung & Swath-Width - Land & Ozeanüberwachung
Meteorologische Sensoren - Überblick & Charakteristika
Überblick: - Wettersatelliten erste zivile Anwendung der Fernerkundung (TIROS-1, USA 1960) - viele Nationen betreiben eigene Satelliten (z.B. Europa (ESA) METEOSAT, Meteop)Charakteristika: - Orbits geostationär (35.800km), polnah (400-800km) - sehr große Abdeckung (eine Hemisphäere, 2/5 der Erdoberfläche) - sehr niedrige räumliche Auflösung & sehr hohe temporale Auflösung - spektrale Auflösungen: sichtbar, (NIR), MIR, TIR
Airborne Laser Scanning - Parameter
- Orientierung des Scanners (durch IMU)- Lokalisierung des Scanners (durch GPS/GNSS)- Winkel des ausgehenden Laserstrahls (bedingt durch rotating mirror & device)==> Nach diesen Informationen werden anschließend 3D-Wolken berechnet
Mehrfachreflexion
Nutzen des first und last echo um Höhenmerkmale von Objekten zu erfahren --> verschiedene Objekte haben unterschiedliche "footprints"
Thermalenergie
- wird von allen Ojekten mit einer Temperatur > 0°K emittiert- alle Dinge emittieren thermisch-infrarot-elektromagnetische Strahlung
TIR-Sensoren
- Sensoren, die auf TIR-Strahlung reagieren (3-5μm & 8-14μm)- Ozonschicht absobiert thermische Energie von 9-10μm --> Sensoren reagieren auf Strahlung im Bereich von 10,5-12,5μm
Blackbody
Körper, welcher die komplette Strahlungsenergie absobiert --> würde man einen Sensor drauf richten, könnten wir Informationen über die Gesamtmenge der Strahlungsenergie (in bestimmten Wellenlängen) & die dominierende Wellenlänge des Objektes sammeln
Stefan-Boltzmann-Gesetz
Besagt, dass der komplette spektrale Strahlungsfluss (Mb), gemessen in Watt m², proportional zum 4'ten Quadrat seiner Temperatur ist (T^4)
Wein's-Verschiebungs-Gesetz
Beschreibt die Beziehung der wahren Temperatur eines Blackbodys und seiner dominierenden Wellenlänge --> wichtig um Sensoren entsprechend zu kalibrieren
Emissivity (Emissivität)
Verhältnis des Strahlungsflusses zwischen einem realen Körper und Blackbody --> Beeinflusst durch diverse Faktoren: Farbe, Oberflächenrauheit, Feuchtigkeit, Verdichtung, Sichtfeld, Wellenlänge, Blickwinkel
Informationssysteme für Fernerkundungsdaten - Beispiele
- USGS Earth Explorer (Landsat, Sentinel etc.)- ESA Copernicus Scientific Data Hub (Sentinel)- SPOT 6/7: ASTRIUM
Eigenschaften von FE-IS
- Quicklooks & Thumbnails- Angebote von Bilddaten und "value-added-products"- Metadaten beinhalten Aufnahmebedingung (z.B Sonnenstand, Wolkenbedeckung)- Elektronische Datenbestellung
Hyperspektrale Fernerkundung
- Datenaufzeichnung in sehr engen Spektralbändern im VIS, NIR, MIR Bereich- sehr hohe spektrale Auflösung (teilweise über 100 Kanäle)- hohe spektrale Auflösung ermöglicht genauere klassifizierung- bis vor kurzem nur Luftgestützt (z.B. AVIRIS, HyMap)- erste Satelliten sind Hyperion und MODIS
Auswerteverfahren (Ablauf)
Bildtransformation = geometrische oder radiometrische Veränderung des BildesBildmessung = Gewinnung und Verarbeitung geometrischer Informationen (Geometrie)Bildinterpretation = Erkennen und Deuten der Bildinhalte (Semantik)
Ablaufschema der Bildinterpretation
1. Beschaffung der Unterlagen2. Vorinterpretation mit Hilfe von z.B. Geländeerkundungen, Vorwissen3. Detailinterpretation (klassifizieren, messen, auszählen, abgrenzen)4. Nachbereitung/Validierung (geometrisch/semantisch)5. Darstellung der Ergebnisse
(Szenen-, Bild-)Merkmale, Objekt-Signaturen
+ Möglichkeiten
Charakteristika, durch die ein Material oder ein Objekt in einem Bild identifiziert werden kann.Möglichkeiten: - Helligkeit - Form - Größe - Textur - Schatten - Muster - Gegend - Nachbarschaft
Multispektrale Klassifizierung
Zusammenfassung (Gruppierung oder Clustering) der Pixelwerte in eine begrenzte Anzahl von (spektralen) Klassen
Stufen der überwachten Klassifikation
1. Dem System in einem Trainingsgebiet Klassen zuweisen2. Das System mit Daten zur klassifizierung füttern --> System klassifiziert nun die einzelnen Pixel nach dem Trainingsgebiet3. Ausgabe des kategorisierten Datensatzes
Zuweisungsmöglichkeiten für Pixel
1. Quader-Verfahren: Es wird überprüft, ob Pixel in einem Zuweisungrahmen liegt2. Minimum-Distance-Verfahren: Es wird überprüft, zu welchem Klassenmittelpunkt der geringste Abstand besteht3. Maximun-Likelihood-Verfahren: Es wird überprüft, mit welcher Wahrscheinlichkeit ein Pixel zu einer Klasse gehört
unüberwachte vs. überwachte Klassifikation
unüberwacht: vorgegebenes Verfahren sucht nach spektral trennbaren Klassen und definiert Kriterien selbstNachteil: spektral trennbare Klassen müssen nicht unbedingt mit realen Objektklassen übereinstimmen überwacht: Nutzer legt Kriterien zur Bestimmung der Zugehörigkeitsmaße selbst fest = Nutzer identifiziert einige, eindeutige Trainingsgebiete (für jede Objektart)Nachteil: Interaktion notwendig
Trainingsgebiete
- möglichst homogen, um eine möglichst ungestörte spektrale Signatur zu erhalten- wenn möglich, mehrere Repäsentanten einer Klasse- möglichst groß und zusammenhängend- möglichst eindeutig einer Klasse zuordbar
(Prinzip der) Segmentierung
Zusammenfassung von Bildelementen aufgrund von Homogenitätsparametern (spektral oder Form) bzw. der Differenzierung zu Nachbarsegmenten
Segmentierungsansätze
- punkt-basiert: Schwellwert-Operationen (global)- kanten-basiert: Beschreibung durch Umringslinien (Kanten-Detektion & Linienverfolgung notwendig)- regionen-basiert: Auffinden von Gebieten ähnlicher Merkmale- modell-basiert: Einführung von Vorwissen
Semantikfehler
Fehler 1. Art: Auslassungsfehler --> Objekt in Wahrheit vorhanden, aber nicht erkanntFehler 2. Art: Zuweisungsfehler --> Objekt wird erkannt, in Wahrheit aber nicht vorhanden
Evaluation einer Klassifikation
- Genauigkeit der Klassifikationsergebnisse- Güte der Klassifikation durch: - visuellen Vergleich - Computergestützt (auf statistischen Parametern basierend)- Üblicherweise durch Klassifikationsfehlermatrix (error matrix) - = Konfusionsmatrix - = Kontingenztabelle - Vergleicht auf Klassenbasis das Verhältnis zwischen bekannten Daten ('Ground Truth') und den korrespondierenden Ergebnissen der Klassifikation - Quadratisch, Zeilen- & Spaltenanzahl gleich der Anzahl der Klassen- Definition von Referenzpixeln - Gleichmäßge Verteilung über das Bild - Wahrer 'Wert' aus Referenzdaten (Ground Truth)
Genauigkeitsanalyse einer Klassifikation
Gesamtklassifiaktionsgenauigkeit = Anzahl korrekt klassifiziert Pixel/Anzahl aller PixelWahrscheinlichkeit der korrekten Zuordnung der Referenzdaten zu einer Klasse:Herstellergenauigkeit = Anzahl korrekt klassifizierter Referenzpixel/Anzahl aller Referenzpixel der KlasseWahrscheinlichkeit der realen Zugehörigkeit eines Pixels zu der zugeordneten Klasse:Nutzergenauigkeit = Anzahl korrekt klassifizierter Referenzpixel/Anzahl aller zugeordneter Klassenpixel
Time Series (Zeitreihen)
- Fernerkundungszeitreihen - kontinuierliche oder unterbrochene Datenreihe - Wert ist abhängig von der Äquidistanz der Zeitpunkte - aufweisen eines periodischen, zyklischen, schwankenden oder zufälligen zeitlichen Verlaufs- Zeitreihenanalysen - z.B. zum überwachen von Oberflächenbewegungen