Satellitenfernerkundung
Prüfungsfragen zur genannten Vorlesung von Dr. E. Baltsavias am D-BAUG der ETH Zürich
Prüfungsfragen zur genannten Vorlesung von Dr. E. Baltsavias am D-BAUG der ETH Zürich
Fichier Détails
Cartes-fiches | 64 |
---|---|
Langue | Deutsch |
Catégorie | Géographie |
Niveau | Université |
Crée / Actualisé | 18.08.2011 / 14.04.2018 |
Lien de web |
https://card2brain.ch/box/satellitenfernerkundung
|
Intégrer |
<iframe src="https://card2brain.ch/box/satellitenfernerkundung/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Créer ou copier des fichiers d'apprentissage
Avec un upgrade tu peux créer ou copier des fichiers d'apprentissage sans limite et utiliser de nombreuses fonctions supplémentaires.
Connecte-toi pour voir toutes les cartes.
Ist die überwachte oder die unüberwachte Klassifikation besser?
Je nach Anwendung und Datenmenge (Abwägen von Arbeitsaufwand und Resultatsqualität)
Grundsätzlich liefert die überwachte bessere Ergebnisse.
Welche Klassifikationsarten ausser der multispektralen Klassifikation gibt es?
Klassifikation nach anderen Kriterien, als nach spektralen Werten: Nachbarschaft, Textur, Form, Grösse, Höhe, Schatten, zeitliche Änderungen, a priori Wissen
Wie kann man die Genauigkeit der Klassifizierung überprüfen?
Konfusionsmatrix
Vergleiche mit bestehenden Karten etc., Einzelne Punkte oder Objekte genau beobachten und testen. Grösse und Form vergleichen.
Was stellt man in der Konfusionsmatrix dar?
Vergleich Photo/Boden, Möglichkeiten und effektive Zuteilungen ? fälschlicherweise Auslassungs- und Zuweisungsanteil ? Richtigkeit der Abbildung (Prozentwert)
Erläutern Sie kurz das Prinzip des Synthetic Aperture Radar (SAR) und skizzieren Sie wie aus Rohdaten ein hochauflösendes 2D-SAR-Bild entsteht.
Es handelt sich bei SAR um ein aktives System, wo ein Sendegerät Radarwellen (Mikrowellenbereich, 1cm-1m) aussendet. Diese werden von einer Antenne in Richtung der Zielfläche gerichtet, wo sie an Objekten reflektiert und wieder empfangen werden. Dabei bewegen sich die Pulse mit Lichtgeschwindigkeit fort. Der Empfänger verstärkt dann das empfangene Signal. Es werden die Signallaufzeiten erfasst und daraus Distanzen abgeleitet.
Die erfassten Rohdaten werden nun jeweils mit einer Referenzfunktion in Range-Richtung und einer in Azimuth-Richtung komprimiert. Schlussendlich resultiert eine 2D-Darstellung des Geländeausschnitts.
Weshalb ist ein SAR ein seitwärts schauendes System und welche geometrischen Effekte ergeben sich daraus?
Die seitwärts schauende Bildgeometrie ist deshalb nötig, weil im Nadir, bedingt durch das gleichzeitige Zurückkommen der Pulse, die Oberfläche nicht mehr aufgelöst werden kann.
Allerdings ergeben sich daraus auch folgende geometrische Effekte:
Wo die Oberfläche nicht erreicht werden kann, entstehen Schatten. Beispielsweise wenn der Einfallswinkel grösser als die negative Geländeneigung ist.
Die Stauchung von Geländeobjekten wird stärker, sobald sich die lokale Geländeneigung dem Einfallswinkel annähert (Verkürzungs-Effekt).
Entspricht der Einfallswinkel der lokalen Geländeneigung, können zwei oder mehrere Punkte gleichzeitig beim Empfänger ankommen.
Im Extremfall, da der Einfallswinkel kleiner als die lokale Geländeneigung ist, kann es zu einer Umkehrung kommen. Dies insofern, dass zuerst das Spitzensignal und erst dann das Fusssignal, beispielsweise eines Berges, registriert wird.
Welche Vorteile/Nachteile hat Radar, insbesondere gegenüber optischen Systemen?
Vorteile RADAR:
fast Wetterunabhängig
Nacht und Tag einsetzbar
Multipolarisation ausnutzbar
Automatische Auswertung
Für einige Parameter besser als optische Sensoren, z.B. Bodenfeuchte, Messung von kleinen Deformationen
Kann für lange Wellenlängen den Boden (bis zu einer gewissen Tiefe) und auch Baumkronen durchdringen
Abbildung von grossen Flächen, schnelle Daten-Erfassung
Nachteile RADAR:
In gebirgigem Gelände grosse Schatten (auch Layover) wegen der Schrägaufnahme
schlecht interpretierbar, schlechtere Auflösung
wenigere „Kanäle“
oft hohe Dekorrelation (Nachteil für DEM Generierung mittels Interferometrie),
wenigere Systeme und Softwarepakete,
komplexe und aufwendige Verarbeitung
Nennen Sie einige Anwendungen, wo SAR-Daten den optischen Daten klar überlegen sind.
Generierung von DSMs/DTMs auch mit Wolken, Bestimmung von Ölflecken, Wasserflächen, Bodenfeuchte, Detektion von kleinen Deformationen, mit langer Wellenlänge kann Radar den Boden (bis zu einer gewissen Tiefe) und auch Baumkronen durchdringen etc.
Was ist SRTM?
Shuttle Radar Topography Mission, Flug des Space Shuttle Endeavour zum Zweck der Erstellung von radargestützten Fernerkundungsdaten der Erdoberfläche zwischen 60° nördlicher und 58° südlicher Breite im Jahre 2000. Erzeugtes Raster-DHM mit 90m Rasterweite
Problem: Viele Löcher über einer gewissen Höhe
Was sind die Prinzipien der Bildspektroskopie?
In der Bildspektroskopie geht es um die Analyse von hyperspektralen Daten. Die Fernerkundungssensoren gewinnen diese aus der eingegangenen Sonnenstrahlung, welche sich aus einer direkt reflektierten Komponente, einem atmosphärischen Anteil (Himmelslicht) und der Umgebungsstrahlung zusammensetzt (passives System). Von einer Geländeoberfläche, welche von der Sonne beleuchtet wird, werden somit mit einem Sensor gleichzeitig in vielen Spektralkanälen die reflektierte oder emittierte Energie von Objekten detektiert. Die am Sensor total gemessenen Signale dienen schlussendlich darum, die Pixel aufgrund ihrer spektralen Signatur zu charakterisieren, also die Objekte zu identifizieren. Ausgenutzt werden dabei die spezifischen Absorptionsbande der Materialien.
Es geht unter anderem um die eindeutige Identifikation von Oberflächenmaterialien und Spurengasen in der Atmosphäre, sowie um die Messung ihrer relativen Konzentrationen und die Darstellung der räumlichen und zeitlichen Verteilung.
Hyperspektraler Sensor, was ist das und was sind die Anwendungen?
Wichtige Anwendungen von hyperspektralen Daten:
Bestimmung von Stoffen im Wasser, Wasserqualitätsuntersuchungen
Verfolgung von Vegetationsprozessen (z.B. Zustand eines Weizenfeldes), Fortwirtschaft
Klassifikation von Vegetationsformen, Landnutzungskartierungen
Aussagen zur Nettoprimärproduktion im CO2-Zyklus
Bestimmung von Stoffen in der Atmosphäre, z.B. Abschätzung von Stickstoffkonzentrationen
Breite eines Kanals bei hypersp. Sensoren?
Enge Bandbreite, normalerweise im Bereich weniger nm.
Probleme mit Daten von hypersp. Sensoren?
kleine Breite, viele Daten, technisch aufwändiger (mehr Sensoren?)...
Wie ist das Vorgehen bei der überwachten Klassifikation?
1) Bestimmung der Art und Anzahl Klassen
2) Auswahl der Input-Daten und damit Bestimmung der Anzahl Kanäle für die Klassifikation. Auf die Frage hin, welche Daten und Kanäle für welche Objekte repräsentativ sind (bzgl. Eigenschaften).
3) ev. Benutzung abgeleiteter Kanäle, oder Reduzierung der Anzahl Klassen: Zusammenfügen von nicht trennbaren Klassen.
4) Vorverarbeitung der Bilder (Sensorkalibrierung, atmosphärische Korrektur, Artefaktereduktion etc.)
5) Bestimmung von repräsentativen Trainingsgebieten (viele kleine, nicht am Rand)
6) Überprüfung der Trennbarkeit der veschiedenen Klassen mit diversen Methoden (graphisch, z.B. Scatterplots, oder numerisch/statistisch, z.B. Divergenz, Standardabweichung Mittelwerte etc.)
7) Wahl des Klassifikations-Algorithmus
8) Nachverarbeitung der Daten, um unmögliche Ergebnisse auszuschliessen, sowie Überprüfung der Ergebnisse und ihrer Qualität (Postprocessing).
Welche Typen von Sensoren gibt es im Bezug auf ihre spektralen
Eigenschaften?
Panchromatisch, multispektral, hyperspektral und Radar (ganz selten Laser)
Welche Algorithmen werden bei der Klassifikation verwendet?
Nearest Neighbour, Parallelepiped, Maximum Likelihood
Nenne einige Namen von Softwarepaketen
ERDAS Imagine, PCI Geomatica, ENVI, IDRISI
Wie genau kann ein wohl definierter und signalisierter Punkt gemessen
werden?
Mit einer Genauigkeit von 0.2 - 0.3 GSD.
Was ist ein Pan-Sharpended Image?
Eine Kombination von einem multispektralem Bild (geringere Auflösung) und einem panchromatischen Bild (höhere Auflösung). Resultat: Hochauflösende Farbbilder. Dank Ausnutzung aller Farben bei panchromatischen Bildern sind wegen der höheren Energiedichte g
Zählen sie mal die Anwendungsbereiche von SaFe auf?
Hydrometeorologie: Schneeschmelze-Vorhersagen (Schneebedeckungskarten mit Satellitendaten erstellen --> Kombinieren mit Meteodaten --> Datenbank/GIS) Erstellung von Landnutzungskarten
Kataster
Geologie und weitere Naturwissenschaften
Naturkatastrophen
Militär
Wetter
DTM
Orthobilder
Für welche Anwendungen benötigen Sie eine hohe temporale Auflösung?
Katastrophen, Umwelt- und Vegetationsbeobachtungen, Monitoring, Landwirtschaft, Landnutzung und Bodenbedeckung, Militär
Produkte der Satellitenfernerkundung?
Grossflächige DHM’s (je nach dem sogar Weltweit)
Orthophotos
Karten zu umwelt-/politischen Analysen, schnelle Übersicht in Katastrophengebiet
Daten der Militärspionage ;-)
Was für ein Sensor (welches Spektrum) würden Sie benutzen, um Überschwemmungen zu detektieren?
Radar, da aufgrund Reflexionseigenschaften Wasser gut erkennbar ist...
Oder Bildspektroskopie mit mehreren Spektren zur Detektion von Wasser mit hohem Sedimentsgehalt. Die Spektren aus dem Infrarot-Bereich sollten hierbei die beste Auskunft geben.
Welche Arten von (optischen) Sensoren werden häufig verwendet und warum?
Vor allem Linien-CCDs. Aufgrund des stabilen Orbits von Satelliten (im Vergleich zu Flugzeugen), ist die Orientierung eines Zeilensensors trotz allem relativ einfach, die Zeilen CCDs sind billiger als die Flächen CCDs, einfacher herzustellen und brauchen weniger Platz
Vor- und Nachteile von Linien-CCD gegenüber Flächen-CCD?
Vorteile: Zeilensensoren ermöglichen im Gegensatz zu Flächensensoren grössere Bildformate und eine Mehrfachüberdeckung.
Zeilensensoren ermöglichen zudem eine höhere Auflösung bei geringeren Kosten.
Flächensensoren werden somit selten verwendet.
Nachteile: CCD-Zeilensensoren haben eine bedeutend kompliziertere Sensormodellierung (die Flächen-CCDs sind einfacher zu modellieren). Pro Bild gibt es mehr als eine Äussere Orientierung, jede Zeilenaufnahme besitzt ihre eigenen Orientierungswinkel und Positionskoordinaten.
Sensor mit einer linearen CCD. Wie ist die Geometrie (a) in Zeilen-, (b) in Flug-Richtung?
a) Die Basisgeometrie in Zeilenrichtung ist perspektivisch (Zentralprojektion)
b) jene in Flugrichtung (also zwischen den Zeilen) quasi-parallel bzw für Nadir-Viewing quasi-orthogonal (orthographisch).
Was für systematische geometrische Fehler können bei einem Sensor mit einer linearen CCD auftreten?
Nicht konstante oder falsche Brennweite
Anderer Bildhauptpunkt
Geometrische Verzeichnung
CCD Zeilen sind nicht kollinear oder nicht parallel zueinander (Rotation)
CCD Zeilen oder ihre Bestandteile in der Fokal-Ebene sind verschoben
Krümmung der Zeile
Diese Fehler können mit Zusatzparametern modelliert werden.
Die ersten drei Probleme können auch bei Flächen-CCDs auftreten.
Falls keine Passpunkte vorhanden sind, wie kann man die äussere Orientierung bestimmen?
GPS, INS, Startracker auf dem Satellit
Ephemeriden (Vektorform der Kepler-Bahnelemente) ?
Wie erfolgt häufig die geometrische Modellierung von linearen CCDs?
RPCs (Rational Polynomial Coefficients) sind ein approximatives Sensor-Modell (das strenge Modell wird durch die RPCs ganz gut approximiert). Es sind die Koeffizienten für eine rationale Transformationsfunktion vom Objektraum (3D) in den Bildraum (2D) bzw. für die Beziehung zwischen 3D-Objektkoordinaten und Sensorkoordinaten (Linien- oder Flächensensor). Sie werden aus den Satelliten-Ephemeriden und der Sensorstellung abgeleitet.
-
- 1 / 64
-