Satellitenfernerkundung

Prüfungsfragen zur genannten Vorlesung von Dr. E. Baltsavias am D-BAUG der ETH Zürich

Prüfungsfragen zur genannten Vorlesung von Dr. E. Baltsavias am D-BAUG der ETH Zürich

Roland Schenkel

Roland Schenkel

Kartei Details

Karten 64
Sprache Deutsch
Kategorie Geographie
Stufe Universität
Erstellt / Aktualisiert 18.08.2011 / 14.04.2018
Weblink
https://card2brain.ch/box/satellitenfernerkundung
Einbinden
<iframe src="https://card2brain.ch/box/satellitenfernerkundung/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Was sind die Probleme bei der Passpunktbestimmung in urbanen Gebieten?

wiederkehrende Elemente (Fussgängerstreifen, gleiche Häuser...), viele graue (pinke :) ) Grautöne, Verkehr bzw. viel bewegtes, Schatten und Verdeckungen

Genauigkeitseinflüsse auf DTM?

Pixelgrösse, Struktur der Oberfläche, Auflösung (radiometrisch, spektral und geometrisch), Software und Parameter

Wie genau ist ein DTM mit Radar?

Ein Vortei ist, dass SAR mit grossen Wellenlängen durch die Vegetation hindurch auf die Bodenoberfläche messen kann. Die allgemeine Ground Range Resolution beträgt 1.5-3.5 Meter.

Was braucht man für die Erstellung eines Orthophotos?

Zur Orthobild-Generierung werden eine Software plus folgende Input-Daten benötigt:

Eine Satellitenbildaufnahme

DTM oder DSM

Passpunkte für die Sensororientierung

Verknüpfungspunkte zur Überprüfung der Genauigkeit

Innere und äussere Orientierung des Sensors

Wie genau sind Orthophotos?

Wenn alle Eingabedaten genau genug sind: Erwartungsgemäss unter 1 Pixel bis ca. 0.5 Pixel.

Wie genau kann man halbautomatisch messen?

Messung per Hand ca. 0.2-0.4 Pixel, halbautomatische Auswertung ca. 0.1 Pixel

Warum ist die Genauigkeit des Orthophotos schlechter als die Messgenauigkeit?

Einfluss von DTM, Elevation des Sensors, Azimut des Sensors und FOV, Passpunktgenauigkeit (Orientierung)

Was bewirkt eine hohe Elevation bei einem Orthophoto?

Ein ungenaues DTM hat weniger Auswirkungen auf das Orthophoto bei einer hohen Elevation, da dann die planemetrische Genauigkeit nicht so stark von Höhenfehler beeinflusst wird

Wozu braucht man Matching? Wie geht man vor, welche Algorithmen gibt es?

wozu: Um automatisch Verknüpfungspunkte zu generieren, welche die Ausgleichung stabilisieren

Kontrastverbesserung etc. um das Matching zu vereinfachen

Generierung von Pyramiden mit jeweils halber Auflösung des nächsten Bildes --> Näherungswerte für die nächste Stufe gewinnen

Least Square Matching, Kreuzkorrelation, Merkmalsbasiertes Matching (Merkmalspunkte, Kanten), ...

Ist die überwachte oder die unüberwachte Klassifikation besser?

Je nach Anwendung und Datenmenge (Abwägen von Arbeitsaufwand und Resultatsqualität)

Grundsätzlich liefert die überwachte bessere Ergebnisse.

Welche Klassifikationsarten ausser der multispektralen Klassifikation gibt es?

Klassifikation nach anderen Kriterien, als nach spektralen Werten: Nachbarschaft, Textur, Form, Grösse, Höhe, Schatten, zeitliche Änderungen, a priori Wissen

Wie kann man die Genauigkeit der Klassifizierung überprüfen?

Konfusionsmatrix

Vergleiche mit bestehenden Karten etc., Einzelne Punkte oder Objekte genau beobachten und testen. Grösse und Form vergleichen.

Was stellt man in der Konfusionsmatrix dar?

Vergleich Photo/Boden, Möglichkeiten und effektive Zuteilungen ? fälschlicherweise Auslassungs- und Zuweisungsanteil ? Richtigkeit der Abbildung (Prozentwert)

Erläutern Sie kurz das Prinzip des Synthetic Aperture Radar (SAR) und skizzieren Sie wie aus Rohdaten ein hochauflösendes 2D-SAR-Bild entsteht.

Es handelt sich bei SAR um ein aktives System, wo ein Sendegerät Radarwellen (Mikrowellenbereich, 1cm-1m) aussendet. Diese werden von einer Antenne in Richtung der Zielfläche gerichtet, wo sie an Objekten reflektiert und wieder empfangen werden. Dabei bewegen sich die Pulse mit Lichtgeschwindigkeit fort. Der Empfänger verstärkt dann das empfangene Signal. Es werden die Signallaufzeiten erfasst und daraus Distanzen abgeleitet.

Die erfassten Rohdaten werden nun jeweils mit einer Referenzfunktion in Range-Richtung und einer in Azimuth-Richtung komprimiert. Schlussendlich resultiert eine 2D-Darstellung des Geländeausschnitts.

Weshalb ist ein SAR ein seitwärts schauendes System und welche geometrischen Effekte ergeben sich daraus?

Die seitwärts schauende Bildgeometrie ist deshalb nötig, weil im Nadir, bedingt durch das gleichzeitige Zurückkommen der Pulse, die Oberfläche nicht mehr aufgelöst werden kann.

Allerdings ergeben sich daraus auch folgende geometrische Effekte:

Wo die Oberfläche nicht erreicht werden kann, entstehen Schatten. Beispielsweise wenn der Einfallswinkel grösser als die negative Geländeneigung ist.

Die Stauchung von Geländeobjekten wird stärker, sobald sich die lokale Geländeneigung dem Einfallswinkel annähert (Verkürzungs-Effekt).

Entspricht der Einfallswinkel der lokalen Geländeneigung, können zwei oder mehrere Punkte gleichzeitig beim Empfänger ankommen.

Im Extremfall, da der Einfallswinkel kleiner als die lokale Geländeneigung ist, kann es zu einer Umkehrung kommen. Dies insofern, dass zuerst das Spitzensignal und erst dann das Fusssignal, beispielsweise eines Berges, registriert wird.

Welche Vorteile/Nachteile hat Radar, insbesondere gegenüber optischen Systemen?

Vorteile RADAR:

fast Wetterunabhängig

Nacht und Tag einsetzbar

Multipolarisation ausnutzbar

Automatische Auswertung

Für einige Parameter besser als optische Sensoren, z.B. Bodenfeuchte, Messung von kleinen Deformationen

Kann für lange Wellenlängen den Boden (bis zu einer gewissen Tiefe) und auch Baumkronen durchdringen

Abbildung von grossen Flächen, schnelle Daten-Erfassung

Nachteile RADAR:

In gebirgigem Gelände grosse Schatten (auch Layover) wegen der Schrägaufnahme

schlecht interpretierbar, schlechtere Auflösung

wenigere „Kanäle“

oft hohe Dekorrelation (Nachteil für DEM Generierung mittels Interferometrie),

wenigere Systeme und Softwarepakete,

komplexe und aufwendige Verarbeitung

Nennen Sie einige Anwendungen, wo SAR-Daten den optischen Daten klar überlegen sind.

Generierung von DSMs/DTMs auch mit Wolken, Bestimmung von Ölflecken, Wasserflächen, Bodenfeuchte, Detektion von kleinen Deformationen, mit langer Wellenlänge kann Radar den Boden (bis zu einer gewissen Tiefe) und auch Baumkronen durchdringen etc.

Was ist SRTM?

Shuttle Radar Topography Mission, Flug des Space Shuttle Endeavour zum Zweck der Erstellung von radargestützten Fernerkundungsdaten der Erdoberfläche zwischen 60° nördlicher und 58° südlicher Breite im Jahre 2000. Erzeugtes Raster-DHM mit 90m Rasterweite

Problem: Viele Löcher über einer gewissen Höhe

Was sind die Prinzipien der Bildspektroskopie?

In der Bildspektroskopie geht es um die Analyse von hyperspektralen Daten. Die Fernerkundungssensoren gewinnen diese aus der eingegangenen Sonnenstrahlung, welche sich aus einer direkt reflektierten Komponente, einem atmosphärischen Anteil (Himmelslicht) und der Umgebungsstrahlung zusammensetzt (passives System). Von einer Geländeoberfläche, welche von der Sonne beleuchtet wird, werden somit mit einem Sensor gleichzeitig in vielen Spektralkanälen die reflektierte oder emittierte Energie von Objekten detektiert. Die am Sensor total gemessenen Signale dienen schlussendlich darum, die Pixel aufgrund ihrer spektralen Signatur zu charakterisieren, also die Objekte zu identifizieren. Ausgenutzt werden dabei die spezifischen Absorptionsbande der Materialien.

Es geht unter anderem um die eindeutige Identifikation von Oberflächenmaterialien und Spurengasen in der Atmosphäre, sowie um die Messung ihrer relativen Konzentrationen und die Darstellung der räumlichen und zeitlichen Verteilung.

Hyperspektraler Sensor, was ist das und was sind die Anwendungen?

Wichtige Anwendungen von hyperspektralen Daten:

Bestimmung von Stoffen im Wasser, Wasserqualitätsuntersuchungen

Verfolgung von Vegetationsprozessen (z.B. Zustand eines Weizenfeldes), Fortwirtschaft

Klassifikation von Vegetationsformen, Landnutzungskartierungen

Aussagen zur Nettoprimärproduktion im CO2-Zyklus

Bestimmung von Stoffen in der Atmosphäre, z.B. Abschätzung von Stickstoffkonzentrationen

Breite eines Kanals bei hypersp. Sensoren?

Enge Bandbreite, normalerweise im Bereich weniger nm.

Probleme mit Daten von hypersp. Sensoren?

kleine Breite, viele Daten, technisch aufwändiger (mehr Sensoren?)...

Wie ist das Vorgehen bei der überwachten Klassifikation?

1) Bestimmung der Art und Anzahl Klassen

2) Auswahl der Input-Daten und damit Bestimmung der Anzahl Kanäle für die Klassifikation. Auf die Frage hin, welche Daten und Kanäle für welche Objekte repräsentativ sind (bzgl. Eigenschaften).

3) ev. Benutzung abgeleiteter Kanäle, oder Reduzierung der Anzahl Klassen: Zusammenfügen von nicht trennbaren Klassen.

4) Vorverarbeitung der Bilder (Sensorkalibrierung, atmosphärische Korrektur, Artefaktereduktion etc.)

5) Bestimmung von repräsentativen Trainingsgebieten (viele kleine, nicht am Rand)

6) Überprüfung der Trennbarkeit der veschiedenen Klassen mit diversen Methoden (graphisch, z.B. Scatterplots, oder numerisch/statistisch, z.B. Divergenz, Standardabweichung Mittelwerte etc.)

7) Wahl des Klassifikations-Algorithmus

8) Nachverarbeitung der Daten, um unmögliche Ergebnisse auszuschliessen, sowie Überprüfung der Ergebnisse und ihrer Qualität (Postprocessing).

Wie ist das Vorgehen bei der unüberwachten Klassifikation?

1) Anzahl Klassen bestimmen

2) Trennbarkeit der Klassen (Scatterplot oder statistische Masse)

3) Bestimmung der Cluster (Regionssegmentierung)

4) Zuweisung der Cluster zu Klassen

5) Clustering Algorithmus: Wollte Ablauf von Folie S.16 !!