BuB
FM
FM
Kartei Details
Karten | 46 |
---|---|
Sprache | Deutsch |
Kategorie | Informatik |
Stufe | Universität |
Erstellt / Aktualisiert | 15.07.2015 / 15.07.2015 |
Weblink |
https://card2brain.ch/box/bub1
|
Einbinden |
<iframe src="https://card2brain.ch/box/bub1/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Wie funktioniert Unsharp Masking?
Erzeugt ein Kantenbild aus einem Eingabebild indem man das Eingabebild – geglätteter Version nimmt. Durch Subtraktion der Tiefpasskomponente eines „Signals“ erzeugt man Hochpass- „Signal“. Bei Addition der Hochpasskomponente zum Originalsignal kann eine Schärfung erreicht werden. (c-1) steuert die Größe des ringings und wenn c zu groß ist ringing bei scharfen Übergängen. Nachteil: Überschwingen (Artefakt, das bei scharfen Übergängen auftreten kann)=> Zonal filtering und Relayation sind 2 alternative Ansätze, das Überschwingen ("Artefakt") beim "unsharp masking" zu reduzieren.
Was ist die augenscheinliche Helligkeit (Helligkeitskonstanz)
Das visuelle System des Menschen ist weit weniger genau, die absolute Größe eines einzelnen Stimulus zu beurteilen, als relative Unterschiede zwischen 2 Stimuli zu entdecken, d. h. es ist bei absoluten Urteilen weit ungenauer als bei relativen.
Die augenscheinliche Helligkeit hängt stark von der lokalen Intensität des Hintergrunds ab.
Was misst der Gradient? +Gradientenvektor
Der Gradient beruht auf erster Ableitung (Nachteil: Anisotropie=> Kanten werden abhängig von ihrer Richtung unterschiedlich erkannt) und funktioniert durch Grauwertänderung in beiden Bildachsen. Er misst den Anstieg und in welche Richtung er geht.
Erklärung „Salt-and-Pepper“ Rauschen
Einzelne Ausreißer ohne System im Bild. Kriegt man aus dem Bild durch Medianfilter oder pixmin/pixmax. Bei pixmin/pixmax werden die zwei lokale Operatoren so definiert, dass sie einen Bildpunkt auf den größten/ kleinsten Wert seiner Umgebung (mit ihm als Mittelpunkt) setzen. Wird zuerst der eine Operator n-mal hintereinander angewandt und dann der andere, also
P = pixmax^n [pixmin^n (Bild)] (Elimination von schmalen Gipfeln)
T = pixmin^n [pixmax^n (Bild)] (Elimination von engen Tälern)
dann erzeugt das ein Bild, in dem alle Spitzen/Täler, die weniger als 2n breit waren,
abgeflacht bzw. aufgefüllt worden sind. Diese Methode wird vor Allem angewendet, wenn
das Rauschen aus isolierten Punkten besteht, vorausgesetzt, solche Punkte treten nicht als
Bildinformation auf.
Erklärung selektiver Mittelwertfilter
Bei dieser Methode wird jeder Bildpunkt mit dem Mittelwert aus einer Umgebung verglichen und wenn der Betrag der Differenz zwischen dem Bildpunkt f(x, y) und der mittleren Helligkeit seiner Umgebungspunkte μ(x,y) größer ist als eine bestimmte Schranke S, dann wird dieser Bildpunkt durch den Mittelwert aus seiner Umgebung OHNE den Zentralpunkt f(x, y) ersetzt.
Wofür Additiver…?
Die Additive Farbsynthese (auch Additive Farbmischung, Additives Verfahren, Physiologische Farbmischung oder Additionsverfahren) ist ein optisches Modell, welches das Mischverhalten von Lichtfarben beschreibt.
Im Gegensatz zur Subtraktiven Farbsynthese entstehen die Mischfarben nicht durch wiederholte Einschränkung des Spektrums, sondern durch das Hinzufügen neuer Spektralbereiche.
Ein typisches Beispiel ist das 'pixellastige' Bild bei Bildschirmen (Fernseher, Computer ...). Da sich das Bild anhand vieler kleiner Puzzleteile zusammensetzt, werden die drei Grundfarben Rot, Grün, Blau zu allen anderen Farben (die für den Menschen wahrnehmbar sind) 'addiert'.
Bei der additiven Farbsynthese ergibt sich Weiß als Summe aller eingesetzten Grundfarben (in der Abbildung oben), Schwarz als Abwesenheit von Licht (in der Abbildung unten). Weitere Beispiele siehe Additive Grundfarbe.
Wie weit muss man ein Bild diskretisieren?
So weit, dass es ohne Informatiosnsverluste wieder rekonstruierbar ist. (Shannon, Nyquist)
Welche Kategorien von Kantendetektoren kennen sie?
- Erste Ableitung: Sobel, Prewitt
- Zweite Ableitung: LaPlace,
- Gradientenfilter (lineare Gradienten, Mittelwert-Differenz-Operatoren, Laplace.-Masken, Kompass-Gradient-Masken)
- Nicht-lineare Gradienten (Robert’s Cross-Gradient, Prewitt, Sobel, Kirsch, Wallis)
Definition einer Kante
Starke Grauwertschwankung (Änderung hell=> dunkel=> hell)
Was ist ein digitales Bild?
Matrix, in der Werte eingetragen werden
Was ist Bildaddierung? Worauf müssen sie achten?
Auf den Wertebereich achten (nicht überschreiten), skalieren
Wie quantisieren sie? Anhaltspunkte? Wann nehmen Sie eine Quantisierer für höhere, wann für niedrigere Stufen?
Grauwertbereich in Klassen einteilen --> tatsächliche Grauwerte erhalten der Grauwert der Klasse, innerhalb derer sie sich befinden.
Hohe Quantisierung (viele Stufen) wenn sich innerhalb eines kleinen Bereichs große Änderungen abspielen
Niedrige Quantisierung (wenig Stufen): z.B.: homogene Bereiche
Können sie den Mittelwertfilter verwenden um Salt and Pepper Störungen zu elimineren?
Prinzipiell ja, aber man bräuchte schon große Filtermasken, um es eliminieren zu können (bzw. wird der Salt&Pepper mit zunehmender Faltungsmaske besser angeglichen) und zudem würde die Anwendung des Mittelwertfilters eine große Verschmierung (Weichzeichnung) des Bildes mit sich ziehen. Daher ist der Mittelwertfilter eher weniger geeignet Salt& Pepper zu eliminieren. Hier ist es besser auf den Medianfilter zurückzugreifen.
Welche drei Bereiche der Bildverarbeitung kennen sie?
- Graphische Datenverarbeitung (Symbol/Daten -> Bild)
- Mustererkennung (Bild -> Symbool/Daten z. B.: Statistiken, Graphen)
- Bildverarbeitung (Bild -> Bild)
Digitale Bildverarbeitung und angrenzende „Gebiete“
- Bildverarbeitung: Konzeption, Erstellung, Entwicklung von Software
- Bildbearbeitung: Manipulation von Bildern mit fertiger Software
- Computergrafik: Synthese von Bildern
- Mustererkennung: Texturerkennung, Zeichenerkennung
- Computervision: Erfassung von Gegenständen und Szenen
Frequenzraum
- Bildsignal beschrieben als Zusammensetzung aus einzelnen Grundfrequenzen (Elementarwellen)
- Koeffizienten zu einzelnen f sind die Amplituden, die denen die f im Signal vorkommen
- f sind nichts anderes als Reziprok-Werte der Wellenlängen
Frequenzraum Vorteile
- bei starker Glättung eines Bildes (da Aufwand für Unterdrückung hoher Frequenzen unabhängig von der gewünschten Glättungsstärke ist; im Ortsraum müssten lineare lokale Filter mit sehr großen Einzugsbereichen verwenden) – die Stärke der Glättung macht kaum bis gar keinen Unterschied im Rechenaufwand
- Multiplikation statt Faltung
- Beispiel Tiefpassfilterung: im Frequenzraum durch „Ausmaskierung“ der niederfrequenten Bereiche; im Ortsraum nicht so einfach
Frequenzraum Nachteile
- nicht alle Filter sind im Frequenzraum ausführbar (Medianfilter, Mittelwertfilter,…)
- zusätzlicher Rechenaufwand durch die Transformation und inverse Transformation
Ortsraum Vorteile
- Ergebnis sofort ersichtlich
- Veränderung des Kontrasts und der Helligkeit von Pixeln
- --> Manipulation von Grauwerten mit einem Punktoperator im Ortsraum (im Frequenzraum wäre diese Operation unnötig kompliziert)
Ortsraum Nachteile
- Umständliche Berechnung durch Faltung im Vergleich zu Frequenzraum
- Der Rechenaufwand für das Glätten mittels Faltung steigt nicht linear an.
Wie funktioniert die Rücktransformation in den Ortsraum?
Mit der inversen Fourier-Transformation
Glättungsfilter im Ortsbereich
Glätten im Ortsraum dient generell dem Entfernen von weißem Rauschen, welches über alle
Frequenzen gleichverteilt ist. Zur Glättung des Rauschens sollte der Filter eine Tiefpassform
haben.
- - Mittelwertfilter
- - Selektive Mittelwertbildung
- - Binomialfilter
- - Medianfilter
- - Mittel über mehrere Bilder
- - Selektives Anheben bzw. Absenken (Min- Max??)
Wie gewichtet man einen Mittelwertfilter?
- Gleiche Gewichtung, sodass die Summe 1 ist
- Bei einer 3x3 Filtermaske würde jeder Pixel mit 1/9 gewichtet werden
Was ist ein Pseudofarbbild?
Bei Pseudofarbbildern werden die Grauwerte eines Bildes in eine beliebige Farbskala
projeziert. Sprich es kommt zu einer (willkürlichen) Transformation von Messwerten in Farben.
Die Motivation dahinter ist, dass das menschliche optische System wesentlich
mehr Farbtöne als Graustufen unterscheiden kann. Ist ein großer dynamischer Bereich im
Originalbild vorhanden, kann durch Pseudofarbgebung mehr Information sichtbar gemacht
werden.
Weber-Gesetz und Weber-Fechner-Gesetz
Das menschliche optische System reagiert auf Helligkeiten nicht linear, sondern annähernd logarithmisch.
Das Weber-Fechner-Gesetz besagt, dass sich die subjektive Stärke von Sinneseindrücken logarithmisch zur objektiven Intensität des physikalischen Reizes verhält.
1834 bemerkte der Physiologe Ernst Heinrich Weber, dass ein Sinnesorgan ab einem bestimmten Intensitätsbetrag eine Veränderung registriert (differentielle Wahrnehmbarkeitsschwelle; englisch: just noticeable difference = gerade noch wahrnehmbarer Unterschied), die als Unterschied ΔR zum vorangehenden Reiz R in einem bestimmten, gleich bleibenden Verhältnis k zu diesem steht: k = deltaR / R
Wofür benötigt man die Inverse Bilddarstellung?
Im medizinischen Alltag benötigt man die Möglichkeit, die Darstellung eines Bildes zu invertieren, d. h. die Grauwerte umzukehren, und das Negativ zu betrachten. Abhängig von den Lichtverhältnissen der Umgebung lassen sich im Negativ bestimmte Strukturen mitunter besser beurteilen als im Positiv, d. h. hier im Original.
Monoton fallende Funktionen werden gerne bei Bildern angewendet, die zum dunklen Bereich hin stark nichtlinear sind. Durch die Transformation der dunklen Bereiche auf helle wird der Kontrast gleichsam umgedreht, wodurch sich für das menschliche Auge ein mehr linearer Eindruck ergeben kann.
Wie nennt sich ein Mittelwertfilter der die Abstände berücksichtigt?
Gaußfilter, Binomialfilter
Vorteile Gaußfilter
Gewichteter Einfluss der Nachbarpixel, dadurch nicht so starke Verschmierung der Kanten wie beim Mittelwertfilter. Ist isotrop (Richtungsunabhängig).
Was heißt separabel ->Bedeutung?
Eine Transformation heißt separabel, wenn (bei gleichem Ergebnis) anstelle einer 2-dimensionalen Transformation des Bildes zwei 1-dimensionale Transformationen durchgeführt werden können, wenn also z. B. zuerst alle Zeilen des Bildes 1-dimensional transformiert werden und z. B. anschließend auf dem Zwischenergebnis jede Spalte ebenfalls einer 1-dimensionalen Transformation unterzogen wird.
Bedeutung:
Die zwei-dimensionale DFT kann folgendermaßen berechnet werden:
1D DFT von jeder Bildzeile f(x,y) => F(u,y)
1D DFT von jeder Spalte von F(u,y) => F(u,v)
Welcher filter ist nicht separabel? + Abgerundete Ecken
Medianfilter: ein 2-dimensionaler m x m Median Filter unterdrückt mehr Rauschen als 2 sequentiell angewendete 1-dimensionale Filter (m x 1 Filter, d.h. horizontal; 1 x m Filter d. h. vertikal). Umgekehert kann er auch mehr Signal unterdrücken!
-
- 1 / 46
-