Produktionstechnik audiovisueller Medien II (TH Köln)
Hier sind einige Karten, um für den theoretischen Teil der Klausur "PAM II" zu üben.
Hier sind einige Karten, um für den theoretischen Teil der Klausur "PAM II" zu üben.
Kartei Details
Karten | 73 |
---|---|
Sprache | Deutsch |
Kategorie | Elektrotechnik |
Stufe | Universität |
Erstellt / Aktualisiert | 21.09.2016 / 05.02.2020 |
Weblink |
https://card2brain.ch/box/produktionstechnik_audiovisuelle_medien_ii_th_koeln
|
Einbinden |
<iframe src="https://card2brain.ch/box/produktionstechnik_audiovisuelle_medien_ii_th_koeln/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
[Messgeräte]
Welche Messgeräte und deren Eigenschaften kennst du?
Oszilloskop
Waveform-monitor (WFM)
- Video Spezialoszilloskop das ausschließlich zur Analyse von genormten Videosignalen eingesetzt wird
Vektorskop
- Messgerät zur Darstellung der "Farbvektoren"
Waveform Rasterizer
moderne WTMs und Oszilloskope ahmen die Eigenschaften von CRT-Technologie nach, indem sie ein Rastersignal generieren, das z.B. auf einem LCD dagestellt wird
Was ist BER?
BER = Bit Error Rate
Übertragungsfehler lassen sich über Messung der Bit Error Rate (BER) messen
Problem: in wunschgemäß arbeitenden Systemen, z.B. mit 6dB
Headroom, ist keine BER messbar à digitale Systeme arbeiten
generell in Umgebung die frei von zufälligen Fehlern ist!
häufiger anzutreffen:
• sog. „burst errors“ aufgrund von einstreuenden Pegelspitzen in
größeren zeitlichen Abständen
• z.B. durch Übersprechen / crosstalk, abhängig von benachbarten
Signalen die veränderlich sind
• z.B. durch schlechte elektrische Verbindung aufgrund mechanischer
Belastung der Steckverbindung
Was ist Errored Second?
Besseres Maß als BER
Angabe wann zuletzt ein Fehler aufgetreten ist.
Hintergrund: insbesondere bei Burst-Fehlern kommt es für die
Fehlerwahrnehmung nicht auf die Stärke/Häufung an, sondern auf
die Verteilung/Häufigkeit pro Zeitintervall
Was ist Jitter?
zeitliche Signalschwankung, die sich auf die Taktgenauigkeit der einzelnen Bits auswirkt
mögliche Ursachen:
– zu lange Übertragungswege
– falsche Synchronisation
– Gerätedefekte
Jitter kann im Augendiagramm erkannt werden, bevor er sich
auf das Bild auswirkt
Was ist ein Augendiagramm?
„Eye-Pattern diagram“, Wellenformdarstellung.
graphische Darstellung der Signalqualität: Summation der statistisch verteilten möglichen Signalverläufe
„Augenöffnung“ ist Maß für die Genauigkeit einer Signalübertragung
--> je größer das Auge desto besser die Qualität
Jitter und return loss (Rückflussdämpfung) direkt erkennbar. Jitter in den Schnittpunkten (vertikal).
Wie funktionieren Stresstestes (SDI und HD-SDI)?
SDI
Testverfahren für digitale Übertragungssysteme werden auch
als „Stresstests“ bezeichnet
– out-of-service Tests: keine „normalen“ Bildinhalte, sondern solche,
die die Bitfehlerrate frühzeitiger ansteigen lassen
– in-service Tests: Übertragung bestimmter Bitmuster im Ancillary-
Bereich des (HD-)SDI-Datenstroms
– à dann Abschätzung möglich, wie weit die Übertragungsstrecke
von der digitalen Klippe (Totalausfall des Signals) entfernt ist
• kritisch vor allem: Kabelentzerrung und Taktrückgewinnung
– Test mittels pathologischer Signale: legale Tokens, aber bringen
System an seine Grenze
HD-SDI
CRC: Cyclic Redundancy Check
– Fehlererkennungsverfahren bei HD-SDI auf Grundlage des CRC-
Verfahrens
– Prüfdaten aus jeder Zeile des Videosignals werden ermittelt und
übertragen
– ansonsten analog zu EDH
Was ist mit Gamut-Fehler gemeint?
Begriff Gamut beschreibt die Grenzen eines definierten
Farbraums
• Aufnahme und Wiedergabe geschehen idR im RGB-Farbraum
• die Signalbearbeitung im Studio und die Übertragung geschieht
aber im YC B C R -Farbraum – dieser ist anders als der RGB-
Farbraum
• Konvertierung von einem Farbraum in einen anderen im Laufe
der Produktionskette kann zu Clipping oder Fehldarstellung
derjenigen Farben führen, die außerhalb des Zielfarbraums
liegen
• solche Farbraumverletzungen werden als Gamut-Fehler
bezeichnet
Welche Formen des Kamertrackings kennst du?
optisches Tracking
- Mustererkennung
- mit Hilfkameras
Sensor-Tracking
- Sensoren im Stativfahrwerk
NCAM-Tracking
-Hilfskameras mit zusätzlichen Sensoren
Hintergrundgestaltung von Studios. Welche Technologien kennst du?
Operafolien:
- von hinten beleuchtet
- keine Abschätzung des Abstands durch fehlende Kanten
- Studio wirkt größer
- für gebogene Flächen ungeeignet
Rückprojektoren:
- muss entzerrt werden --> sehr aufwendig
- wartungsintensiv
altern nicht gleich (Projektoren)
- Austausch einzelner Projektoren
Was ist der Moiré-Effekt?
Aufgrund von Zeilenabtastung kann es bei feinen Strukturen zu einer Unterabtastung kommen, wodurch Interferenzfelder entstehen
In welchem bereich wird welche Abtastrate genutzt?
4:2:0 - CF-Bereich bei MPEG2/4 genutzt
4;1:1 - Mini DV
4:4:4 - Kino Postproduktion
4:2:2 - Farbdifferenzsignal Standard
Erkläre das Grundprinzip von MPEG-4
- Bild wird in sogenannte Makroblöcke unterteilt
z.B 16x16 px für Luminanz, 8x8 für Chrominanz
unterteilbar in Partitionen und Sub-Makroblöcke
Bewegungsschätzung und -kompensation
Bewegungsvektoren für Sub-Makroblöcke auf 1/4 Pixel genau
- Transformation in Frequenzbereich (Integertransformation)
- Skalieren und quantisieren der Koeffizienten
- Entropiecodierung
Was sind Slice Groups?
- Makroblöcke in Slices organisiert
- Bild in ein/mehrere Slice Groups unterteilt
- Zusammenfassung von unabhängigen Bildbereichen möglich
- Schutz gegen Übertragungsfehler, da Makroblöcke aus benachbarten Blöcken rekonstruiert werden können
Warum braucht man einen Deblocking-Filter?
Wahrgenommene Qualität: Block-Artefakte besonders störend
Ursache: zu geringes Bitreservoir bei starker Quantisierung
--> In-loop Deblocking Filter:
- höher wahrgenommene Qualität
- Kompressionsgewinn: 5%-10%
Was ist Nominalempfindlichkeit?
Grundempfindlichkeit („Nominalempfindlichkeit“) einer Kamera
beruht auf Angabe der Blendenzahl die erforderlich ist, um bei
gegebener Beleuchtungsstärke E den vollen Videosignalpegel
zu erreichen
dazu folgende Messbedingungen:
– Beleuchtungsstärke E = 2000 lx bei Kunstlicht (3200 K)
– Verwendung einer "Weißkarte" mit 89,9 % Remission (= diffuse
Reflexion)
– Verstärkung der Kamera ausgeschaltet (Gain = 0 dB)
Dann: Blende am Kameraobjektiv so einstellen, dass auf dem
Oszilloskop das Videosignal exakt Weißpegel (=100%) aufweist
--> Der dann abgelesene Blendenwert (mit k oder F in
Datenblättern bezeichnet) ist die (Grund)Empfindlichkeit der
Kamera
[Übertragungsschnittstellen]
Nenne Eigenschaften des Serial Digital Interface ((SD-)SDI)
Abtastung: 4:2:2
Auflösung: 480i, 576i
Datenrate: 270 Mbit/s
Übertragungskabel: Koaxialkabel mit 75Ω Impendanz oder Lichtwellenleiter möglich
[Übertragungsschnittstellen]
Nenne Eigenschaften des High Definition Serial Digital Interface (HD-SDI)
Abtastung: 4:2:2
Auflösung: 1080i, 720p
Datenrate: 1,485 Gbit/s
Übertragungskabel: Koaxialkabel mit 75Ω Impendanz oder Lichtwellenleiter möglich
Sonstiges: Nahezu identisch mit SD-SDI
[Übertragungsschnittstellen]
Nenne Eigenschaften des Dual Link und des 3G Serial Digital Interface (Dual Link, 3G-SDI)
Dual Link:
Abtastung: 4:4:4
Auflösung: 1080p
Datenrate: 2.97 Gbit/s ~ 3Gbit/s
Übertragungskabel: Koaxialkabel mit 75Ω Impendanz
Sonstiges: Es wird eine parallele Übertragung mit Hilfe von zwei Leitungen genutzt
3G-SDI:
Abtastung: 4:4:4
Auflösung: 1080p
Datenrate: 2.97 Gbit/s ~ 3Gbit/s
Übertragungskabel: Koaxialkabel mit 75Ω Impendanz
Sonstiges: Es wird mit Hilfe der doppelten Übertragungsgeschwindigkeit eine doppelte Datenrate erreicht.
[Übertragungsschnittstellen]
Nenne Eigenschaften des Serial Digital Interface (6G-SDI)
Abtastung: 4:4:4
Auflösung: 4K (3840x2160
Datenrate: 5,94 Gbit/s ~ 6 Gbit/s
Übertragungskabel: Koaxialkabel mit 75Ω Impendanz
Sonstiges: Die Übertragungsgeschwindigkeit eines 3G-SDI wird erneut verdoppelt.
[Übertragungsschnittstellen]
Nenne verschiedene digitale Consumer-Schnittstellen und deren Eigenschaften
- HDMI: Übertragung von Audio und Video
- DVI: Übertragung von analogen und digitalen Signalen
- DisplayPort
- Mini-DisplayPort
- FireWire
[Bildformate]
Nenne verschiedene Bildformate und deren Eigenschaften
576i/25:
- 576 Zeilen mit 50 Halbbildern (= 25 Vollbilder)
1080i/25:
- 1080 Zeilen mit 50 Halbbildern (= 25 Vollbilder)
720p/50:
- 720 Zeilen mit 50 Vollbildern
- HD-Ready (Zwischenformat SD/HD)
1080p/24:
- 1080 Zeilen mit 24 Vollbildern
- wird auch auf Blue-Rays genutzt
[Interlacing]
Beschreibe die Eigenschaften von Interlaced und Progressive
Interlaced:
- Es werden Halbbilder generiert, bei denen jeweils immer eine Zeile übersprungen wird
- Wurde vor Allem bei analogen Systemen genutzt
Vorteile:
- Das Wahrnehmen von Flimmern auf dem Bildschirm ist nicht mehr so stark
Nachteile:
- Schnelle Bewegungen werden nicht richtig dargestellt (Halbbilder passen nicht zusammen --> "Zähnchen"-Bildung)
Progressive:
- Bei einem progressiven Signal werden Vollbilder generiert.
Vorteile:
- Es entstehen keine "Zähnchen"
- Schnelle Bewegungen sehen gut aus
Nachteile:
- Es sind nur kleinere Framerates möglich
[Interlacing]
Beschreibe verschiedene Deinterlacing-Methoden
Weaving:
Beim Weaving werden zwei Halbbilder zu einem Vollbild zusammengesetzt und zweimal angezeigt.
Vorteil: Framerate bleibt gleich
Nachteil: Vollbilder sehen evtl komisch aus, da Halbbilder nicht zusammenpassen
Skip-Field:
Beim Skip-Field-Verfahren werden alle Vollbilder aus jeweils einem Halbbild generiert. Dabei wird jede Zeile doppelt angezeigt, um auf die volle Auflösung zu kommen.
progrssive segmented Frame (psF):
Sonderform bei der progressive Videos segmentiert werden und als Interlaced gespeichert werden. So kann im Nachhinein ein Interlaced-Video durch Weaving verlustfrei rekonstruiert werden.
[Quantisierung]
Wie kommt man von einer Bittiefe zu den möglichen Quantisierungsstufen?
Beispiel: 8 Bit
--> 2^8 = 256 mögliche Stufen
[Datenrate]
Wodurch ergibt sich die Datenrate?
Datenrate = Quantisierung [bit] * Abtastrate [1/s]
Dabei setzt sich Quantisierung wie folgt zusammen:
Farbtiefe * Auflösung * Anzahl der Kanäle * Abtastung
[Abtastung]
Wie funktioniert die Farbunterabtastung? Was bedeutet z.B. 4:4:4, 4:2:0 und 4:1:1?
Um die Datenrate von Signalen zu verkleinern wird oft eine Farbunterabtastung genutzt. Dabei wird das Signal in 3 Teile gesplittet. Luminanz + 2 Chrominanz-Kanäle.
Der Luminanzkanal wird in voller Auflösung dargestellt. Die Farbkanäle mit jeweils kleinerer Auflösung.
4:4:4 - keine Farbunterabtastung. Alle Kanäle haben die gleiche Auflösung
4:2:0 - vertikale und horizontale Unterabtastung. Jeweils jede zweite Zeile und Spalte nutzen die gleichen Farbwerte wie davor.
4:1:1 - horizontale Unterabtastung. Jede 4 Spalte beinhaltet Farbinformationen, die für die Pixel dazwischen genutzt werden.
[YUV]
Wie kommt man von einem RGB-Signale zu einem YUV-Signal?
Y = 0,299R + 0,587G + 0,114B
U = 0,493 (B-Y)
V = 0,877 (R-Y)
[Videoschnitt]
worin unterschieden sich additive und nicht-additive Bildmischungen?
additiv: Pegel beider Signale wird addiert
nicht-additiv: Der jeweils höchste Pegel der Signale wird genutzt
[Videoschnitt]
Welche Schnittarten kennst du? Wie zeichnen sich diese Arten aus?
Hartschnitt (Cut): Wechsel von einem Bild zum nächsten ohne Bilder zu vermischen.
Mix/Dissolve (Bildmischung): Beide Bilder laufen langsam ineinander. Einfache Blende.
Trickblende, Wipe (Teilfläche der Ausgangsbilder): Bilder liegen aufeinander und werden von links nach rechts oder anders herum ausfgedeckt.
Wipe mit Soft-Edge: Wie normaler Wipe. Übergang ist keine klare Kante sondern ein Verlauf.
Digital Video Effects: Alles ist möglich wie beispielsweise 3D-Effekte und so weiter.
Picture-in-Picture (PiP): Ein kleineres Bild wird innerhalb eines größeren angezeigt.
Stanzverfahren (Keying): Eine Refferenz im Bild wird genutzt, um den Rest auszustanzen und auf einen beliebigen Hintergrund zu legen. Es gibt versch. Verfahren.
1) Luminanz-Key - Helligkeitsinformationen werden genutzt.
2) Chroma-Key - Farbwerte werden genutzt. Traditionell Bluescreen (Analog), Greenscreen (Digital)
Linear-Key - Ein Teilbild im Vordergrund, bei dem der Hintergrund durchscheint. Beispiel: Bauchbinden
Down Stream Key - Keyer, der vor dem Ausgang des Mischers zum Einsatz kommt. Genutzt, um z.B. Logos anzuzeigen.
Farbflächen - Kann genutzt werden, um Schatten oder Ränder von PiP zu generieren
Fade to Black - Ein Mix zu Schwarz
[Timecodes]
Wie sind Timecodes allgemein aufgebaut und was für eine Funktion haben sie?
Editiervorgänge erfordern in der Regel die genaue Lokalisierung jedes Bildes. Dabei müssen Bild unf Ton synchron sein.
Tape-Time: Beschreibt eine relative Zählung. Willkürlicher Startpunkt
Timecode: Absoluter und eindeutiger Wert.
Insgesamt 8 Ziffern mit jeweils max. 4 Bit codiert:
hh:mm:ss:ff
mit
h = Stunde
m = Minute
s = Sekunde
f = Frame
In der Praxis wird eine Kombination aus VITC und LTC genutzt, um beide Vorteile zu nutzen.
Vorraussetzung für fehlerfreies Zusammenspiel der Studioinfrastruktur: Absolute Synchronität der Bildgeneratoren --> Alle Geräte haben einen zentralen Studiotakt.
(Taktung unterscheidet sich bei SD und HD Signalen aufgrund der versch. Zeilenzahlen)
-
- 1 / 73
-