Vorlesung SOWI
lernkarten
lernkarten
Set of flashcards Details
Flashcards | 71 |
---|---|
Language | Deutsch |
Category | Social |
Level | University |
Created / Updated | 09.12.2013 / 05.04.2024 |
Weblink |
https://card2brain.ch/box/vorlesung_sowi
|
Embed |
<iframe src="https://card2brain.ch/box/vorlesung_sowi/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Create or copy sets of flashcards
With an upgrade you can create or copy an unlimited number of sets and use many more additional features.
Log in to see all the cards.
Beweis: Existenz einer Skala
1) ... durch das Repräsentationstheorem
-> gibt die Bedingungen im empirischen Relativ an, die erfüllt sein müssen, damit eine homomorphe Abbildung möglich ist
-> Bedinungen = Axiome
2) Nachweis, dass die Axiome eines bestimmten Repräsentationstheorems tatsächlich erfüllt sind -> Beziehungen zwischen den Objekten werden daraufhin untersucht, ob ie in den Axiomen geforderten Eigenschaften zwischen den Objekten bestehen
-> Tranisitivität der Präferenzrelation (Sci-Fi vor Krimi, Krimi vor Heimatfilm ----> Sci-Fi muss auch vor Heimatfilm sein, sonst keine Transitivität)
---> für die meisten sozialwissenschaftlichen Messverfahren gib es keine Repräsentations- und Eindeutigkeitstheoreme -> kein Beweis möglich
Eindeutigkeitstheorem
- Klärung, welche Beziehungen zwischen verschiedenen Skalen bestehen
-> gibt an, welche mathematischen Operationen im numerischen Relativ "zulässig sind" (-> durchgeführt werden können), ohne dass die Strukturtreue der Abbildung verloren geht
- eine Skala ist eindeutig bis auf ihre zuläaasigen Transformationen (-> jeweniger Transformationen zulässig sind, desto eindeutiger ist die Skala)
Äquivalente Skalen
- unterschiedliche Skalen desselben Repräsentationstheorems
Klassifikation von Skalen/ Skalenniveau
1) Nominalskalen: erfordern auf der Ebene der Objekte die möglichkeit, die Objekte auf Gleichheit in Bezug auf die interessierende Dimension zu unterscheiden
-> jedes Objekt wird genau einer Klassse zugeordnet (z.B.: Krankheitsklassifikation)
-> Zuordnen der Zahlen = einfache Benennung
2) Ordinalskalen: erfordern zusätzlich zur Möglichkeit, Objekte auf ihre Gleichheit zu untersuchen , die Möglichkeit der Rangordnung der Objekte in BEzug auf die interessierende Dimension
-> keine athematischen Trasformationen zulässig, die die Abfolge der Zahlen ändern
-> Bsp.: Rangordnung von Schulbüchern nach Langweiligkeit
-> Schulnote: 2 ist zwar besser als 4, aber nicht doppelt so gut
3) Intervallskalen: erfordern zusätzlich zur Unterscheidungsmöglichkeit und zur Rangordnung die Möglichkeit der Angabe, dass die Unterschiede zwischen zwei beliebig aufeinanderfolgenden Objekten jeweils gleich groß sind
-> Intervalle müssen die gleiche Größe besitzen
-> entsprechenden Zahlen müsen stets selbe Differenz haben
-> Bsp.: Temperaturmessungen in Clsius, Fhrenheit und Kelvin
4) Ratioskalen: zusäzlich Möglichkeit, die Existenz eines "natürlichen Nullpunktes"zu zeigen
-> Messwert 0 entspricht der tatsächlichen Abwesenheit des gemessenen Merkmals
-> nur matheatische Transformation einer Multiplikation mit einer Konstanten ( ungleich 0) zulässig
->Messniveau einer Skala umso höher, je weniger Transformationen der Messwerte zulässig sind
vereinbartes Messen
- meisten Meesungen in Sowi basieren auf vermuteten ZUsammenhngen zwischen Indikatoren und den interessierenden Konstrukten
vereinbartes Messen
- meisten Meesungen in Sowi basieren auf vermuteten ZUsammenhngen zwischen Indikatoren und den interessierenden Konstrukten
- Bedeutsamkeitsproblem
- Festellung, welche mathematischen und statischen Verfahren bei einem gegebenen Messniveau zulssig sind
-> zulässiges statistisches Verfahren: wenn Wahrheit oder Falschheit euber statistischen Aussage unter akken zulässigen Transforamtionen der Skalenwerte unverändert bleiben (meist nur bei Messung mi Intervallskalenniveau)
Messstruktur
- empirisches Relativ, zusammen mit dem für das entspechende Repräsentations- und Eindeutigkeitstheorem erforderlichen Axiome
extensive Messstruktur
- verlangt die Existenz einer empirischen "Verkettungsoperation" zweier Objekte derart , dass das Ergebnis der Verkettungsoperation zweier Objekte der Addition zweier Zahlen entspricht
-> existiert Verkettungsoperation -> Messung erbringt Ratioskala
Klassische Testtheorie
- Mittelwert bilden
- Annahme: realisierter Messwertes besteht aus der Summe eines wahren Wertes und einem Messfehler
X = T + E
Reliabilität
- Zuverlässigkeit einer Messung
- Quotient der Varianz der wahren Werte und der Varianz der betrachteten Werte
- Reliabilität eines Messinstruments: Quadrat der Korrelation uzwischen den betrachteten Werten und den wahren Werten
-> je höher der Zusammenhang zwischen den gemessenen Werten und den tatsächlichen Werten -> desto höher ist die Reliabilität
Schätzung der Reliabilität mit verschiedenen Methoden
1) zeitliche Stabilität von Messergebnssen/ Test-Retest Methode:
- dasselbe Messnstrument wird zweimal auf dasselbe Objekt angewendet -> Annahme: wahre Werte bleiben zwischen den beiden Messungen unverändert (sehr zweifelhaft)
2) äquivalene Messung/ Parallelmessung:
- zwei verschiedene Messinstrumente werden verwendet (messen dieselbe Dimension)
- auch kaum verwednbar aufgrund fehlender ähnlicher Messinstrumente
3) Messinstrument aus mehreren Indikatoren/ Ansammlung äquivalenter Tests:7
- interne Konsistenz: Indikatoren messen diesele Dimension
- Maße der internen Konsistenz versuchen anzugeben, in welchem Umfang alle Einzelindikatoren dasslbe Konstrukt messen
-> nur selten in Praxis angewendet
2 maße der internen Konsistenz
1) Splithalf-Methode
- Instrument wird in 2 Hälften gespalten, so dass zwe Instrumente entstehen (mit jeweils der Hälfte des Instruments)
- aus Korrelation lässt sich mit der "Spearman-Brown-Formel" die Reliabilität schätzen
-> Auspaltung in zwei Hälften ist auf verschiedene Weise möglich, mit denselben Daten je nach Aufteilung der Items auf die Testhälften unterschiedliche Koeffizenten berechnet werden
-> Nachteil -> Verwendung eines anderen Koeffizienten:
---> Cronbachs Alpha Koeffizient:
- Alpha = Mittelwert allermöglichen Splithalf Koeffizienten / kann leicht aus den Korrelationen aller Items untereinander berechnet werden/ ist auch auf dichotome Items (Items mit 2 Antwortmöglichkeiten) anwendbar
- Alpha = 0-1 -> <0,8 akzeptabel
Validität
- Gültigkeit eines Messinstrumentes
- Ausmaß, in dem das Messinstrument tatsächlich das misst, was es messen sollte
- Validität kann nicht größer sein als die Quadratwurzel aus der Reabilität des Instrumentes -> aber Reabilität kann größer sein als die Validität
- Validität kann nur in Bezug auf eine bestimmte andere Messung beurteilt werden
Formen der Validität
1) Inhaltvalidität
- möglichst alle Aspekte der Dimension, die gemessen werden sollte, soll berücksichtigt werden
-> kein wirkliches Validitätskriterium
2) Kriteriumsvalidität
- Zusammenhang zwischen den empirisch gemessenen Ergebnissen des Messinstrumentes und einem anders gemessenen empirischen (externen) Kriterium
2.1 Prädikative Kriteriumsvalidität: ... besitzt ein Instrument dann, wenn
Verfizierung
auf immer und ewig gültig
Falsifikation
Widerlegung (durch mindestens ein Ereignis, welches im Widerspruch zur Hypothese steht)
-> Voraussetzung: richtige Messung der empirischen Wirklichkeit
-> je größer die Anzahl der potenziellen Falsifikatoren (-> größerer Objektbereich), desto höher ihr Informationsgehalt
Merkmale einer Hypothese
- Angabe eines Geltungsbereichs (im Idealfall ohne spezifischen Raum-Zeit-Bezug)
- Objektbereich/ Individuenbereich -> enthält potentielle Falsifikationen -> Individuen, mit Eigenschaften, die der Theorie widersprechen
- Allquantor (Aussage soll für alle Objekte im Objektbereich Geltung haben)
- 2 Prädikate (Eigenschaften der im Objektbereich angegebenen Individuen)
Ceteris-paribus-Klauser
- bei gleichbleibenden Bedingungen
Dann-Wenn-Aussagen
- Präzisiert man den inhaltlichen Gehalt der Wenn-Komponente durch die Berücksichtigung weiterer Einzelheiten, dann sinkt (bei gleichbleibender) Dann-Komponente) der Informationsgehalt.
- Steigert man den inhaltlichen Gehalt der Dann-Komponente durch die Berücksichtigung weitere rEinzelheiten, dann steigt (bei gleichbleibender Wenn-Komponente) der Informationsgehalt.
Prognose
- Randbedingung als geltend angenommen
- die der Hypothese entsprechende (zeitlich versetzte) Wirkung (Explanandum) wird kontrolliert
konventionalistische Strategie
- z.B.: treten die aus einer Theorie abgeleiteten Ereignisse nicht auf, so kann zur Rettung der Theorie immer auf Störungen hingewiesen werden, die das eintreten verhindert haben
- zunächst ceteris-paribus-Klausel (Konstanz der Randbedingungen) bezweifelt
Bedingungen für eine korrekte Erklärung
1) Das Explanandum muss logisch korrekt aus dem Explanans abgeleitet sein.
2) Im Explanans muss ein gesetz enthalten sein.
3) Das Explanans muss wahr sein.
4) Das Explanas muss empirischen Gehalt haben.
Induktiv-statistische (probabilische) Erklärung
- Komponenten sind der D-N-Erklärung gleich, aber statt einem Gesetz gibt es eine probabilistische Erklärung
- logische Deduktion von der probabilistischen Aussage auf das Explanandum gibt es nicht
- falls verschiedene probabilistische Aussagen zur erklärung desselben Sachverhalts verwendet werden, können sich logische Widersprüche ergeben, da den Objekten dann mehrere verschiedene Wahrscheinlichkeiten gleichzeitig zugesprochen werden
- nicht verifizierbar und nicht falsifizierbar
- Explanandum immer nur relativ zu den bekannten probabilistischen Aussagen erklären/ prognostizieren (da auch andere probabilistische Aussagen denkbar sind)
- nicht der Begriff "Erklärung", sondern Begriff "Begründung" vorgeschlagen
Induktive Statistik
- schließt von der Verteilung von Merkmalen in der Stichprobe auf die Verteilung von Merkmalen in der grundgesamtheit
-> empirische Verallgemeinerung, die prinzipiell empirisch testbar ist
Unvollständige erklärungen
- Abweichungen vom D-N-Modell
- 3 Formen:
- ad-hoc-Erklärungen (hypothethische E.)
- partielle Erklärung
- Erklärung mit impliziten Gesetzen
ad-hoc-Erklärungen (hypothethische E.)
- singuläre Ereignisse (bzw. unerwartete Ergebnisse einer Untersuchung) werden mit Hilfe von gesetzen "erklärt", deren empirische Bestätigung (noch) aussteht
- Problem: es können beliebig viele "passende" Theorien konstruiert werden -> Aufstellung immer neeuer Theorien mit niedrigem Informationsgehalt -> über empirische Gültigkeit nur wenig bekannt
partielle Erklärung
- aus einer sehr unpräzisen Dann-Komponente werden mehrere verschiedene Ereignisse abgeleitet
- im Zusammenhang mit funktionalistischen und system-funktionalistischen Theorien diskutiert/ kritisiert
Erklärung mit impliziten Gesetzen
- am weitesten verbreitete Form in Sozialforschung
- Ursache-Wirkungs-Verhältnisse werden interpretiert
- Verwendung von Globalvariablen als Wenn-Komponente einer Erklärung -> werden dann häufig mit unterschiedlichsten handlungsdispositionen der Akteure verknüpft
-> Problem: moderne Gesellschaften zeichnen sich durch zunehmden Entkopplung von individuellen Handlungsmöglichkeiten und kategorialen Merkmalen aus
- Problem implizite Erklärung: mögliche Verkennung vonvorhandenen empirischen Zusammenhängen
Globalvariablen
- Geschlecht, Schicht, Wohnort, Alter,..
-
- 1 / 71
-