Statitik Grundlegende Begriffe
Grundlegende Begriffe erläutern Hartwig Vester
Grundlegende Begriffe erläutern Hartwig Vester
Fichier Détails
Cartes-fiches | 148 |
---|---|
Langue | Deutsch |
Catégorie | Affaires sociales |
Niveau | Université |
Crée / Actualisé | 08.09.2019 / 22.08.2021 |
Lien de web |
https://card2brain.ch/box/20190908_statitik_grundlegende_begriffe
|
Intégrer |
<iframe src="https://card2brain.ch/box/20190908_statitik_grundlegende_begriffe/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
QCA entwickelt von Charles Ragin basiert auf der boolschen Algebra um zu einem anderen Konzept der Kausalitt zu kommen.
Sie eignet sich für die Überprüfung konditionaler Hypothesen, um die Effekte bestimmter Kombinationen von Erklrungsfaktoren zu analysieren
QCA entwickelt von Charles Ragin basiert auf der boolschen Algebra um zu einem anderen Konzept der Kausalitt zu kommen.
Sie eignet sich für die Überprüfung konditionaler Hypothesen, um die Effekte bestimmter Kombinationen von Erklrungsfaktoren zu analysieren
QCA Boolesche Algebra
Folgende Operatoren werden unterschieden:
– + steht für das logische ODER
– * steht für das logische UND
– < steht für eine hinreichende Bedingung
– > steht für eine notwendige Bedingung
– ~ steht für das Nicht-Vorhandensein einer Bedingung bzw. die Negation einer Menge
QCA
die QCA-Daten werden in einer Wahrheitstafel erfasst und mittels boolescher Algebra auf eine
minimale Kombination aus notwendigen und hinreichenden Bedingungen erfasst
Zentrales Ziel der QCA ist dabei stets die Identifikation von notwendigen und hinreichenden Bedingungen.
Parallelanalyse
Bei der Parallelanalyse werden nur jene Faktoren extrahiert, deren Eigenwerte deutlich über den entsprechenden Eigenwerten von Zufallsdaten liegen. Es werden hierfür die Eigenwerte der empirischen Daten mit Eigenwerten basierend auf Zufallsdaten verglichen.
P - Wert
Der p-Wert informiert über die Wahrscheinlichkeit, in einer Zufallsstichprobe den beobachteten (oder einen extremeren) Regressionskoeffizienten zu schätzen
Bei einer angenommenen Irrtumswahrscheinlichkeit von α =0,05 (d.h. 5 Prozent) ist ein Regressionskoeffizient also dann statistisch signifikant, wenn der p-Wert kleiner oder gleich 0,05 ist.
orthogonale Rotation
Die orthogonale Rotation verändert die Positionen der extrahierten Faktoren im Geometrischen so, dass diese orthogonal, das heißt im Winkel von 90 Grad, zueinander stehen.
Bei obliquen (schiefwinkligen) Rotationsverfahren werden von den gängigen Statistikprogrammen zwei verschiedene Faktorenlösungen ausgegeben, welche in der sogenannten Strukturmatrix bzw. der sogenannten Mustermatrix ausgewiesen werden.
Ordnen Sie die Merkmale in der Tabelle jeweils einer analytischen Ebene zu.
Wahlbeteiligung Makro
Bildungsabschluss Mikro
politisches Interesse Mikro
Arbeitslosenquote Makro
Operationalisieren
Bei der Operationalisierung werden theoretischen Begrif-fen/Konzepten beobachtbare Sachverhalte (Indikatoren) zugeordnet.
Operationalisieren
In der theoretischen Konzepten (z.B. Vertrauen) empirische Indikatoren zugeordnet werden
Nennen Sie die vier Skalenarten nach Stevens und jeweils ein Beispiel.
Skalenart Beispiel Nominalskala Geschlecht Ordinalskala Schulnoten Intervallskala Temperatur in Celsius Ratioskala Einkommen in Euro
Multikollinaritaet
Wenn zwei oder mehrere uV eine sehr starke Korrelation aufweisen
Korrelieren die uVs in einem Regressionsmodell, hat dies zwei zentrale Folgen
(Gujarati 2004, S. 350): Zum einen lassen sich die Koeffizienten nicht mehr prä-
zise schätzen, da die erklärte Varianz der aV mehreren uVs zugeschrieben werden kann, obwohl
sie die BLUE-Eigenschaft erfüllen. Dies kann dazu führen, dass sich die Größe oder sogar das
Vorzeichen eines Koeffizienten ändert, sobald eine mit dieser Variable hochkorrelierte weitere uV
in das Modell gegeben oder aus diesem entfernt wird. Zum anderen lassen sich die Standardfehler
nicht mehr genau schätzen. Sie fallen größer aus,
MSCD
X-zentriertes Fallauswahldesign, bei dem die ähnlichsten Fälle der Grundgesamtheit (muss nicht bekannt sein) ausgewählt werden.
Experimentbasiert soll bei gleichen Rahmenbedingungen die unterschiede in der aV zu anlysieren
Messmodell der Faktorenanalyse
Ein wesentlicher Bestandteil des Messmodells der Faktorenanalyse liegt hierbei in der Dekomposition der Gesamtvarianz eines jeweiligen Items in
- einen Anteil mit anderen Items gemeinsamer Varianz (gV)
- sowie (2) einen Anteil spezifischer Varianz (sV).
Mehrebenenanalyse
Die Mehrebenenanalyse unterstellt, dass individuelle Einstellungen auch durch das soziale umfeld beeinflusst werden.
Mehrebenen sind Universitäten und Studenten
MDCD
X-zentriertes Fallauswahldesign, bei dem die unähnlichsten Fälle der Grundgesamtheit (muss theoretisch bekannt sein) ausgewählt werden
Marker Variable
für die Skalenkonstruktion nur solche Items oder Variablen beachtet werden, die besonders hoch auf einen Faktor laden und somit als sogenannte „Marker-Variablen“ für ein bestimmtes theoretisches Konstrukt gelten können.
Maximum Likelihood Methode
Das Maximum-Likelihood-Schätzverfahren als Extraktionsmethode bei der Faktorenanalyse bietet sich insbesondere an, wenn zusätzliche Gütekriterien für die gefundene Faktorenlösung berechnet werden sollen.
Logit Koeffizient
Exp(B)
ein Odds Ratio < 1 bedeutet eine geringere Chance
ein Odds Ratio > 1 bedeutet eine größere Chance
Ein Odds Ratio von 1 bedeutet einen logit Koeffizienten von 0
Logik der Situation
Während die „Logik der Situation“ historisch-spezifisch ist, beschreibt die Handlungstheorie (bei Esser auch:„Logik der Selektion“) auf abstrakte Art, nach welcher allgemeinen Regel Menschen sich zwischen Alternativen entscheiden.
LOGICAL REMAINDERS
den logical remainders, nämlich die sogenannte „complex solution“ (zum Teil auch als „conservative solution“ bezeichnet), die „parsimonious solution“ und die „intermediate solution“.
Logical remainders
verschiedene Arten des Umgangs mit den logical remainders, nämlich die sogenannte
- „complex solution“ (zum Teil auch als „conservative solution“ bezeichnet), die
- „parsimonious solution“ und die = sparsame
- „intermediate solution“.
Dabei nutzt die complex solution für die logische Minimierung nur empirisch beobachtete Wahrheitstabellenreihen, speist also in die Analyse keinerlei (theoretische) Annahmen über die logischen Rudimente mit ein. Damit ist sie zugleich auch die konservativste Lösung.
Bei der parsimonious solution werden dagegen alle logischen Rudimente, welche zu einer sparsameren Lösung führen, unabhängig von ihrem Inhalt reduziert (die sogenannte „simplifying assumption“ (Schneider und Wagemann 2012, S. 167ff.).
Bei der intermediate solution werden schließlich nur die logischen Rudimente, welche zu einer sparsameren Lösung führen und auch aus Sicht der theoretischen Annahmen des Forschenden Sinn machen, reduziert. Die Eingabe der theoretischen Annahmen geschieht mittels des QCA-Programms im Rahmen der sogenannten „Standard Analysis“ bzw. „Enhanced Standard Analysis“ (Schneider und Wagemann 2012, S. 160ff.).
Korrelationskoeffizient
Der Korrelationskoeffizient, auch Produkt-Moment-Korrelation, ist ein Maß für den Grad des linearen Zusammenhangs zwischen zwei mindestens intervallskalierten Merkmalen, das nicht von den Maßeinheiten der Messung abhängt und somit dimensionslos ist. Er kann Werte zwischen -1 und +1 annehmen.
Korrespondenzregel
Die Verknüpfung von beobachtbaren Indikatoren und einem nicht beobachtbaren Theoretischen Konzept
Konzeptuelle Äquivalenz
Konzeptuelle Äquivalenz ist gegeben, wenn die verwendeten Indikatoren das gleiche Konzept in verschiedenen Kontexten messen.
Konzeptspezifikation
Die Konzeptspezifikation bezeichnet den Schritt bei der Durchführung eines Forschungsprojektes, in dem der Forscher die Attribute derjenigen Konzepte definiert und expliziert, die er in seiner Forschung verwendet. Unter Konzeptspezifikation wird dabei sowohl die Anpassung eines bestehenden Konzeptes an die jeweiligen theoretischen oder empirischen Bedürfnisse als auch die Formulierung eines komplett neuen Konzeptes verstanden. Das (instrumentelle) Ziel beider Arten der Konzeptspezifikation ist dasselbe: Wir möchten mit einem analytischen Instrumentarium arbeiten, das uns einen möglichst klar verständlichen theoretischen Diskurs sowie die möglichst eindeutige analytische Erfassung und Abgrenzung der für unser Forschungsprojekt relevanten empirischen Objekte erlaubt.
Kontrollvariable
In einem x-zentrierten Design werden die Kontollvaiablen bewusst konstant gehalten, um Ihren möglichen Einfluss zu eliminiieren
Kontrollvariable
Der Fokus liegt in gewisser Weise auf einer einzigen Theorie: derjenigen, anhand derer der kausale Effekt theoretisch bestimmt wird. Andere Theorien dürfen dieser Spezifikation nicht widersprechen und kommen deshalb höchstens als Kontrollvariable ins Spiel.
Stattdessen handelt es sich bei den Kontrollvariablen um Erklärungsvariablen mit ebenbürtigem logischen Status, also um Alternativerklärungen des beobachteten Phänomens. Zur Illustration meiner Argumente verwende ich Studien mit großer Fallzahl auf Grundlage quantitativer Methoden.
Konsistenz
Die Konsistenz prüft also, ob ein systematischer Zusammenhang zwischen den getesteten potentiellen Bedingungen und dem Outcome besteht (analog zum Signifikanzniveau bei Regressionen).
Konkurrierend und
Komplementäre Theorien
Ganghof bezeichnet zwei Theorien als konkurrierend, wenn sie logisch inkonsistente Annahmen über die relevanten ( kausalen) Mechanismen treffen und somit nicht gleichzeitig „bestätigt“ werden können.
Nimmt eine Theorie zum Beispiel an, dass sich Nationalstaaten nur absolut besserstellen wollen, und eine andere, dass sie nur nach relativen Vorteilen gegenüber anderen Staaten streben, dann sind diese beiden Theorien eindeutig konkurrierend, denn die beiden Annahmen können nicht gleichzeitig wahr sein. Während konkurrierende Theorien dieselben Aspekte der Welt unterschiedlich modellieren, konzentrieren sich komplementäre Theorien in der Regel auf unterschiedliche Aspekte der Welt.
Konfidenzintervall
Das Konfidenzintervall ist der Bereich, in dem der tatschliche Wert der Grundgesamtheit mit großer Sicherheit, meit 95 % vermutet wird.
Konkordanzmethode
Methode der Fallauswahl, bei der die Fälle auf der aV den gleichen Wert haben; in Bezug auf mögliche uVs unterscheiden sich die Fälle
Komponenten Ladung
Komponenten-)Ladungen (L).
Diese lassen sich vereinfacht als Korrelation zwischen den gemessenen Items und den Hauptkomponenten bezeichnen und weisen einen Wertebereich von -1 bis 1 auf
Kommunalitäten
Ein Problem der Faktorenanalyse ist die Schätzung der Kommunalitäten zur Extraktion der Faktorladungen. Als Schätzwerte werden vorgeschlagen: 1) das Quadrat der multiplen Korrelation der Variablen mit allen restlichen Variablen, 2) die höchsten Korrelationskoeffizienten einer Zeile oder Spalte der Korrelationsmatrix oder 3) die iterative Anpassung, wobei von einer Eins in der Diagonalen ausgegangen wird.
Zum einen sollten die Items idealerweise hohe Kommunalitäten aufweisen, da diese einen Indikator für das „Gemeinsame“ mehrerer Items darstellen. Zum anderen sollten wie erwähnt die Faktorladungen der verschiedenen Items möglichst hoch sein
Kommunalitäten
Die Items sollten hohe Kommunalitäten aufweisen, da diese einen Indikator für das „Gemeinsame“ mehrerer Items darstellen. Die Schätzung der Kommunalitäten legt fest, wie viel Varianz eines jeden Items potenziell durch die Existenz gemeinsamer Faktoren erklärbar ist. Die Kommunalität eines Items ist auf den Wertebereich 0-1 normiert, wobei der Wert 1 angibt, dass sich 100 Prozent der Varianz eines Items auf gemeinsame Faktoren zurückführen lassen.
Kommunalitäten Die Kommunalität einer Variable gibt an, welcher Anteil der Varianz dieser Variable durch alle Faktoren insgesamt abgebildet werden kann.
Kohorteneffekte Was sind Voraussetzungen für Generationen- bzw. Kohorteneffekte?
1) Es muss eine Phase im Leben eines Menschen geben, in der für das spätere Leben zentrale, weitgehend stabile Grundorientierungen er-worben werden. 2) Es müssen abgrenzbare Zeiträume existieren, in denen die Einstellungen der Menschen nachhaltig geprägt werden
KMO Kriterium
Maß zur Überprüfung der Eignung der analysierten Items oder Variablen für die Faktorenanalyse stellt das sogenannte Kaiser-Meyer-Olkin (KMO)-Kriterium dar
King et al. (1994) nennen vier Kriterien zur Charakterisierung sozialwissenschaftlicher Forschung.
1.Das Ziel wissenschaftlicher Forschung ist Inferenz.
2.Die wissenschaftliche Vorgehensweise ist öffentlich.
3.Die Schlussfolgerungen sind unsicher
. 4.Die Gemeinsamkeit ist die Methode.
Klare Konzepte sind wichtig
Kommunikation: andere verstehen, wovon wir reden und schreiben,
Theorie: Ermöglichung kumulativer Forschung durch einen klar verständlichen theoretischen Diskurs,
Empirie: ohne klare Konzepte lassen sich keine adäquaten Messinstrumente entwickeln
Kein geeigetes Jonzept in der Literatur
Durch Re- spezifikation durch
Erhöhung der Attribute oder
reduziert um das Konzept spezifischer zu machen
die Entwicklung [radialer] Konzepte vor. Diese bestehen aus zentralen und nicht-zentralen Attributen. Die zentralen Attribute bleiben bestehen, die nicht-zentralen Attribute werden [respezifiziert].
Kalibrierung
Kalibrierung meint dabei den Prozess der Zuordnung von mengentheoretischen Werten zu den Fällen auf Basis empirischer Informationen durch den Forscher
Bei der direkten Methode der Kalibrierung wird dabei eine logistische Funktion verwendet, um die Werte zwischen den vorher qualitativ festgelegten Ankerpunkten von 1 (für volle Mitgliedschaft), 0,5 (Indifferenzpunkt, weder Mitgliedschaft noch Nicht-Mitgliedschaft) und 0 (keine Mitgliedschaft in der Menge) zu kalibrieren.
Bei der indirekten Methode der Kalibrierung erfolgt die Zuordnung der Werte (etwa von 1; 0,7; 0,3; 0) auf Basis der qualitativen Einschätzung des Forschers. Diese kalibrierten Werte für die Bedingungen und das Outcome werden in der Regel z.B. in Kalibrierungstabellen vom Forscher begründet und nachvollziehbar gemacht.