Statitik Grundlegende Begriffe

Grundlegende Begriffe erläutern Hartwig Vester

Grundlegende Begriffe erläutern Hartwig Vester


Kartei Details

Karten 148
Sprache Deutsch
Kategorie Soziales
Stufe Universität
Erstellt / Aktualisiert 08.09.2019 / 22.08.2021
Weblink
https://card2brain.ch/box/20190908_statitik_grundlegende_begriffe
Einbinden
<iframe src="https://card2brain.ch/box/20190908_statitik_grundlegende_begriffe/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Kalibrierung

Kalibrierung meint dabei den Prozess der Zuordnung von mengentheoretischen Werten zu den Fällen auf Basis empirischer Informationen durch den Forscher (Schneider und Wagemann 2012, S. 35).3

Bei der direkten Methode der Kalibrierung wird dabei eine logistische Funktion verwendet, um die Werte zwischen den vorher qualitativ festgelegten Ankerpunkten von 1 (für volle Mitgliedschaft), 0,5 (Indifferenzpunkt, weder Mitgliedschaft noch Nicht-Mitgliedschaft) und 0 (keine Mitgliedschaft in der Menge) zu kalibrieren.4

 Bei der indirekten Methode der Kalibrierung erfolgt die Zuordnung der Werte (etwa von 1; 0,7; 0,3; 0) auf Basis der qualitativen Einschätzung des Forschers. Diese kalibrierten Werte für die Bedingungen und das Outcome werden in der Regel z.B. in Kalibrierungstabellen vom Forscher begründet und nachvollziehbar gemacht.

INUS Bedingung

„Insufficient but Necessary part of a condition which is itself Unnecessary but Sufficient for the result“(

eine INUS-Bedingung steht für einen nicht hinreichenden, aber notwendigen Teil einer nicht notwendigen, aber hinreichenden Bedingung.

 

Beispiele einer INUS-Bedingung wäre somit jeweils die Bedingung „A“ in den beiden Termen „A*B + C*D → Y“ oder auch beispielsweise „A*B + ~B*C + D*E → Y“. Schließlich wäre beispielsweise im ersten Fall die Bedingung „A“ ein nicht hinreichender, aber notwendiger Teil des Terms „A*B“ (da sowohl „A“ wie auch „B“ gegeben sein müssen), der selbst wiederum nicht notwendig, aber hinreichend für das Outcome „Y“ ist (schließlich könnte alternativ auch der Term „C*D“ erfüllt sein).

 

INUS

INUS steht dabei für „Insufficient  nicht hinreichend but Necessary part aber notwendigen Teil of a condition which is itself Unnecessary but Sufficient for the result “(Schneider und Wagemann 2012, S. 79).

Das bedeutet, eine INUS-Bedingung steht für einen nicht hinreichenden, aber notwendigen Teil einer nicht notwendigen, aber hinreichenden Bedingung.    Der Regen wäre also hinreichend, aber nicht notwendig für die Nässe der Straße

Indikatoren

Indikatoren sind beobachtbare (manifeste) Merkmale, um ein theoretisches Konzept zu erfassen.

Sie sind durch Korresponenzregeln mit dem Konzept verbunden

Intraklassenkorrelation

Das Nullmodell stellt die Varianz der abhängigen Variable ohne
Berücksichtigung erklärender Variablen dar. Es enthält folglich nur die Regressionskonstante und
die Varianzkomponenten für die Regressionskonstante, jedoch keine unabhängige Variablen. Das
Nullmodell dient als Referenzmodell für die weiteren Modelle und erfüllt zwei wichtige Funktio-
nen.
Erstens zerlegt das Nullmodell die Varianz der abhängigen Variable auf die Individual- und die
Kontextebene. Es kann untersucht werden, welcher Anteil der Streuung der abhängigen Variable
auf Individualmerkmale und welcher Anteil der Streuung auf Kontextmerkmale, also Kontextein-
heiten wie Länder oder Gemeinden, zurückgeführt werden kann. Auf dieser Grundlage wird die
sogenannte Intraklassenkorrelation (ICC) berechnet. Die Intraklassenkorrelation gibt den Anteil
der Varianz der abhängigen Variable an, der auf die Kontextebene entfällt. Die Intraklassenkorre-
lation wird wie folgt berechnet:


Intraklassenkorrelation = Vaianz de aV Kontextebene/ Varianz der aV Individualebene + Varianz der aV Kontextebene


Der Wert der Intraklassenkorrelation liegt zwischen 0 und 1. Ein Wert von 0 deutet darauf hin,
dass die Varianz der abhängigen Variable ausschließlich auf Individualmerkmale zurückzuführen
ist. Bei einem Wert von 1 ist die Varianz der abhängigen Variable ausschließlich durch Kontext-
merkmale verursacht

Sie gibt einen Hinweis auf die Eignung einer Mehrebenenanalyse

Indifferenztabelle    und Kontingenztabelle

Die Tabelle der erwarteten Häufigkeiten = Indifferenztabelle

Darstellung der absoluten Häufigkeiten und der Randhäufigkeiten

Imputationsklassen

Bei einer gruppenspezifischen Mittelwertersetzung sollten die Befragten auf die Gruppen in den Imputationsklassen so verteilt werden, dass die mit Bezug auf eine bestimmte Variable innerhalb der Gruppen so homogen wie möglich, zwischen den Gruppen so heterogen wie möglich sind.

Hypothesen

Nullhypothesen und Alternativhypothesen

Jeder Alternativhypothese lässt sich eine Nullhypothese gegenüberstellen. Die Nullhypothese ver-
neint den in der Alternativhypothese formulierten Zusammenhang. Die Nullhypothese steht also im Widerspruch zur Alterna-
tivhypothese; sie wird mit H0 abgekürzt

 

 

 

 

 

 

Hypothesen

Hypothesen sind AUssagen über Merkmalszusammenhänge

 

Kriterien

1. Realer Sachverhalt

2. ALLGEMEINGÜLTIGE Aussage                                     Hypothesen werden stets auf der Grundlage des

3. Konditionalsatz                                                                 Forschungsstands begründet

4. Falsifizierbarkeit

Hempel - oppenheim Schema

Die Erklärung nach dem Hempel-Opppenheim-Schema bzw. Subsumptionsmodell besteht im Wesentlichen aus zwei Teilen: dem Explanandum, also dem Sachverhalt, der erklärt werden soll, und dem Explanans, der Erklärung selbst. Diese Erklärung untergliedert sich in ein allgemeines Gesetz und einer eine Antezedens- bzw. Randbedingung, die dem zu erklärenden Sachverhalt vorausgeht. (Stangl, 2022).

In einem deduktiven Erklärungsmodell, bekannt auch als Hempel-Oppenheim-Schema, werden genau solche Gesetze mit zusätzlichen Randbedingungen zur Erklärung benötigt.
 

Hoher Genralisierungsgrad von Typologien

Die richtigen Antworten sind: Die Fälle innerhalb der einzelnen Typen sind unterschiedlicher, Die Typen vermitteln weniger Informationen über die in ihnen enthaltenen Fälle

Hauptkomponenten Analyse

Hauptkomponentenanalyse analysiert einen Datensatz mit verschiedenen abhängigen Variablen, die in der Regel interkorreliert sind

Gütekriterien

Objektivität (Unabhängigkeit vom Forschenden),

Reliablität (Zuverlässigkeit) und

Validität (Gültigkeit)

Gütekriterien

Objektivität  Die Unabhängigkeit vom Forschen. Verschiedene Forscher kommen mit dem Messinstrumen t zu gleichen Ergebnis

Reliabiität   Zuverlässigkeit der Messung. Obwohl falsche Messung kommt immer das gleiche Ergebnis, das aber nicht valide ist

Validität      Gültigkeit der Messung ; es wird das  richtig erfasst was erfasst werden soll

Güte einer Skala

Bei der Rotation der Faktorenlösung wird versucht, diesem Problem zu begegnen, indem die Positionen der extrahierten Faktoren im geometrischen Raum dahingehend optimiert werden, dass hierbei idealerweise eine Einfachstruktur entsteht. Bei der Einfachstruktur laden einzelne Items möglichst hoch auf einen Faktor und weisen gleichzeitig möglichst niedrige oder gar keine (Quer- )Ladungen auf etwaige andere Faktoren auf (

Grundlagen der QCA

Bei der QCA wird das zu Erklärende, also die abhängige Variable, als Outcome bezeichnet. Die erklärenden Faktoren, mittels derer die Varianz im Outcome erklärt werden sollen, also die unabhängigen Variablen, sind die Bedingungen. Dabei wird zwischen notwendigen und hinreichenden Bedingungen für ein bestimmtes Outcome unterschieden.

Grundlagen der Faktorenanalyse

(1) die Datenreduktion,   die Informationen in einer geringeren Anzahl neuer Variablen

 (2) die Aufdeckung und Überprüfung der dimensionalen Struktur verschiedener Items und Variablen

sowie (3) die Skalenkonstruktion    Bei der Faktorenanalyse lässt sich grundsätzlich zwischen der explorativen und der konfirmatorischen Faktorenanalyse differenzieren

Grundgesamtheit  

Erläutern Sie knapp die Begriffe Grundgesamtheit, Auswahlgesamtheit und Stichprobe.

Die Grundgesamtheit umfasst alle Elemente, über die Aussagen beabsichtigt sind.

Die Auswahlgesamtheit umfasst alle Elemente, die eine Chance haben, in die Stichprobe zu gelangen.

Eine Stichprobe ist eine (zufällige) Auswahl von Elementen aus der Auswahlgesamtheit

fuzzy-set QCA

fuzzy-set QCA sowohl die Bedingungen als auch das Outcome auf Werte im Intervall zwischen 0 und 1 skaliert werden, hier sind also auch stärkere Abstufungen möglichsowohl die Bedingungen als auch das Outcome auf Werte im Intervall zwischen 0 und 1 skaliert werden, hier sind also auch stärkere Abstufungen möglich

Fuzzy set QCA

der fuzzy-set QCA sowohl die Bedingungen als auch das Outcome auf Werte im Intervall zwischen 0 und 1 skaliert werden, hier sind also auch stärkere Abstufungen möglich (z.B. Grautöne erlaubt),

Forschungsfrage

Forschungsstand

ist kumulativ: Indem Forschende auf dem bisherigen Kenntnisstand aufbauen und ihn erweitern,

vergrößert sich unser Verständnis des Sachverhalts und unser gesamtes Wissen.

Wenn Sie empirisch arbeiten, beruht ein Großteil Ihrer Forschung auf Daten, beispielsweise aus

Umfragen, qualitativen Experteninterviews oder durchgeführten Experimenten. Neben diesen em-

pirischen Informationen benötigen Sie jedoch immer auch Fachliteratur, mit deren Hilfe Sie Ihre

Methoden verankern und Ihre Hypothesen ableiten. Kurz: Sie brauchen Fachliteratur, um Ihre For-

schungsfrage zu beantworten.

Zunächst die Gemeinsamkeit: Sowohl Forschungsstand als auch eigenständige Literaturübersicht

verfolgen das Ziel, das vorhandene Wissen zu einem spezifischen Themengebiet in kompakter

Form darzustellen. Der Unterschied liegt jedoch in der Tiefe und Systematik der Auseinanderset-

zung: Der Forschungsstand ist selektiv und bezieht nur die relevantesten Quellen mit ein. Es geht

also um eine Übersicht, die eher exemplarischer Natur ist

Forschungsfragen

Deskriptive Forschungsfragen

Analythische Forschungsfragen

Relevanz

Theoretische Relevanz

Gesellschaftliche Relevanz

Forschungsdesign Nach Diekmann (2011, S. 194) werden bei der Entwicklung des For-schungsdesigns drei zentrale Entscheidungen getroffen.

 1) Festlegung der Untersuchungsebene, 2) Festlegung der Untersuchungsform, 3) Häufigkeit der Datenerhebung.

Forschungsdesign

Das Forschungsdesign ist definiert als Plan, wie das Forschungsprojekt ausgeführt werden soll, und insbesondere, wie empirische Evidenz dafür verwendet werden soll, um Antworten auf die Forschungsfragen zu erhalten. Es umfasst die betrachtete Theorie, die genutzten Daten und deren genaue Verwendung (King et al. 1994, 13).

Form der Hypothese

Wenn - dann -  Hypothese

Wenn die Person eine Frau ist, dann ist sie wahrscheinlich eine Nichtraucherin

 

Je- desto -Hypothese

Beide Variable sind mindestens ordinale Merkmale

Je höher die Bildung  dest größer das Einkommen

 

Fehlende Werte

                                              

Von Missing Completely At Random wird gesprochen, wenn die Wahrscheinlichkeit fehlender Werte in einer bestimmten Variable in keinem Zusammenhang mit den Ausprägungen dieser oder anderen in der Umfrage erhobenen Variablen steht.

Der Datenausfall ist Missing Not At Random, wenn die Wahrscheinlichkeit fehlender Werte in einer bestimmten Variable von dieser selbst abhängig ist.

Ein Datenausfall aufgrund von Missing At Random liegt vor, wenn die Antwortwahrscheinlichkeit zu einer bestimmten Frage nicht mit den Ausprägungen dieser Variable zusammenhängt, jedoch die Ausprägungen anderer untersuchter Variablen das Fehlen von Werten beeinflussen.

False positives und False negatives

False positives : Vernachlässigung negativer Effekte  eine Gefahr, die entsteht, wenn die Werte der aV durch die Fallauswahl nicht variieren: es ist nicht auszuschließen, dass die isolierte uV auch in Fällen auftritt, in der die aV einen anderen Wert annimmt

false negatives :Wenn eine Variable ihre kausale Wirkung nur unter spezifischen Bedingungen oder in Verbindung mit anderen Variablen entfaltet, wird sie nichtsdestotrotz durch Mills Methoden ausgeschlossen. Methodiker sprechen in einem solchen Fall von »false negatives« (vgl.

false positives

eine Gefahr, die entsteht, wenn die Werte der aV durch die Fallauswahl nicht variieren: es ist nicht auszuschließen, dass die isolierte uV auch in Fällen auftritt, in der die aV einen anderen Wert annimmt

Fallstudien nach M.S.Heinelt

Tabelle 1: Fallstudiendesigns

 

Fallstudientypus

Fokus

Theorieorientierung

Beispiel

Archetypisch

Grundlegend neue Phänomene, kate- gorienbildend

Theoriegenerierend

Argentinischer Popu- lismus (Peronismus)

Repräsentativ

Typisch für eine Kate- gorie

Theoriegenerierend oder/und -prüfend

Förderalismus/ Präsiden- tialismus in den USA, Pacted Transition in Uruguay, Militärregime Nigeria nach der Unab- hängigkeit

Prototypisch

Umfassende Abbildung einer Kategorie

Theorieprüfend

Brasilien als Typus eines unausgereiften, aber stabilen Parteiensystems

Least-likely

Konfirmatorisch für eine Hypothese

Theorieprüfend

Solidarität in armen chi- nesischen Dörfern

Most-likely

Diskonfirmatorisch für eine Hypothese

Theorieprüfend

Kubakrise

Deviant

Modifikation und Spe- zifikation gängiger Theorien

Theorieprüfend

Präsidentialismus in Costa Rica

Quelle: Eigene Zusammenstellung nach Van Evera (1997, S. 84), Gerring (2007), Luna und Altman (2011), Muno (2016, S. 117) und Hague et al. (2019, S. 135; 98).

Fallauswahl

Fallauswahl unterscheidet zwischen Analyseeinheit, Fall und Beobachtung.

Faktorenanalyse

Die wesentlichen Schritte der (explorativen) Faktorenanalyse bestehen hierbei
in

  • der Überprüfung der Eignung der analysierten Items oder Variablen,
  • (2)der Auswahl einer geeigneten Extraktionsmethode für die zu extrahierenden Faktoren,
  • der Bestimmung der konkreten Anzahl zu extrahierender Faktoren,
  • der Auswahl eines geeigneten Rotationsverfahrens für die Faktorenlösung sowie

der inhaltlichen Interpretation und „Sinngebung“ der bei der Faktorenanalyse identifizierten Faktoren

Faktorenanalyse

Die Faktorenanalyse dient der Datenreduktion     verschiedene items zu einer geringeren Zahl neuer Variablen zusammenzufassen

                                        der Aufdeckung der dimensionalen Struktur der Variablen  um dessen beschriebene Konstrukt reprsentierne

                                         der Skalenkonstruktion

 

-

Externe Validität

ExternGültigkeit der Schlussfolgerungen einer Studie über die Untersuchungsfälle hinaus (also ihre Generalisierbarkeit)e Validität

 

Explanans

Gesetz und Randbedingung bilden zusammen das sogenannte Explanans (das „Erklärende“). Aus dem Explanans kann nun rein logisch auf das Explanandum (das „zu Erklärende“) geschlossen werden. Dies wird als deduktiver Schluss bezeichnet. Tabelle 1 zeigt die formale Struktur einer Erklärung.

 

Explanandum

das Rätsel, das zu erklärende Phänomen. Dieses nennt die Wissenschaftstheorie Explanandum

Empirischer Geltungsbereich eines Konzepts

Extension

Einfachstruktur

Bei der Rotation der Faktorenlösung wird versucht, diesem Problem zu begegnen, indem die Positionen der extrahierten Faktoren im geometrischen Raum dahingehend optimiert werden, dass hierbei idealerweise eine Einfachstruktur entsteht. Bei der Einfachstruktur laden einzelne Items möglichst hoch auf einen Faktor und weisen gleichzeitig möglichst niedrige oder gar keine (Quer- )Ladungen auf etwaige andere Faktoren auf (

Drittvariable

Problem von Drittvariablen Bei einem Experiment wird durch Randomisierung sichergestellt, dass Experimental- und Kontrollgruppe vor der Verabreichung des Treatments vergleichbar sind. Dadurch ist der Einfluss anderer (vor allem unbekannter) Faktoren auf die abhängige Variable in beiden Gruppen gleich und der Effekt des Treatments in der Experimentalgruppe ist mit großer Sicherheit auf den Stimulus zurückzuführen. Bei einem Ex-post-facto-Design gibt es keine Randomisierung und deshalb ist ein Zusammenhang von zwei Merkmalen möglicherweise auf andere Faktoren – sogenannte Drittvariablen – zurückzuführen.

Verfälschung des Zusammenhangs durch zusätzliche Variable die mit der aV und der uV nichts direkt korrespondieren aber die Verzerrung von Ergebnissen auf Grund nicht-berücksichtigter, aber relevanter Drittvariablen (King u.a. 1994: 169).  Sie beeinflussen sowohl die aV als auch die uV . Sie werden auch Störfaktoren genannt..

Differenzmethode

Methode der Fallauswahl, bei der sich die Fälle in Bezug auf die (zentrale) uV unterscheiden, ansonsten sollten die Fälle möglichst ähnlich sein

Die Hauptkomponenten Analyse

 Das grundlegende Ziel der Hauptkomponentenanalyse besteht hierbei darin, eine lineare Kombination der (in diesem Fall) drei untersuchten Items zu bestimmen, bei welcher der größtmögliche Anteil der in den drei Items gebundenen Gesamtvarianz (GV) in einer Hauptkomponente (HK) erhalten bleibt.