3. Kapitel: Qualitative und quantitative Forschungsmethoden
Modul Wissenschaftliche Methodik (2. Semester)
Modul Wissenschaftliche Methodik (2. Semester)
Kartei Details
Karten | 24 |
---|---|
Lernende | 16 |
Sprache | Deutsch |
Kategorie | Informatik |
Stufe | Universität |
Erstellt / Aktualisiert | 07.01.2016 / 24.08.2021 |
Weblink |
https://card2brain.ch/box/3_kapitel_qualitative_und_quantitative_forschungsmethoden
|
Einbinden |
<iframe src="https://card2brain.ch/box/3_kapitel_qualitative_und_quantitative_forschungsmethoden/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Definition qualitative Methodik & typische Merkmale
Die qualitative Methodik ist in erster Linie auf die Gewinnung von Ideen und Hypothesen ausgerichtet, nicht auf möglichst präzise Messungen und repräsentative Ergebnisse.
Merkmale:
- relativ kleine Fallzahl (n < 30), i. d. R. nicht repäsentative Stichproben
- Untersuchungsergebnisse durch Beschreibung und Interpretation
- Offenheit für neuartige Ergebnisse
- freie Formen von Befragungen und Beobachtungen
Qualitative Forschung bei der Theoriebildung - verschiedene Forschungsmöglichkeiten
Focus Group Interviews: Gleichzeitige Befragung von mehreren (oft 6 - 10) Auskunftspersonen, denen Interaktionen untereinadner gestattet sind. Dadurch nähert man sich an eine natürliche Gesprächssituation an und die Teilnehmer stimulieren sich gegenseitig.
Tiefeninterviews: lange, nicht oder nur gering standartisierte Interviews
Verbale Protokolle: "Methode des lauten Denkens"
Fallstudien: Nutzung unterschiedlicher Datenquellen und Erghebungsmethoden
Auswertung qualitativer Daten - qualitative Inhaltsanalyse (Ziel und 9 Schritte)
Ziel: Durch Abstraktion das Material reduzieren, wobei die wesentlichen Inhalte erhalten bleiben.
1. Festlegung des Materials z. B. Fokusgruppe
2. Analyse der Entstehungssituation z. B. Störfaktoren
3. Formale Charakterisierung des Materials
4. Festlegung der Analyserichtung
5. Theorietische Differenzierung der Fragestellung
6. Bestimmung der Analysetechnik z. B. Zusammenfassung, Strukturierung, Explikation, Instrumente usw.
7. Definition der Analyseeinheit
8. Durchführung der Analyse
9. Auswertung und Interpretation (ggf. quantitative Analysen)
Stärken und Schwächen qualitativer Methoden
Stärken:
- spezifische Potentiale zur Theoriebildung
- intensive Analyse von einzelnen oder wenigen Fällen --> Generierung realitätsnaher Daten
- gute Anpassung an den Forschungsgegenstand im laufenden Forschungsprozess durch Offenheit und Flexibilität
Schwächen:
- typische geringe Fallzahl = relativ schwache Basis im Hinblick auf Aussagen zur "Wahrheit" theorietischer Aussagen
- keine Generalisierbarkeit und Annäherung an Objektivität von Ergebnissen, um angewandteForschung für wirtschaftliche oder politische Entscheidungen zu verwenden (qualitatve Methoden nur bei Vorstudien möglich)
- große Teile der Datenerhebung und -analyse "aus einer Hand" --> Einzelheiten des Prozesses von Datensammlung und -interpretation sind für Außenstehende oft nur begrenzt nachvollziehbar (Prozesse sollten daher genau dokumentiert werden)
Definition quantitative Methodik & Merkmale
Die quantitative Methodik ist in erster Linie auf Überprüfung von Theorien und Hypothesen ausgerichtet (Ausnahme: strukturentdeckende Verfahren).
Merkmale:
- große Fallzahlen (n >= 30)
- Anwendung statistischer Verfahren
Definition Operationalisierung & Vorgehen bzw. Beispiel
Die Auwahl / Zuordnung konkreter Mess- und Analyseverfahren zur Untersuchung abstrakter Konzepte.
Vorgehen bzw. Beispiel
- Zur Konfrontation von Theorien mit der Realität sind geeignete Methoden auszuwählen z. B. mit welcher Skala messe ich Einstellungen als Ursache für Markenwahlverhalten?
- Es muss ein statistisches Verfahren gewählt werden, mit dem man eine vermutete Beziehung zwischen Einstellungen und Markenwahl überprüfen kann.
Psychologische Konstrukte (Definition & Abgrenzung)
Psychologische Konstrukte: Merkmale, die nicht direkt messbar sind. Sie werden aus anderen messbaren Sachverhalten (indikatoren) erschlossen.
Reflektiv spezifiziertes Konstrukt: (dominierend in der Forschungspraxis) --> I1 - I5 = austauschbare Messungen des gleichen dahinterstehenden Konstruktes. Unterstellung, dass Veränderungen der unbeobachtbaren Variable zu Veränderungen aller beobachteten Indikatoren gleichermaßen (unter Vernachlässigung von Messfehlern) führen.
Beispiel: Als Beispiel für reflektive Indikatoren kann das Konstrukt Kundenzufriedenheit genannt werden: Wiederkauf- und Weiterempfehlungsabsicht als beispielhafte Indikatoren verändern sich immer in Folge und kausal verursacht durch den dahinter stehenden Faktor Zufriedenheit.
Formativ spezifiziertes Konstrukt:In diesem Modell konstituiert sich also das Konstrukt aus den es beeinflussenden Indikatoren. Damit stehen diese der latenten Variablen (hier Sozioökonomischer Status) auch kausal vor. Veränderungen eines einzelnen Indikators führen zu einer Veränderung der Latenten.
Definition Messung - zweiseitiger Vorgang*
Die Anwendung der ausgewählten Verfahren auf entsprechende Teile der Realität bezeichnet man als Messung.
1. Versuchspersonen, Objekte etc. werden mit Messinstrumenten konfrontiert
2. Messwerte (Daten) fließen zurück
Definition Interpretation*
Vergleich von Ergebnissen der Datenanalyse mit den Aussagen der Theorie --> Theorie aufrechterhalten? Modifizierungen an der Theorie vornehmen?
Probleme der Datenerhebung und -analyse
- Empirische Untersuchungsergebnisse sind nur aussagekäftig, wenn die Datenerhebung und -anlyse tatsächlich den zu untersuchenden Phänomenen gerecht werden.
- Untersuchungsdesign (mit Stichprobenziehung, Messmethoden etc.) und Realisierung muss der Problemstellung entsprechend sein.
Probleme:
- Systematische Abweichungen: Führt die Untersuchung mit all ihren methodischen Einzelheiten zu einer systematischen Abweichung vom "wahren Wert" des zu untersuchenden Gegenstandes? (Beispiel: Frage nach ökologischem Bewusstsein aufgrund der Erwünschtheit in der Gesellschaft systematisch abweichend vom wirklichen ökologischen Bewusstsein)
- Zufälligkeiten: Wir das Untersuchungsergebnis durch Zufälligkeiten (und Nachlässigkeiten) bei der Untersuchungsdurchfürhung beeinflusst? (Beispiel: Befragungszeitpunkt morgens, abends, am Wochenende etc.)
Definition Reliabilität (Gütekriterien von Messverfahren)
- Als Reliabilität (auch Verlässlichkeit genannt) bezeichnet man dei Unabhängigkeit eines Untersuchungsergebnisses von einem einmaligen Untersuchungsvorgang und den jeweiligen situativen (zufälligen) Einflüssen.
- Maß für die formale Genauigkeit wissenschaftlicher Messungen
-Hochreliable Ergebnisse müssen weitgehend frei von Zufallsfehlern sein, d.h. bei Wiederholung der Messung unter gleichen Rahmenbedingungen würde das gleiche Messergebnis erzielt werden.
Definition Validität (Gütekriterien von Messverfahren)
- Gültigkeit
- Ein Untersuchungsergebnis wird als valide (gültig) angesehen, wenn es den Sachverhalt, der ermittelt werden soll, tatsächlich wiedergibt.
- Validität setzt Reliabilität voraus; Reliabilität jedoch keine Validität.
- Gütekriterium für die Belsatbarkeit bestimmter Aussagen
- „Inwieweit misst das Testinstrument das, was es messen soll?“
Zwei Ansätze zur Reliabilitätsprüfung
1. Test-Retest-Reliabilität:
- Wiederholung einer Messung in einem angemessenen zeitlichen Abstand
- Korrelation der beiden Messungen = Maßzahl für die Reliabilität
- Voraussezung: Keine Veränderung des zu messenden Konstruktes in der Zwischenzeit
- sehr aufwendig
Parallel-Test-Reliabilität:
- Zum gleichen Zeitpunkt (d. h. meist im gleichen Fragebogen) wird eine Vergleichsmessung mit einem entsprechenden (äquivalenten) Messinstrument durchgeführt
- beide Messungen sollen bei gegebener Reliabilität hoch korreliert sein
- Schwierigkeit: Entwicklung und Identifizierung zwei äquivaltenter Messinstrumente
Cronbachs α - Reliabilitätsprüfung konkret
- Cronbachs α ist ein Maß für die interne Konsistenz einer Skala, d. h. für das Ausmaß der Übereinstimmung der Messwerte einer Skala.
- gängigste Art der Reliabilitätsprüfung reflektiv spezifizierter Konstrukte
Konstruktvalidität - Definition & Kriterien
Definition Kriterienvalidität
Kriterienvalidität bezieht sich darauf, dass die Ergebnisse einer Messung in einer bekannten Beziehung zu Messungen anderer Konzepte stehen.
anders ausgedrückt:
Kriterienvalidität ist gegeben, wenn die Messungen des betreffenden Konstruktes hoch mit den Messungen eines anderen Konstruktes korrelieren, zu dem theoretisch eine enge Beziehung besteht.
Moderatorvariable - Arten von Beziehungen zwischen Variablen
- moderierte Kausalbeziehung
Von einer Moderatorvariable spricht man, wenn der Effekt einer unabhängigen Variablen auf eine abhängige Variable durch eine zweite unabhängige moderiert wird.
Beispiel: Zusammenhang zw. Einkommen und Ausgaben für Kosmetikartikel --> Variable Geschlecht hat moderierende Wirkung (siehe Schaubild).
Mediatorvariable - Arten von Beziehungen zwischen Variablen
klassisches Experimentelles Design - 5 Merkmale
- Vormessung --> Reihenfolge von Grund und Effekt
- Zwei Gruppen: Versuchsgruppe und Kontrollgruppe --> Ausschluss alternativer Erklärungsmöglichkeiten
- Zufällige Zuordnung der Versuchsperosnen zu den beiden Gruppen --> Ausschluss alzernativer Erklärungsmöglichkeiten
- Eine "Intervention" ("Manipulation")
- Eine Nachmessung --> Reihenfolge von Grund und Effekt
(Quasiexperimente sind experimentelle Untersuchungen, die nicht allen Anforderungen gerecht werden)
Interne und externe Validität
Interne Validität: Validität von Schlüssen bezüglich Kausalität einer Beziehung zwischen zwei Variablen. Ein Schluss ist intern valide, wenn alternative Erklärungen größtenteils ausgeschlossen werden können.
Externe Validität: Bezieht sich auf die Geralisierbarkeit von Ergebnissen über verschiedene Personen, Zeiten, Situationen etc. (z. B. Wirkung eines Medikametns in Europa und Geralisierbarkeit in Asien).
-
- 1 / 24
-