VO Methoden der Sozialwissenschaft - Vertiefung
Hirschle, Globisch Universität Innsbruck
Hirschle, Globisch Universität Innsbruck
Fichier Détails
Cartes-fiches | 57 |
---|---|
Langue | Deutsch |
Catégorie | Affaires sociales |
Niveau | Université |
Crée / Actualisé | 12.06.2014 / 30.08.2018 |
Lien de web |
https://card2brain.ch/box/vo_methoden_der_sozialwissenschaft_vertiefung
|
Intégrer |
<iframe src="https://card2brain.ch/box/vo_methoden_der_sozialwissenschaft_vertiefung/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Anwendungsgebiete quantitativer Methoden
Man prüft und wendet deskriptiv Untersuchungen, Hypothesen/Theorien und Evaluationsstudien an
- Deskriptive Untersuchungen
- Beschreibung des Untersuchunsgegenstands
- Bsp. Einkommensverteilung innerhalb einer Gesellschaft
- Prüfung von Hypothesen und Theorien
- Untersuchung von Zusammenhängen und Ursache-Wirkungsbeziehungen
- aus abstrakten Theorien werden konkrete Hypothesen abgeleitet, operationalisiert und
empirisch überprüft - Einsatz statistischer Verfahren
- Evaluationsstudien
- Ziel: Ermittlung der Wirksamkeit einer bestimmten Maßnahme -> bspw. Politische Maßnahme
- Vergleich von Test- und Kontrollgruppen
- anwendungsbezogene Forschung
- Bsp. Sozialpolitik: Wirksamkeit einer Bildungsmaßnahme zur Wiedereingliederung von Langzeitarbeitslosen
Was ist die Grundform der Hypothese bei Studien, in denen es um die Analyse von Ursache- Wirkungs-Zusammenhängen geht?
Wenn -> dann umgekehrtes Alphabet u vor a
UV(Unabhängige Variable) -> AV(abhängige Variable) = Ursache- Wirkungsbeziehung
- UV = Bedingung -> WENN (Ursache)
- AV = Folge, Konsequenz -> DANN (Wirkung)
Unterschied zwischen Theorie, Hypothesen und Operationalisierung!
Theorie als Modell wird zur Hypothese welche operationalisiert wird -> im OP wird Indikator angelegt
In quantitativer Forschung geht es um die Prüfung von Theorien und Hypothesen
- Theorien als Modelle vermuteter Bedingungen und Zusammenhänge anhand von Fachliteratur oder früherer empirischer Studien
- Hypothesen werden davon abgeleitet
- und in operationalisierter Form geprüft = Operationalisierung
- mittels Konfrontation von Theorien und sozialer Realität bzw. Erstellen von Korrespondenzen zwischen empirischen Daten und theoretischen Aussagen
- legt fest, welche Indikatoren/Variablen zur Messung eines theoretischen Konstrukts herangezogen werden
Unterschied zwischen Experimenten und Quasi-Experimenten?
Um Experiment machen zu können braucht man willkürliche (randomisierte) Versuchspersonen, die man UNTER UMSTÄNDEN (uU/UV) manipulieren kann -> quasi/ naja kein kausaler Zusammenhang weil nach Eigenschaften ohne Manipulation ausgesucht wird
- Experimente
- Die Unterscheidung von UV und AV muss möglich sein -> die UV geht der AV stets voraus
- Die Daten müssen von mindestens 2 Probandengruppen verglichen werden
- Hypothesen werden geprüft, indem die UV gezielt manipuliert wird -> der Einfluss der Störvariable wird kontrolliert durch Konstanthaltung der Versuchsbedingungen, Elimination, Randomisierung oder Paralellisierung
- Quasi-Experimente
- Die Zuweisung der Versuchspersonen zu den Experimental- und Kontrollgruppen erfolgt aufgrund vorhandener Eigenschaften der Versuchsobjekte (Alter, Geschlecht, Nicht-/Raucher)
- Bsp. Einstellungsunterschiede beim Fernsehkonsum -> Personen mit hohem Fernsehkonsum werden der Experimentalgruppe zugeordnet und Personen mit geringem Fernsehkonsum werden der Kontrollgruppe zugeordnet
- UV kann nicht manipuliert werden
- es können keine Rückschlüsse auf kausalen Zusammenhang gezogen werden, da nicht feststellbar ist, ob die UV die AV bedingt oder umgekehrt
Was muss man beim Test von Ursache-Wirkungs-Zusammenhängen auf Grundlage von Daten aus Quasi-Experimenten beachten?
Naja -> keine Kausalität deswegen Kontrolle
- Es ist wichtig, Kontrollvariablen zu berücksichtigen
- UV variiert möglicherweise systematisch mit anderen Merkmalen der Untersuchungseinheiten -> deshalb Berücksichtigung von Drittvariablen: UV -> AV = Kontrollvariable
Vorteile des Panel-Designs gegenüber dem Querschnitts-Design?
Querschnitt = einmalig -> Panel = Pan hat mehrere Gesichter beim langen Hinsehen
- Querschnittsdesign: Einmalige Erhebung einer Variable -> z.b. eine Person eine Angabe
- Paneldesign: Wiederholte Messung der gleichen Variable bei der gleichen Person -> z.b. mehrere Angaben einer Person zu einer Variable über längeren Zeitraum
- Vorteile
- Mit dem Paneldesign kann man bei Ursache-Wirkung Untersuchungen bestimmen, ob die UV tatsächlich die Ursache einer Veränderung der AV ist
- Mit dem Paneldesign kann man eher die Probleme bei Quasi-Experimenten mildern -> Forscher kann zwar weiterhin keine zufälligen Kontrollgruppen zuordnen aber die Wirkung der UV kann bei gleichbleibenden Bedingungen getestet werden
- Beim Querschnittdesign kann man nicht sehen ob andere Einflussfaktoren wirken, weil es nicht an einer Person über einen längeren Zeitraum gemessen wird
Grundlegende theoretische Annahmen der Phänomenologie
Nicht das Ganze kann Phänomenal sein
- Husserl: von der theoretischen Welt zur Lebenswelt
- Ausschalten des Vorwissens über einen Gegenstand
- Reduktion in mehreren Schritten bis zur Freilegung des "Wesens" eines Untersuchungsgegenstandes
- Konstruktion von Typologien durch bestimmte typische Eigenschaften
- freie Variation: verschiedene Aspekte betrachten, damit sich das Gemeinsame herauskristallisiert
Grundlegende theoretische Annahmen der Hermeneutik
Hermanns Texte verstehen obwohl er differenziert ist
- Schleiermacher, Schütz: Kunstlehre des Verstehens
- befasst sich mit der Auslegung von Texten
- Grammatikalisches und psychologisches Verstehen zur Überwindung der hermeneutischen Differenz -> Differenz zwischen dem Verstandenem und dem Gesagtem/Gemeinten des Autors
- Verstehen von Handlung (Handlungsentwurf) -> beabsichtigter Einsatz bestimmter Mittel
- es geht immer um Zeicheninterpretation
Grenzen quantitativer Sozialforschung
Quantitativ ist Standard, repräsentativ und nicht sekundär
- Repräsentativität
- oftmals hohe Ausfallquote
- geringer Rücklauf
- Standardisierte Befragung
- Einfluss vorgegebener Antwortoptionen
- sozial erwünschte Antworten
- Standardisierte Forschung
- Datenanalyse/-Erhebung ist stark strukturiert und reduziert durch Antwortoptionen
- Sekundärdatenanalyse
- keine Kontrolle über die Daten (-Qualität)
- fehlende Variablen
Grenzen qualitativer Sozialforschung
Qualitative Inhalts-/Dokumentenanalysen durch Befragung/Beobachtung und theoretisches Sampling
- Theoretisches Sampling
- Große Erfahrung und Sensibilität sind erforderlich, um Reichweite des Materials zu garantieren
- Befragung und Beobachtung
- Schwierige Vergleichbarkeit der Daten wegen Interviewvariation
- Nähe zum Geschehen ist Stärke und Problem zugleich -> Gefahr des "going native"
- qualitative Inhalts- und Dokumentenanalysen
- Kein Einfluss auf Datenqualität von Dokumenten
- Frage der Zugänglichkeit von Daten
- subsumptionslogisch -> Inhalt vs. bedeutungstiefe
Methodentriangulation
Meist verbreitete between/within Methode als Validierungsstrategie
- Die Betrachtung eines Forschungsgegenstandes von mindestens zwei Punkten als Validierungsstrategie
- am meist verbreitete Methode der Triangulation
- between method
- Verschiedene Methoden miteinander kombinieren
- Verbindung quantitativer und qualitativer Daten
- Verbindung reaktiver (Interview) mit nicht-reaktiven Verfahren (Analyse vorgefundener Materialien)
- Kombination von teilnehmender Beobachtung und Interviews
- Within method
- Innerhalb einer Methode
- gleiche Methode wird auf verschiedene Art und Weisen angewandt -> z.B. Bezug zu mehreren verschiedenen Bezugsgruppen
- episodisches Interview -> Verknüpfung des Leitfadeninterviews und der Erzählung
- Zweck: einerseits Prozessperspektive in Situationserzählungen, sowie abstrakte Zustandsbeschreibung in Leitfadeninterviews
Beispiel Methodentriangulation
Marienthal als between method mit Hilfe von Bögen, Beobachtungen und Gesprächen zu dichter empirischer Beschreibung
- Die Arbeitslosen von Marienthal 1933 -> Untersuchungen über die Wirkung langandauernder Arbeitslosigkeit
- Einsatz von quantitativen und qualitativen Methoden für eine dichte empirische Beschreibung (between method -> intensive Betrachtung aus mehreren Blickwinkeln)
- Beobachtung, strukturierte Beobachtungskontrolle, Haushaltserhebungen, Fragebögen, Zeitverwendungsbögen, Interviews, Gespräche
Transkription
Gesprochene und non-verbale spätere Analyse von Transkriptionsverfahren
- Transkription bezeichnet das Verschriftlichen von gesprochener und teilweise non-verbaler (z.B. Tonfall, Sprechlautstärke) Kommunikation, welches auf Video- oder Tonbandträger aufgezeichnet wird
- Das Ziel ist die spätere Analyse mittels verschiedener Techniken der empirischen Sozialforschung (z.B. Qualitative Inhaltsanalyse, Gesprächsanalyse)
- für verschiedene Analysepraktiken existieren verschiedene Transkriptionsverfahren
- abhängig vom Transkriptionsverfahren werden dabei immer auch Informationen vernachlässigt -> somit bedeutet die Transkription schon eine Interpretation der Daten
Wovon hängt die Wahl einer Transkriptionsmethode ab
Forschungspragmatische Erkenntnis welcher Art, was genau, Betonung und Dialekt
Die Entscheidung für eine Transkriptionsmethode wird anhand von Forschungsmethodik, Erkenntniserwartung und aus forschungspragmatischen Gründen getroffen
- Für welche Art von Analyse erstellt man ein Transkript
- was genau soll aufgeschrieben werden
- ist die Angabe einer besonderen Betonung wichtig
- wie werden Dialekte gehandhabt
Rekonstruktionslogisches Verfahren
2. Konstruktion der Beobachtungen von Handlungen bei der der subjektive Sinnhorizont durch gemeinschaftliche Lernprozesse überschritten wird
- Konstruktion 2. Ordnung: die Konstruktion von Wirklichkeit, die in den Handlungen der Akteure nach impliziten Regeln sozialen Handelns vollzogen wird, wird rekonstruiert
- Rekonstruktives Verfahren bezieht sich auf Beobachtungen von Handlungen und symbolischen Repräsentationen (verbale oder visuelle Daten)
- Der subjektive Sinnhorizont wird überschritten in Richtung von Sinnsphären, die von den Handelnden mental nicht repräsentiert werden
- objektive Hermeneutik und Grounded Theory
- Bsp. Strukturen gemeinsamer Lernprozesse mit Computer und Internet
- Es werden nicht die kognitiven bzw. Individuellen Lernprozesse untersucht oder Vergleichuntersuchungen der Wirksamkeit neuer Medien auf den jeweiligen Lernerfolg
- Es werden die gemeinschaftlichen Lernprozesse in einer computergestützten Lernumgebung aus mikrosoziologischer Perspektive untersucht
Subsumptionslogisches Verfahren
Vorab entwickelte Interpretationskategorien werden kleinschrittig zu ähnlichen Bedeutungen in Bildern
- Der Untersuchungsgegenstand wird unter vorab entwickelten Kategorien subsumiert (eingegliedert) -> vorgefasstes, feststehendes System von Interpretationskategorien
- Material wird kleinschrittig auf neue Aspekte im Hinblick auf interessierende Themen durchgesehen
- Textstellen mit ähnlicher Bedeutung werden Kategorien zugeordnet
- Z.B. Inhaltsanalyse
- Bsp. Bilderinterpretation
- Anhand von Kinderzeichnungen, Familien- und Einzelporträts können Entwicklungsprozesse auf bestimmte Lebensthemen im Kontext der biographischen Forschung untersucht werden
Konkrete Ziele der qualitativen Inhaltsanalyse
Qualitative Inhaltsanalyse interpretiert Kommunikation mittels Gütekriterien und Kategorienschema. Sie wird zusammengefasst, explikatiert und strukturiert
- Systematische, regelbegleitete und theoriebegleitete Interpretation von Kommunikation
- Damit kann man Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen
- Erfüllung der Gütekriterien
- Objektivität, Validierung, Intersubjektivität
- Textinterpretation auf Basis eines Kategorienschemas
- Zusammenfassung
- Reduktion des Materials auf wesentliche Inhalte
- Erzeugen eines überschaubaren Textkorpus
- Explikation
- Herantragen zusätzlichen Materials an einzelne Textstellen -> Erweiterung des Textverständnisses
- Strukturierung
- Herausfiltern bestimmter Aspekte aus dem Material -> damit man diese nach vorher festgelegten Kategorien oder Kriterien systematisieren kann
Unterschied zwischen qualitativer und quantitativer Inhaltsanalyse
Quantitative Erhebungsverfahren sind standardisiert und deduktiv-nomologisch. Qualitativ ist klassifikatorisch, sinnrekonstruierend, theoriegeleitet und explorativ Kategorienschematisiert
- Quantitative Inhaltsanalyse
- Spezifisches Erhebungs- und Auswertungsverfahren im Rahmen standardisierter Methoden
- und im Rahmen deduktiv-nomologischer Methodologie -> Einzelfälle Werden vom Gesetz abgeleitet = vom Allgemeinen zum Besonderem
- Qualitative Inhaltsanalyse
- Klassifikatorische und sinnrekonstruierende Vorgehensweise
- Mehr theoriegeleitet als theoriegenerierend
- In explorativer Phase Textinterpretation auf Basis eines Kategorienschemas
Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehrern TEIL 1/3
1. Ausgangsmaterial wird bestimmt durch festlegen, Analyse der Entstehung und formale Charakteristika
Bestimmung des Ausgangsmaterials
- Festlegen des Materials
- 4 LehrerInnen
- Frage nach ersten Paxiserfahrungen
- möglichst anschauliche Textstellen
- Analyse der Entstehungssituation
- Freiwillige Teilnahme
- zu Hause
- offene und halb-strukturierte Interviews
- Formale Charakteristika des Materials
- Wörtliche, vollständige Transkription mit Kommentaren, Pausen und Fragen
Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehreren TEIL 2/3
2. theoriegeleitete Fragestellung in Richtung der Analyse
Fragestellung der Analyse
- Richtung der Analyse
- Aussagen über emotionalen, kognitiven, handlungsbezogenen Hintergrund der Befragten
- theoriegeleitete Fragestellung
- Rolle des "Praxisschocks"
- Einfluss auf Selbstvertrauen
Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehrern TEIL3/3
3. Ablaufmodell braucht Analysetechnik um Einheiten zu definieren und Kategoriensysteme rück zu überprüfen und damit zu interpretieren
Ablaufmodell der Analyse
- Analysetechnik/konkretes Ablaufmodell
- Strukturierende Inhaltsanalyse -> Theorie, Variablen, Dimensionen, Ausprägungen, Ankerbeispiele
- Definition der Analyseeinheiten
- Vorläufiges Kodierschema
- Kodierleitfaden
- Analyseschritte mittels Kategoriensystem
- Probekodieren der ersten 3 Interviews
- Revision von Kodierschema und -leitfaden
- endgültige Fassung des Kodierschemas
- Rücküberprüfung des Kategoriensystems an Theorie und Material
- Rekodieren der ersten 3 Interviews
- Abstimmung mit Kodiererinnen
- Kodieren aller Interviews
- Interpretation der Ergebnisse
Theoretische Hintergründe der Grounded-Theory-Methodologie
Der Hintergrund entsteht pragmatisch in America, genauer in der Chicago School und teilt die Grundannahmen der GT mit dem Symbolischen Interaktionismus
- Amerikanischer Pragmatismus -> John Dewey
- Fokus auf Handlung und Problemlösung von Situationen
- Situationen sind Kontexte, um Handlungen zu erklären
- Chicago School of Sociology
- Fokus auf Feldbeobachtungen und Intensivinterviews
- soziale Interaktionen und Prozesse als Forschungsgegenstand
- geteilte Grundannahmen der Grounded-Theory mit dem Symbolischen Interaktionismus
- Akteure handeln gegenüber sozialen Objekten aufgrund von Bedeutungen, die sie ihnen zuschreiben
- die Bedeutungen entstehen in Interaktionen -> sie werden im Interaktionsprozess modifiziert, objektiviert und werden zum Bedingungsrahmen menschlichen Handelns
Grundväter der Grounded Theory
Strauss Blumen sind Symbol für Lazarsfeld's Glaser und deren Skepsis
- Anselm Strauss
- Schüler von Blumer
- Symbolischer Interaktionismus
- Barney Glaser
- Schüler von Lazarsfeld
- Skepsis an standardisierten Methoden
Warum ist in der Grounded-Theory das Verhältnis zur Theorie idealtypisch für qualitative Sozialforschung
Idealtypisch ist der Untersuchungsbereich während des Forschungsprozesses
- Zu Beginn steht nicht eine Theorie, die untersucht werden soll, sondern ein Untersuchungsbereich
- während des Forschungsprozesses stellt sich heraus, welche Aspekte relevant sind
Bedeutung der Datenauswahl bei Grounded-Theory -> theoretical sampling
Im Laufe der empirischen Analyse werden theoretische Punkte zusammengestellt und dann entschieden was und wo's weitergeht
- Sample wird nicht zu Beginn der Untersuchung festgelegt
- Sample wird nach theoretischen Gesichtspunkten, die sich im Laufe der empirischen Analyse herauskristallisieren, erst nach und nach zusammengestellt
- dadurch entscheidet der Forscher, welche Daten er als nächstes erheben will und wo diese zu finden sind
Schritte der Auswertung in der Grounded-Theory-Methodologie
Fragen, vorläufige Zusammenhänge und Theorie verifizieren, damit verknüpft und integriert werden kann
- Generative Fragen stellen
- vorläufige Zusammenhänge herstellen durch die Kodierung
- Theorie verifizieren durch Überprüfbarkeit der vorläufigen Zusammenhänge
- Kodierung und Datenerhebung verknüpfen
- Theorie integrieren
Welche Rolle spielt in der Grounded Theory das Kodieren von Daten
Das Konzeptualisieren funktioniert durch offenes, axiales und selektives Kodieren
- Konzeptualisieren der Daten
- Verfeinern und spezifizieren der Fragestellung
- Haupttypen des Kodierens
- Offenes Kodieren -> vom Indikator zum Konzept
- axiales Kodieren -> vom Konzept zur Kategorie
- selektives Kodieren -> von Kategorie zur Kern-/Schlüsselkategorie
Grounded Theory: Interviewausschnitt zu Forschungsthema -> Zeile für Zeile offen Kodieren
Das offene Kodieren ist ein Verfahren das Phänomene benennt und Kategorien entdeckt und benennt
- Verfahren
- Daten "Aufbrechen" und untersuchen, anstelle von Vergleichen
- W-Fragen stellen
- Was geschieht im Text?
- auf welche Kategotien weist der Text?
- extensive sequentielle Analyse
- Variationsmöglichkeiten beim offenen Kodieren
- Zeile-für-Zeile
- Sätze oder Abschnitte
- ganze Dokumente auf einmal
- Bennenung der Phänomene
- Der erste Schritt der Analyse ist das Konzeptualisieren der Daten
- Z.B. Textstellen werden Konzepten zugeordnet
- Bsp. Der Küchenchef des Gourmet-Restaurants steht in der Küche und verfolgt aufmerksam die Küchenarbeiter -> die Konzepte sind "Informationsgewinnung" und "Beobachten"
- Der erste Schritt der Analyse ist das Konzeptualisieren der Daten
- Entdecken und Benennen der Kategorien
- Konzepte müssen gruppiert werden = Reduktion der Anzahl der Einheiten -> provisorisch kategorisieren
- Kategorien werden in Bezug auf ihre Eigenschaften, Dimensionen und Ähnlichkeiten gebildet
- Bsp. Farbe: Schattierung, Farbton, Intensität USW.
- Memos schreiben
- Bsp. Küchenchef: die Phänomene "Informationsgewinnung" und "beobachten" werden zur Kategorie "Speisen-Dirigent"
Objektive Hermeneutik
Struktur mit objektiven Sinn erhält Gültigkeit durch strikte Anwendung
- Objektive oder strukturale Hermeneutik
- nicht subjektiver Sinn, sondern objektive Sinnstruktur in einer bestimmten Sprach- und Interaktionsgemeinschaft
- Gültigkeit der Analysen durch strikte Anwendung der hermeneutischen Kunstlehre
Was ist in der objektiven Hermeneutik "objektiv"
"Objektiv" bezieht sich nicht nur auf den Untersuchungsgegenstand, sondern zugleich auch auf das methodische Vorgehen
Wovon grenzt sich der Begriff objektiven Hermeneutik ab
Die empirische Analyse ist objektiv, grenzt sich von der Introspektion und fremdpsychischer Befindlichkeiten ab, weil sich-hineinversetzen unwissenschaftlich ist
- Die objektive Hermeneutik vertritt den Anspruch, dass die empirische Analyse "objektiv" zu erfolgen habe
- D.h. Mit Methoden der intersubjektiven Geltungsüberprüfung
- damit grenzt sie sich deutlich ab von den hermeneutischen Verfahren der Introspektion bzw. Des Verstehens fremdpsychischer Befindlichkeiten (subjektiv)
- das "sich-Hineinversetzen" in andere wird von den VertreterInnen der objektiven Hermeneutik als unwissenschaftliche Methode angesehen
- Die daraus resultierenden Interpretationsergebnisse sind nicht überprüfbar
Wieso setzt die Methodologie der Objektiven Hermeneutik die Regelgeleitetheit des sozialen Handelns voraus bzw. Was bedeutet diese Prämisse für die Strukturgeneralisierung eines Falles
Regelgeleitetes Handeln wird durch Handlungs-/Interaktionsprotokoll aufgezeigt, damit das Phänomen erklärt und verstanden wird. Strukturgeneralisierung entdeckt und beschreibt Strukturgesetzlichkeiten, die natürlichen Status haben
- Soziales Handeln ist regelgeleitetes Handeln
- Diese Regelgeleitetheit lässt sich durch das zu interpretierende Handlungs- und Interaktionsprotokoll aufzeigen
- damit ergibt sich der Anspruch, dass das zur Debatte stehende Phänomen nicht nur zu erklären, sondern auch zu verstehen ist
- Ziel der Strukturgeneralisierung ist die Entdeckung und Beschreibung allgemeiner und einzelfallspezifischer Strukturgesetzlichkeiten zugleich (generativen Regeln), die einen Naturgesetzen und -Tatsachen vergleichbaren Status haben
Wieso sind der "natürliche Charakter" und die Selbstläufigkeit des Datenmaterials für die sequentielle Analyse wichtig
Sequentielle Analyse ist natürlich und lückenlos, damit Phase der Rekonstruktion rekonstruiert werden kann, wobei vorstrukturierter Kategorien zerstören
- Natürliche, lückenlose Protokolle von wirklichen Handlungsabläufen benötigt man als Datenmaterial für sequentielle Analysen, in denen alleine eine vollständige Phase der Rekonstruktion einer Struktur rekonstruiert werden kann
- Kategorien vorstrukturierter Ereignisprotokolle zerstören die wirkliche sequentielle Struktur
Wieso steht Selektivität des menschlichen Handelns im Vordergrund und wie trägt die objektive Hermeneutik zur Erschließung bei
Selektivität rekonstruiert spezifischen Handlungsprozess und macht ihn damit zu etwas Fremden/Erklärungsbedürftigen
- Selektivität erschließen: die Interpretation von Handlungsprotokollen zielen darauf ab, den spezifischen Handlungsprozess zu rekonstruieren
- bei der Interpretation geht es darum, Vorgänge mit denen man zu tun hat, fremd zu machen
- Dinge, die uns als "normal" vorkommen, werden als etwas Erklärungsbedürftiges behandelt
Diskursbegriff nach George H. Mead
Mead pragmatisiert universe um Sprachereignis und Bedeutungszuweisung zu verknüpfen und Zeichen in Sprachspiele zu bedeuten
- Pragmatismus
- "universe of discourse"
- Verknüpfung von einzelnem Sprachereignis und kontextabhängiger Bedeutungszuweisung
- Zeichen haben nur Bedeutung im Kontext umfassender "Sprachspiele"
Diskursbegriff nach Jürgen Habermas
Habermas kommuniziert über Geltungsansprüche, die objektiv, normativ und expressiv sind. Es entstehen Welbezüge sozialer Realität und daraus Ebenen
- Diskurs = Kommunikation über Geltungsansprüche des Handelns
- in objektiven (kognitiven), normativen (handlunskoordinierenden) und expressiven (identitätsbildenden) Diskursen entstehen 3 Weltbezüge = d.h. Reproduktionsmechanismen sozialer Realität
- Verständigung
- Handlungskoordinierung
- Sozialisierung
- den Weltbezügen entsprechen 3 Ebenen sozialer Realität
- Kultur
- Gesellschaft
- soziale Person
Diskursbegriff nach Michel Foucault
Foucault kommuniziert Prozesse als vernünftig, obwohl legitimes Wissen konkurriert, den Mensch beherrscht und Wissen/Macht strukturiert
- Kommunikative Prozesse sind Konstruktionsmechanismen sozialer Wirklichkeit
- Soziale Ordnung und Geschichten gehen aus Diskursen hervor
- die Vernunft (Aufklärung) beleuchtet im Diskurs nur eine Seite der sozialen Wirklichkeit
- Weil sie vieles als nicht-vernünftig ausblendet, obwohl es in den Diskurs hineinwirkt
- Foucaults Diskurse sind Prozesse, in welchen um legitimes Wissen konkurriert wird
- Sie definieren Wirklichkeit und schließen Nicht-Konformes aus
- sie tun Menschen und Dingen Gewalt an
- Diskurse beherrschen den Menschen
- Nicht der Mensch, als rationales Subjekt, beherrscht die Realität durch Diskurse
- Wissen und Macht als Struktur historischer Diskurse
Welchen Begriff von "Wirklichkeit" setzt die Diskursanalyse voraus
Wissen wird unbezweifelt zu sozialen Prozessen, indem Sprache transportiert wird
- Unbezweifelbares Wissen von der objektiven Wirklichkeit gibt es nicht
- Wissen und Wirklichkeit sind das Ergebnis sozialer Prozesse
- Je nachdem wie wir Sprache erfassen wird Wirklichkeit transportiert
- Diskurse bilden Wirklichkeit nicht ab, sondern bringen das zugehörige Wissen hervor
Lineare Regression interpretieren
- Entweder das Modell mit den meisten UVs oder mit dem größten R2
- Zusammenhang >0,05 = starker (positiver oder negativer) Zusammenhang -> z.B. 0,02 = schwach
- A hat den stärksten (positiv oder negativ) Zusammenhang mit AV -> 0,836
- C hat sehr kleinen positiven Effekt auf AV
- weitere UVs im letzten Modell
- Wenn Signifikanz einer UV durch zusätzliche UV verschwindet
- A wird durch B aus dem Signifikanzbereich gedrängt
Welche Bedeutung haben die Signifikanzsternchen für die Interpretation der Effektkoeffizienten (lineare Regression)
Die Sterne geben an, wieviel Aussagekraft/Signifikanz die Effektkoeffizienten jeweils haben -> dies wirkt sich auf die Interpretation aus