VO Methoden der Sozialwissenschaft - Vertiefung

Hirschle, Globisch Universität Innsbruck

Hirschle, Globisch Universität Innsbruck


Kartei Details

Karten 57
Sprache Deutsch
Kategorie Soziales
Stufe Universität
Erstellt / Aktualisiert 12.06.2014 / 30.08.2018
Weblink
https://card2brain.ch/box/vo_methoden_der_sozialwissenschaft_vertiefung
Einbinden
<iframe src="https://card2brain.ch/box/vo_methoden_der_sozialwissenschaft_vertiefung/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Anwendungsgebiete quantitativer Methoden

Man prüft und wendet deskriptiv  Untersuchungen, Hypothesen/Theorien und Evaluationsstudien an

  • Deskriptive Untersuchungen
    • Beschreibung des Untersuchunsgegenstands
    • Bsp. Einkommensverteilung innerhalb einer Gesellschaft
  • Prüfung von Hypothesen und Theorien
    • Untersuchung von Zusammenhängen und Ursache-Wirkungsbeziehungen
    • aus abstrakten Theorien werden konkrete Hypothesen abgeleitet, operationalisiert und
      empirisch überprüft
    • Einsatz statistischer Verfahren
  • Evaluationsstudien
    • Ziel: Ermittlung der Wirksamkeit einer bestimmten Maßnahme -> bspw. Politische Maßnahme
    • Vergleich von Test- und Kontrollgruppen
    • anwendungsbezogene Forschung
    • Bsp. Sozialpolitik: Wirksamkeit einer Bildungsmaßnahme zur Wiedereingliederung von Langzeitarbeitslosen

Was ist die Grundform der Hypothese bei Studien, in denen es um die Analyse von Ursache- Wirkungs-Zusammenhängen geht?

Wenn -> dann umgekehrtes Alphabet u vor a 

UV(Unabhängige Variable) -> AV(abhängige Variable) = Ursache- Wirkungsbeziehung

  • UV = Bedingung -> WENN (Ursache)
  • AV = Folge, Konsequenz -> DANN (Wirkung)

 

Unterschied zwischen Theorie, Hypothesen und Operationalisierung!

Theorie als Modell wird zur Hypothese welche operationalisiert wird -> im OP wird Indikator angelegt

In quantitativer Forschung geht es um die Prüfung von Theorien und Hypothesen

  • Theorien als Modelle vermuteter Bedingungen und Zusammenhänge anhand von Fachliteratur oder früherer empirischer Studien
  • Hypothesen werden davon abgeleitet
  • und in operationalisierter Form geprüft = Operationalisierung
    • mittels Konfrontation von Theorien und sozialer Realität bzw. Erstellen von Korrespondenzen zwischen empirischen Daten und theoretischen Aussagen 
    • legt fest, welche Indikatoren/Variablen zur Messung eines theoretischen Konstrukts herangezogen werden

Unterschied zwischen Experimenten und Quasi-Experimenten?

Um Experiment machen zu können braucht man willkürliche (randomisierte) Versuchspersonen, die man UNTER UMSTÄNDEN (uU/UV) manipulieren kann -> quasi/ naja kein kausaler Zusammenhang weil nach Eigenschaften ohne Manipulation ausgesucht wird

  • Experimente
    • Die Unterscheidung von UV und AV muss möglich sein -> die UV geht der AV stets voraus
    • Die Daten müssen von mindestens 2 Probandengruppen verglichen werden
    • Hypothesen werden geprüft, indem die UV gezielt manipuliert wird -> der Einfluss der Störvariable wird kontrolliert durch Konstanthaltung der Versuchsbedingungen, Elimination, Randomisierung oder Paralellisierung
  • Quasi-Experimente
    • Die Zuweisung der Versuchspersonen zu den Experimental- und Kontrollgruppen erfolgt aufgrund vorhandener Eigenschaften der Versuchsobjekte (Alter, Geschlecht, Nicht-/Raucher)
    • Bsp. Einstellungsunterschiede beim Fernsehkonsum -> Personen mit hohem Fernsehkonsum werden der Experimentalgruppe zugeordnet und Personen mit geringem Fernsehkonsum werden der Kontrollgruppe zugeordnet
    • UV kann nicht manipuliert werden 
    • es können keine Rückschlüsse auf kausalen Zusammenhang gezogen werden, da nicht feststellbar ist, ob die UV die AV bedingt oder umgekehrt

Was muss man beim Test von Ursache-Wirkungs-Zusammenhängen auf Grundlage von Daten aus Quasi-Experimenten beachten?

Naja -> keine Kausalität deswegen Kontrolle

  • Es ist wichtig, Kontrollvariablen zu berücksichtigen
  • UV variiert möglicherweise systematisch mit anderen Merkmalen der Untersuchungseinheiten -> deshalb Berücksichtigung von Drittvariablen: UV -> AV = Kontrollvariable

Vorteile des Panel-Designs gegenüber dem Querschnitts-Design?

Querschnitt = einmalig -> Panel = Pan hat mehrere Gesichter beim langen Hinsehen

  • Querschnittsdesign: Einmalige Erhebung einer Variable -> z.b. eine Person eine Angabe
  • Paneldesign: Wiederholte Messung der gleichen Variable bei der gleichen Person -> z.b. mehrere Angaben einer Person zu einer Variable über längeren Zeitraum
  • Vorteile
    • Mit dem Paneldesign kann man bei Ursache-Wirkung Untersuchungen bestimmen, ob die UV tatsächlich die Ursache einer Veränderung der AV ist 
    • Mit dem Paneldesign kann man eher die Probleme bei Quasi-Experimenten mildern -> Forscher kann zwar weiterhin keine zufälligen Kontrollgruppen zuordnen aber die Wirkung der UV kann bei gleichbleibenden Bedingungen getestet werden
    • Beim Querschnittdesign kann man nicht sehen ob andere Einflussfaktoren wirken, weil es nicht an einer Person über einen längeren Zeitraum gemessen wird

Grundlegende theoretische Annahmen der Phänomenologie

Nicht das Ganze kann Phänomenal sein

  • Husserl: von der theoretischen Welt zur Lebenswelt
  • Ausschalten des Vorwissens über einen Gegenstand
  • Reduktion in mehreren Schritten bis zur Freilegung des "Wesens" eines Untersuchungsgegenstandes
  • Konstruktion von Typologien durch bestimmte typische Eigenschaften
  • freie Variation: verschiedene Aspekte betrachten, damit sich das Gemeinsame herauskristallisiert

 

Grundlegende theoretische Annahmen der Hermeneutik

Hermanns Texte verstehen obwohl er differenziert ist

  • Schleiermacher, Schütz: Kunstlehre des Verstehens
  • befasst sich mit der Auslegung von Texten
  • Grammatikalisches und psychologisches Verstehen zur Überwindung der hermeneutischen Differenz -> Differenz zwischen dem Verstandenem und dem Gesagtem/Gemeinten des Autors
  • Verstehen von Handlung (Handlungsentwurf) -> beabsichtigter Einsatz bestimmter Mittel
  • es geht immer um Zeicheninterpretation

Grenzen quantitativer Sozialforschung

Quantitativ ist Standard, repräsentativ und nicht sekundär

  • Repräsentativität
    • oftmals hohe Ausfallquote
    • geringer Rücklauf
  • Standardisierte Befragung
    • Einfluss vorgegebener Antwortoptionen
    • sozial erwünschte Antworten
  • Standardisierte Forschung
    • Datenanalyse/-Erhebung ist stark strukturiert und reduziert durch Antwortoptionen
  • Sekundärdatenanalyse
    • keine Kontrolle über die Daten (-Qualität)
    • fehlende Variablen

Grenzen qualitativer Sozialforschung

Qualitative Inhalts-/Dokumentenanalysen durch Befragung/Beobachtung und theoretisches Sampling

  • Theoretisches Sampling
    • Große Erfahrung und Sensibilität sind erforderlich, um Reichweite des Materials zu garantieren
  • Befragung und Beobachtung
    • Schwierige Vergleichbarkeit der Daten wegen Interviewvariation
    • Nähe zum Geschehen ist Stärke und Problem zugleich -> Gefahr des "going native"
  • qualitative Inhalts- und Dokumentenanalysen
    • Kein Einfluss auf Datenqualität von Dokumenten
    • Frage der Zugänglichkeit von Daten
    • subsumptionslogisch -> Inhalt vs. bedeutungstiefe

Methodentriangulation

Meist verbreitete between/within Methode als Validierungsstrategie

  • Die Betrachtung eines Forschungsgegenstandes von mindestens zwei Punkten als Validierungsstrategie
  • am meist verbreitete Methode der Triangulation
  • between method
    • Verschiedene Methoden miteinander kombinieren
    • Verbindung quantitativer und qualitativer Daten
    • Verbindung reaktiver (Interview) mit nicht-reaktiven Verfahren (Analyse vorgefundener Materialien)
    • Kombination von teilnehmender Beobachtung und Interviews
  • Within method
    • Innerhalb einer Methode
    • gleiche Methode wird auf verschiedene Art und Weisen angewandt -> z.B. Bezug zu mehreren verschiedenen Bezugsgruppen
    • episodisches Interview -> Verknüpfung des Leitfadeninterviews und der Erzählung
    • Zweck: einerseits Prozessperspektive in Situationserzählungen, sowie abstrakte Zustandsbeschreibung in Leitfadeninterviews

Beispiel Methodentriangulation

Marienthal als between method mit Hilfe von Bögen, Beobachtungen und Gesprächen zu dichter empirischer Beschreibung

  • Die Arbeitslosen von Marienthal 1933 -> Untersuchungen über die Wirkung langandauernder Arbeitslosigkeit
  • Einsatz von quantitativen und qualitativen Methoden für eine dichte empirische Beschreibung (between method -> intensive Betrachtung aus mehreren Blickwinkeln) 
  • Beobachtung, strukturierte Beobachtungskontrolle, Haushaltserhebungen, Fragebögen, Zeitverwendungsbögen, Interviews, Gespräche

Transkription

Gesprochene und non-verbale spätere Analyse von Transkriptionsverfahren

  • Transkription bezeichnet das Verschriftlichen von gesprochener und teilweise non-verbaler (z.B. Tonfall, Sprechlautstärke) Kommunikation, welches auf Video- oder Tonbandträger aufgezeichnet wird
  • Das Ziel ist die spätere Analyse mittels verschiedener Techniken der empirischen Sozialforschung (z.B. Qualitative Inhaltsanalyse, Gesprächsanalyse)
  • für verschiedene Analysepraktiken existieren verschiedene Transkriptionsverfahren
  • abhängig vom Transkriptionsverfahren werden dabei immer auch Informationen vernachlässigt -> somit bedeutet die Transkription schon eine Interpretation der Daten

Wovon hängt die Wahl einer Transkriptionsmethode ab

Forschungspragmatische Erkenntnis welcher Art, was genau, Betonung und Dialekt

Die Entscheidung für eine Transkriptionsmethode wird anhand von Forschungsmethodik, Erkenntniserwartung und aus forschungspragmatischen Gründen getroffen

  • Für welche Art von Analyse erstellt man ein Transkript
  • was genau soll aufgeschrieben werden
  • ist die Angabe einer besonderen Betonung wichtig
  • wie werden Dialekte gehandhabt

Rekonstruktionslogisches Verfahren

2. Konstruktion der Beobachtungen von Handlungen bei der der subjektive Sinnhorizont durch gemeinschaftliche Lernprozesse überschritten wird

  • Konstruktion 2. Ordnung: die Konstruktion von Wirklichkeit, die in den Handlungen der Akteure nach impliziten Regeln sozialen Handelns vollzogen wird, wird rekonstruiert 
  • Rekonstruktives Verfahren bezieht sich auf Beobachtungen von Handlungen und symbolischen Repräsentationen (verbale oder visuelle Daten)
  • Der subjektive Sinnhorizont wird überschritten in Richtung von Sinnsphären, die von den Handelnden mental nicht repräsentiert werden
  • objektive Hermeneutik und Grounded Theory
  • Bsp. Strukturen gemeinsamer Lernprozesse mit Computer und Internet
    • Es werden nicht die kognitiven bzw. Individuellen Lernprozesse untersucht oder Vergleichuntersuchungen der Wirksamkeit neuer Medien auf den jeweiligen Lernerfolg
    • Es werden die gemeinschaftlichen Lernprozesse in einer computergestützten Lernumgebung aus mikrosoziologischer Perspektive untersucht

Subsumptionslogisches Verfahren

Vorab entwickelte Interpretationskategorien werden kleinschrittig zu ähnlichen Bedeutungen in Bildern

  • Der Untersuchungsgegenstand wird unter vorab entwickelten Kategorien subsumiert (eingegliedert) -> vorgefasstes, feststehendes System von Interpretationskategorien
  • Material wird kleinschrittig auf neue Aspekte im Hinblick auf interessierende Themen durchgesehen
  • Textstellen mit ähnlicher Bedeutung werden Kategorien zugeordnet
  • Z.B. Inhaltsanalyse
  • Bsp. Bilderinterpretation
    • Anhand von Kinderzeichnungen, Familien- und Einzelporträts können Entwicklungsprozesse auf bestimmte Lebensthemen im Kontext der biographischen Forschung untersucht werden 

Konkrete Ziele der qualitativen Inhaltsanalyse

Qualitative Inhaltsanalyse interpretiert Kommunikation mittels Gütekriterien und Kategorienschema. Sie wird zusammengefasst, explikatiert und strukturiert

  • Systematische, regelbegleitete und theoriebegleitete Interpretation von Kommunikation
    • Damit kann man Rückschlüsse auf bestimmte Aspekte der Kommunikation ziehen
  • Erfüllung der Gütekriterien
    • Objektivität, Validierung, Intersubjektivität
  • Textinterpretation auf Basis eines Kategorienschemas
  • Zusammenfassung
    • Reduktion des Materials auf wesentliche Inhalte
    • Erzeugen eines überschaubaren Textkorpus
  • Explikation
    • Herantragen zusätzlichen Materials an einzelne Textstellen -> Erweiterung des Textverständnisses
  • Strukturierung
    • Herausfiltern bestimmter Aspekte aus dem Material -> damit man diese nach vorher festgelegten Kategorien oder Kriterien systematisieren kann

Unterschied zwischen qualitativer und quantitativer Inhaltsanalyse

Quantitative Erhebungsverfahren sind standardisiert und deduktiv-nomologisch. Qualitativ ist klassifikatorisch, sinnrekonstruierend, theoriegeleitet und explorativ Kategorienschematisiert

  • Quantitative Inhaltsanalyse
    • Spezifisches Erhebungs- und Auswertungsverfahren  im Rahmen standardisierter Methoden
    • und im Rahmen deduktiv-nomologischer Methodologie -> Einzelfälle Werden vom Gesetz abgeleitet = vom Allgemeinen zum Besonderem
  • Qualitative Inhaltsanalyse
    • Klassifikatorische und sinnrekonstruierende Vorgehensweise
    • Mehr theoriegeleitet als theoriegenerierend
    • In explorativer Phase Textinterpretation auf Basis eines Kategorienschemas

Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehrern TEIL 1/3

1. Ausgangsmaterial wird bestimmt durch festlegen, Analyse der Entstehung und formale Charakteristika

Bestimmung des Ausgangsmaterials

  • Festlegen des Materials
    • 4 LehrerInnen
    • Frage nach ersten Paxiserfahrungen
    • möglichst anschauliche Textstellen
  • Analyse der Entstehungssituation
    • Freiwillige Teilnahme
    • zu Hause
    • offene und halb-strukturierte Interviews
  • Formale Charakteristika des Materials
    • Wörtliche, vollständige Transkription mit Kommentaren, Pausen und Fragen

Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehreren TEIL 2/3

2. theoriegeleitete Fragestellung in Richtung der Analyse

Fragestellung der Analyse

  • Richtung der Analyse
    • Aussagen über emotionalen, kognitiven, handlungsbezogenen Hintergrund der Befragten
  • theoriegeleitete Fragestellung
    • Rolle des "Praxisschocks"
    • Einfluss auf Selbstvertrauen

Schritte der qualitativen Inhaltsanalyse am Bsp. Studie zur Arbeitslosigkeit bei Lehrern TEIL3/3

3. Ablaufmodell braucht Analysetechnik um Einheiten zu definieren und Kategoriensysteme rück zu überprüfen und damit zu interpretieren

Ablaufmodell der Analyse

  • Analysetechnik/konkretes Ablaufmodell
    • Strukturierende Inhaltsanalyse -> Theorie, Variablen, Dimensionen, Ausprägungen, Ankerbeispiele
  • Definition der Analyseeinheiten
    • Vorläufiges Kodierschema
    • Kodierleitfaden
  • Analyseschritte mittels Kategoriensystem
    • Probekodieren der ersten 3 Interviews
    • Revision von Kodierschema und -leitfaden
    • endgültige Fassung des Kodierschemas
  • Rücküberprüfung des Kategoriensystems an Theorie und Material
    • Rekodieren der ersten 3 Interviews
    • Abstimmung mit Kodiererinnen
    • Kodieren aller Interviews
  • Interpretation der Ergebnisse

Theoretische Hintergründe der Grounded-Theory-Methodologie

Der Hintergrund entsteht pragmatisch in America, genauer in der Chicago School und teilt die Grundannahmen der GT mit dem Symbolischen Interaktionismus

  • Amerikanischer Pragmatismus -> John Dewey
    • Fokus auf Handlung und Problemlösung von Situationen
    • Situationen sind Kontexte, um Handlungen zu erklären
  • Chicago School of Sociology
    • Fokus auf Feldbeobachtungen und Intensivinterviews
    • soziale Interaktionen und Prozesse als Forschungsgegenstand
  • geteilte Grundannahmen der Grounded-Theory mit dem Symbolischen Interaktionismus
    • Akteure handeln gegenüber sozialen Objekten aufgrund von Bedeutungen, die sie ihnen zuschreiben
    • die Bedeutungen entstehen in Interaktionen -> sie werden im Interaktionsprozess modifiziert, objektiviert und werden zum Bedingungsrahmen menschlichen Handelns

Grundväter der Grounded Theory

Strauss Blumen sind Symbol für Lazarsfeld's Glaser und deren Skepsis

  • Anselm Strauss
    • Schüler von Blumer
    • Symbolischer Interaktionismus
  • Barney Glaser
    • Schüler von Lazarsfeld
    • Skepsis an standardisierten Methoden

Warum ist in der Grounded-Theory das Verhältnis zur Theorie idealtypisch für qualitative Sozialforschung

Idealtypisch ist der Untersuchungsbereich während des Forschungsprozesses

  • Zu Beginn steht nicht eine Theorie, die untersucht werden soll, sondern ein Untersuchungsbereich
  • während des Forschungsprozesses stellt sich heraus, welche Aspekte relevant sind

Bedeutung der Datenauswahl bei Grounded-Theory -> theoretical sampling

Im Laufe der empirischen Analyse werden theoretische Punkte zusammengestellt und dann entschieden was und wo's weitergeht

  • Sample wird nicht zu Beginn der Untersuchung festgelegt
  • Sample wird nach theoretischen Gesichtspunkten, die sich im Laufe der empirischen Analyse herauskristallisieren, erst nach und nach zusammengestellt
  • dadurch entscheidet der Forscher, welche Daten er als nächstes erheben will und wo diese zu finden sind

Schritte der Auswertung in der Grounded-Theory-Methodologie

Fragen, vorläufige Zusammenhänge und Theorie verifizieren, damit verknüpft und integriert werden kann

  • Generative Fragen stellen
  • vorläufige Zusammenhänge herstellen durch die Kodierung
  • Theorie verifizieren durch Überprüfbarkeit der vorläufigen Zusammenhänge
  • Kodierung und Datenerhebung verknüpfen
  • Theorie integrieren

Welche Rolle spielt in der Grounded Theory das Kodieren von Daten

Das Konzeptualisieren funktioniert durch offenes, axiales und selektives Kodieren

  • Konzeptualisieren der Daten
    • Verfeinern und spezifizieren der Fragestellung
  • Haupttypen des Kodierens
    • Offenes Kodieren -> vom Indikator zum Konzept
    • axiales Kodieren -> vom Konzept zur Kategorie
    • selektives Kodieren -> von Kategorie zur Kern-/Schlüsselkategorie

Grounded Theory: Interviewausschnitt zu Forschungsthema -> Zeile für Zeile offen Kodieren

Das offene Kodieren ist ein Verfahren das Phänomene benennt und Kategorien entdeckt und benennt

  • Verfahren
    • Daten "Aufbrechen" und untersuchen, anstelle von Vergleichen
    • W-Fragen stellen
      • Was geschieht im Text?
      • auf welche Kategotien weist der Text?
    • extensive sequentielle Analyse
    • Variationsmöglichkeiten beim offenen Kodieren
      • Zeile-für-Zeile
      • Sätze oder Abschnitte
      • ganze Dokumente auf einmal
  • Bennenung der Phänomene
    • Der erste Schritt der Analyse ist das Konzeptualisieren der Daten
      • Z.B. Textstellen werden Konzepten zugeordnet
    • Bsp. Der Küchenchef des Gourmet-Restaurants steht in der Küche und verfolgt aufmerksam die Küchenarbeiter -> die Konzepte sind "Informationsgewinnung" und "Beobachten"
  • Entdecken und Benennen der Kategorien
    • Konzepte müssen gruppiert werden = Reduktion der Anzahl der Einheiten -> provisorisch kategorisieren
    • Kategorien werden in Bezug auf ihre Eigenschaften, Dimensionen und Ähnlichkeiten gebildet
      • Bsp. Farbe: Schattierung, Farbton, Intensität USW.
    • Memos schreiben
    • Bsp. Küchenchef: die Phänomene "Informationsgewinnung" und "beobachten" werden zur Kategorie "Speisen-Dirigent"

Objektive Hermeneutik

Struktur mit objektiven Sinn erhält Gültigkeit durch strikte Anwendung

  • Objektive oder strukturale Hermeneutik
  • nicht subjektiver Sinn, sondern objektive Sinnstruktur in einer bestimmten Sprach- und Interaktionsgemeinschaft
  • Gültigkeit der Analysen durch strikte Anwendung der hermeneutischen Kunstlehre

Was ist in der objektiven Hermeneutik "objektiv"

"Objektiv" bezieht sich nicht nur auf den Untersuchungsgegenstand, sondern zugleich auch auf das methodische Vorgehen

Wovon grenzt sich der Begriff objektiven Hermeneutik ab

Die empirische Analyse ist objektiv, grenzt sich von der Introspektion und fremdpsychischer Befindlichkeiten ab, weil sich-hineinversetzen unwissenschaftlich ist

  • Die objektive Hermeneutik vertritt den Anspruch, dass die empirische Analyse "objektiv" zu erfolgen habe
    • D.h. Mit Methoden der intersubjektiven Geltungsüberprüfung
  • damit grenzt sie sich deutlich ab von den hermeneutischen Verfahren der Introspektion bzw. Des Verstehens fremdpsychischer Befindlichkeiten (subjektiv)
  • das "sich-Hineinversetzen" in andere wird von den VertreterInnen der objektiven Hermeneutik als unwissenschaftliche Methode angesehen
    • Die daraus resultierenden Interpretationsergebnisse sind nicht überprüfbar

Wieso setzt die Methodologie der Objektiven Hermeneutik die Regelgeleitetheit des sozialen Handelns voraus bzw. Was bedeutet diese Prämisse für die Strukturgeneralisierung eines Falles

Regelgeleitetes Handeln wird durch Handlungs-/Interaktionsprotokoll aufgezeigt, damit das Phänomen erklärt und verstanden wird. Strukturgeneralisierung entdeckt und beschreibt Strukturgesetzlichkeiten, die natürlichen Status haben

  • Soziales Handeln ist regelgeleitetes Handeln
    • Diese Regelgeleitetheit lässt sich durch das zu interpretierende Handlungs- und Interaktionsprotokoll aufzeigen
    • damit ergibt sich der Anspruch, dass das zur Debatte stehende Phänomen nicht nur zu erklären, sondern auch zu verstehen ist
  • Ziel der Strukturgeneralisierung ist die Entdeckung und Beschreibung allgemeiner und einzelfallspezifischer Strukturgesetzlichkeiten zugleich (generativen Regeln), die einen Naturgesetzen und -Tatsachen vergleichbaren Status haben

Wieso sind der "natürliche Charakter" und die Selbstläufigkeit des Datenmaterials für die sequentielle Analyse wichtig

Sequentielle Analyse ist natürlich und lückenlos, damit Phase der Rekonstruktion rekonstruiert werden kann, wobei vorstrukturierter Kategorien zerstören

  • Natürliche, lückenlose Protokolle von wirklichen Handlungsabläufen benötigt man als Datenmaterial für sequentielle Analysen, in denen alleine eine vollständige Phase der Rekonstruktion einer Struktur rekonstruiert werden kann
  • Kategorien vorstrukturierter Ereignisprotokolle zerstören die wirkliche sequentielle Struktur

Wieso steht Selektivität des menschlichen Handelns im Vordergrund und wie trägt die objektive Hermeneutik zur Erschließung bei

Selektivität rekonstruiert spezifischen Handlungsprozess und macht ihn damit zu etwas Fremden/Erklärungsbedürftigen 

  • Selektivität erschließen: die Interpretation von Handlungsprotokollen zielen darauf ab, den spezifischen Handlungsprozess zu rekonstruieren
  • bei der Interpretation geht es darum, Vorgänge mit denen man zu tun hat, fremd zu machen
    • Dinge, die uns als "normal" vorkommen, werden als etwas Erklärungsbedürftiges behandelt

Diskursbegriff nach George H. Mead

Mead pragmatisiert universe um Sprachereignis und Bedeutungszuweisung zu verknüpfen und Zeichen in Sprachspiele zu bedeuten

  • Pragmatismus
  • "universe of discourse"
    • Verknüpfung von einzelnem Sprachereignis und kontextabhängiger Bedeutungszuweisung
    • Zeichen haben nur Bedeutung im Kontext umfassender "Sprachspiele" 

Diskursbegriff nach Jürgen Habermas

Habermas kommuniziert über Geltungsansprüche, die objektiv, normativ und expressiv sind. Es entstehen Welbezüge sozialer Realität und daraus Ebenen

  • Diskurs = Kommunikation über Geltungsansprüche des Handelns
  • in objektiven (kognitiven), normativen (handlunskoordinierenden) und expressiven (identitätsbildenden) Diskursen entstehen 3 Weltbezüge = d.h. Reproduktionsmechanismen sozialer Realität
    • Verständigung
    • Handlungskoordinierung
    • Sozialisierung
  • den Weltbezügen entsprechen 3 Ebenen sozialer Realität
    • Kultur
    • Gesellschaft
    • soziale Person

Diskursbegriff nach Michel Foucault

Foucault kommuniziert Prozesse als vernünftig, obwohl legitimes Wissen konkurriert, den Mensch beherrscht und Wissen/Macht strukturiert

  • Kommunikative Prozesse sind Konstruktionsmechanismen sozialer Wirklichkeit
    • Soziale Ordnung und Geschichten gehen aus Diskursen hervor
  • die Vernunft (Aufklärung) beleuchtet im Diskurs nur eine Seite der sozialen Wirklichkeit
    • Weil sie vieles als nicht-vernünftig ausblendet, obwohl es in den Diskurs hineinwirkt
  • Foucaults Diskurse sind Prozesse, in welchen um legitimes Wissen konkurriert wird
    • Sie definieren Wirklichkeit und schließen Nicht-Konformes aus
    • sie tun Menschen und Dingen Gewalt an
  • Diskurse beherrschen den Menschen
    • Nicht der Mensch, als rationales Subjekt, beherrscht die Realität durch Diskurse
  • Wissen und Macht als Struktur historischer Diskurse

Welchen Begriff von "Wirklichkeit" setzt die Diskursanalyse voraus

Wissen wird unbezweifelt zu sozialen Prozessen, indem Sprache transportiert wird

  • Unbezweifelbares Wissen von der objektiven Wirklichkeit gibt es nicht
  • Wissen und Wirklichkeit sind das Ergebnis sozialer Prozesse
  • Je nachdem wie wir Sprache erfassen wird Wirklichkeit transportiert
  • Diskurse bilden Wirklichkeit nicht ab, sondern bringen das zugehörige Wissen hervor

Lineare Regression interpretieren

  • Entweder das Modell mit den meisten UVs oder mit dem größten R2
  • Zusammenhang >0,05 = starker (positiver oder negativer) Zusammenhang -> z.B. 0,02 = schwach
    • A hat den stärksten (positiv oder negativ)  Zusammenhang mit AV -> 0,836
    • C hat sehr kleinen positiven Effekt auf AV
    • weitere UVs im letzten Modell
  • Wenn Signifikanz einer UV durch zusätzliche UV verschwindet
    • A wird durch B aus dem Signifikanzbereich gedrängt

Welche Bedeutung haben die Signifikanzsternchen für die Interpretation der Effektkoeffizienten (lineare Regression)

Die Sterne geben an, wieviel Aussagekraft/Signifikanz die Effektkoeffizienten jeweils haben -> dies wirkt sich auf die Interpretation aus