PTFuMdKP


Fichier Détails

Cartes-fiches 87
Langue Deutsch
Catégorie Psychologie
Niveau Université
Crée / Actualisé 21.06.2016 / 18.07.2024
Lien de web
https://card2brain.ch/box/psythformeth
Intégrer
<iframe src="https://card2brain.ch/box/psythformeth/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>

Versuchen Sie herauszufinden, was in Metaanalysen mit dem sog. Fixed Effects bzw. Random Effects Model gemeint ist?

Es geht dabei um die Frage, wie die kombinierte Effektstärke berechnet wird.

Fixed vs. Random effects

  • Beim « fixed effect »-model wird angenommen, dass es eine « wahre » Effektstärke gibt, die für alle Originalstudien gilt (die « wahre » Effektstärke variiert nicht zwischen den Studien)
  • Beim « random effects »-model wird angenommen, dass der wahre Effekt von Studie zu Studie variiert. Zum Beispiel könnte der Effekt höher sein, wenn die Teilnehmer in einer Studie älter sind, als in einer anderen
  • Führt letztlich zu unterschiedlichen Gewichtungsformeln.
  • Konsequenz der unterschiedlichen Gewichtungsformeln: Das random effects model ist tendenziell konservativer. Heisst: Konfidenzintervalle werden grösser als beim fixed effect model

Was ist mit "numbers needed to treat" (NNT) gemeint?

  • NNT = Anzahl der notwendigen Behandlungen, um gegenüber der Kontrollbedingung EINEN Patienten zu « normalisieren » bzw. einen zusätzlichen Erfolg zu haben
  • NNT in Cuijper et al. (2010)-Studie = 7.14 (es müssen 7.14 Patienten behandelt werden, um mit zusätzlicher Pharmakotherapie einem zusätzlichen Patienten zu helfen)

Warum sollten die in einer Metaanalysen einbezogenen Effektstärken aus den verschiedenen Studien auf Homogenität überprüft werden?

Homogenität vs. Heterogenität der einbezogenen Effektstärken

  • Nur bei einer gewissen Homogenität der einbezogenen Effektstärken stellt die integrierte Effektstärke einen akzeptablen Schätzer des wahren Populationseffekts dar
  • Die verschiedenen Effektstärken aus den Primärstudien können mit einem Signifikanztest auf Homogenität geprüft werden (orientiert sich am Verhältnis der Effektvarianz zwischen den Studien und der stichprobenbedingten Zufallsvarianz der Studien)
  • Um die Homogenität zu erhöhen können Outlier-Studien (Studien mit Effektstärken, die stark von den Effektstärken der anderen Studien abweichen) ausgeschlossen werden

Welche Schritte können unternommen werden, wenn Heterogenität vorliegt?

Bei Vorliegen von Heterogenität...

  • Frage: Lässt sich die Varianz in den Effektstärken durch Moderatorvariablen erklären?
  • Bildung von Subgruppen: Geringere Varianz innerhalb der Subgruppen im Vergleich zur Gesamtvarianz aller Effektstärken? Unterscheiden sich die Subgruppen bezüglich gemittelten Effektstärken?
  • Beispiel (Cuijpers et al., 2010): Vergleich schwer vs. leicht bis mittel depressive Patienten: Vergleichbare Effektstärken in beiden Gruppen

Was ist mit dem Publication Bias gemeint und wie kann ein möglicher Publication Bias in Metaanalysen untersucht werden?

Problem Publication Bias

  • Man spricht von einem publication bias, wenn die veröffentlichten Resultate nicht repräsentativ für alle erzielten Resultate sind
  • Publication bias wird gefördert durch Selektionsmechanismen im Forschungs- und Publikationsprozess: Publikation signifikanter Ergebnisse ist leichter, während nichtsignifikante Ergebnisse öfter in der « Schublade der Forscher » bleiben
  • Da Problem für Metaanalysen wird oft versucht das Vorliegen eines publication bias zu testen  

Untersuchung:

  • Testung eines möglichen Publication Bias in Metaanalysen - Funnel Plot
  • Erwartung, wenn kein Publication Bias: Mehr Variation in Effektstärken in Studien mit kleiner Stichprobengrösse (trägt man Effektstärken in Abhängigkeit der Stichprobegrösse der Studie auf, entsteht ein Trichter (funnel)
  • Weitere Massnahmen im Umgang mit einem möglichen Publication Bias
  • Heute werden Studien vor dem Start oft zentral registriert (in Studienregistern) -> verhindert, dass Studien mit nichtsignifikanten Ergebnissen nicht veröffentlicht werden bzw. gibt einen Überblick über nicht publizierte Studien
  • Berechnung des fail-safe N Kennwertes: Wert der angibt, wie gross die Zahl der noch nicht entdeckten, nicht signifikanten Ergebnisse sein müsste, um ein entdecktes signifikantes Ergebnis als Zufallsfehler deklarieren zu können (z.B. es bräuchte 1200 nicht entdeckte nichtsignifikante Ergebnisse um die Signifikanz der integrierten Effektstärke in Frage zu stellen)
  • Berechnungen bei dichotomen Outcomemassen (z.B. Outcome = geheilt vs. nicht geheilt)
    • Odds Ratio (Quotenverhältnis)
    • Odds Ratio: Quote des Therapieerfolgs in der Behandlungsgruppe im Verhältnis zur Quote des Therapieerfolgs in der Kontrollgruppe (siehe nächste Folie)
    • Behandlungsgruppe: 40 von 50 geheilt
    • Kontrollgruppe: 30 von 50 geheilt
    • Die Quote « geheilt » zu werden ist in der Behandlungsgruppe 2.67 höher als in der Kontrollgruppe
  • Odds-Ratio (andere Berechnungsart)
  • Behandlungsgruppe: 40 von 50 geheilt
  • Kontrollgruppe: 30 von 50 geheilt
  • Quotenverhältnis (Odd) in Behandlungsgruppe 40:10 = 4
  • Quotenverhältnis (Odd) in Kontrollgruppe 30:20 = 1.5
  • Odds Ratio = 4 / 1.5 = 2.67

Was ist in der Studie von Cuijpers et al. mit Relative Risk gemeint?

Das Relative Risiko (auch risk ratio)

  • Behandlungsgruppe: 40 von 50 geheilt
  • Kontrollgruppe: 30 von 50 geheilt
  • Das Risiko (das Risiko geheilt zu werden) beträgt in der Behandlungsgruppe 40:50=0.8
  • Das Risiko (das Risiko geheilt zu werden) beträgt in der Kontrollgruppe 30:50=0.6
  • Als Mass dafür, in welcher der beiden Gruppen eine höhere Wahrscheinlichkeit für Heilung besteht, wird das relative Risiko berechnet = Quotient aus den beiden Risiken = RR = 0.8/0.6 = 1.33
  • Ob RR oder odds ratio berechnet wird, hängt v.a. auch von den Vorlieben der ForscherInnen ab

 

Welche Kostenargumente werden von Gegnern und welche von Befürwortern psychologischer Psychotherapie verwendet? Und was entspricht neben den beiden Extrempositionen nach Neumer und Margraf einer realistischen Einschätzung?

Gegner: Kostenlawine, wenn Psychotherapie in Grundversorgung integriert wird; Kombination geringer Nutzen bzw. geringe Effektivität mit hohen Kosten

Befürworter: Argument, dass psychische Störungen weit verbreitet sind, zunehmen und erhebliche Kosten verursachen = Massive Einsparungen im Gesundheitswesen, wenn Psychotherapie „flächendeckend“ angewendet wird

Realistische Position nach Neumer & Margraf:

  • Psychotherapie macht nur einen geringen Bruchteil am Gesamtbudget der Gesundheitskosten aus (DE: seit Psychotherapeutengesetz ca. 2%)
  • Kostentreiber im Gesundheitswesen sind andere Faktoren (u.a. der technische Fortschritt)
  • Gesamtwirtschaftlich kann weder mit einer „Kostenlawine“ noch mit einer „dramatischen Kostenentlastung“ gerechnet werden, wenn Psychotherapie flächendeckender eingesetzt wird

Was wird unter dem Opportunitätskostenprinzip verstanden?

  • Kosten-Nutzen-Analysen basieren auf dem Opportunitätskostenpr.
  • Opportunitätskosten = Kosten, die dem entgangenen Nutzen entsprechen, wenn eine bestimmte Handlungsalternative (z.B. Psychotherapie) nicht gewählt wird

Jacobi (2001) unterscheidet zwischen direkten und indirekten Kosten und direktem und indirektem Nutzen der Psychotherapie. Nennen Sie je ein Beispiel von direkten und indirekten Kosten und direktem und indirektem Nutzen.

Unterscheidung zwischen tangiblen und intangiblen Kosten und Nutzen:

  • Tangibel: Klar materiell bezifferbar (z.B. Kosten der Behandlung je Patient)
  • Intangibel: Keinem klar bezifferbaren Preis zuordenbar (z.B. Nutzen: bessere Lebensqualität)

Unterscheidung zwischen direkten und indirekten Kosten und Nutzen:

  • Direkt: Kosten oder Nutzen der geplant ist, und nicht unbeabsichtigt als Nebenwirkung der Therapie entsteht (z.B. direkter Nutzen: Steigerung der sozialen Kompetenz)
  • Indirekt: Kosten oder Nutzen der ungeplant, als Nebenwirkung der Therapie entsteht (z.B. indirekter Nutzen: Pat. kann dank Therapie Karriere machen)

Was versteht man unter einer Kosten-Effektivitäts-Analyse?

  • Geht der Frage nach, was die Erreichung eines bestimmten therapeutischen Ergebnisses kostet
  • Kosten (in monetären Einheiten) werden der Effektivität (z.B. klinisch relevante Verbesserung, reduziertes Gewicht in kg) gegenübergestellt
  • Meist wird ein Quotient von Gesamtkosten in Relation zur Anzahl « erfolgreich behandelter Patienten » berechnet
  • Zum Beispiel: Kostet eine Therapie von 10 Patienten 10000 Fr. und sind nach der Therapie 5 Patienten klinisch bedeutsam verbessert, dann kostet ein erfolgreich therapierter Patient 2000 Fr.

Die KE-Indices geben an, was eine erfolgreiche Behandlung durchschnittlich kostet (unter Einbezug der nicht erfolgreichen Behandlungen in die Gesamtkosten)

Was versteht man unter einer Kosten-Nutzen-Analyse?

  • Alle Aspekte einer Behandlung (auch der Nutzen) werden in monetären Einheiten erfasst. Errechnet wird das Kosten-Nutzen- Verhältnis
  • Die alleinige Darstellung des Kosten-Nutzen-Verhältnisses (z.B. 1:2) ist allerdings von Nachteil, da dieses keine Aussagen über die absolute Höhe der Kosten und des Nutzens erlaubt
  • Eine Therapie, die bei Kosten von 2000 Fr. eine Einsparung von 4000 Fr. (Nettonutzen = 2000 Fr.) erlaubt, bringt einen geringeren Nettonutzen als eine Therapie, die bei Kosten von 4000 Fr. eine Einsparung von 8000 Fr (Nettonutzen = 4000 Fr.) erlaubt, obwohl beide ein Kosten-Nutzen-Verhältnis von 1:2 aufweisen

Was versteht man unter einer Kosten-Nutzwert-Analyse?

  • Sind Kosten-Effektivitäts-Analysen ähnlich
  • Therapieeffekte, die in Kosten-Effektivitätsanalysen über verschiedene Studien nicht vergleichbar sind, werden aber in standardisierten Einheiten ausgedrückt, z.B. QALY (quality- adjusted life years).
  • Bestimmung von QALYs: Ist für bestimmte Lebensqualitätsfragebogen vordefiniert (ein Wert von XY bedeutet 0.25 QALYs). Definition basiert z.B. auf Time-Trade- Off-Methode: Wieviele Jahre von meinem Leben bin ich bereit abzugeben, wenn ich dafür stets ohne die gesundheitlichen Einschränkungen leben kann?
  • Kosten-Nutzwert-Analysen wurden in der Psychotherapie- forschung bisher noch eher selten eingesetzt

ICER = Incremental Cost-Effectiveness Ratio (Inkrementelle Kosten-Effektivitätsrelation)Beispiel: Tödliche Krankheit für die eine Behandlung A vorliegt, die das Leben um 3 Jahre verlängert und 30000 Franken kostet. Die neu entwickelte Behandlung B verlängert das Leben um 3.5 Jahre und kostet 50000 Franken. ICER = Zusatzkosten / Zusatzwirkung (oft in QALYs) ICER = 20000 Fr / 0.5 Jahre = 40000 Fr. pro Lebensjahr

Was bedeutet ein Kosten-Nutzen-Verhältnis von 1 : 3.69 Fr.?

  • Jeder Franken der in Psychotherapie gesteckt wird, kann 3.69 Fr. sparen
  • Hier wäre wichtig zu definieren, auf welchen Zeitraum sich die Kosten- und Nutzenberechnungen beziehen, da der Netto-Nutzen oft verzögert eintritt (-> Forderung nach einheitlicher Darstellung von Kosten-Nutzen-Analysen; Jacobi, 2001)
  • Im Bereich der Psychotherapie kann aufgrund verschiedener Studien davon ausgegangen werden, dass der finanzielle Nutzen die Therapiekosten bereits nach 1-3 Jahren übersteigt

In welchem Bereich bewegt sich die Kosten-Nutzen-Relation wie sie von Margraf und Schneider für die kognitive Verhaltenstherapie des Paniksyndroms errechnet wurde?

1 : 5.6

Was sind Vor- und Nachteile von Kostenberechnungen in der Psychotherapie?

  • Kostenanalysen im Gesundheitswesen grundsätzlich umstritten. Gesundheit = höchstes Gut und alle haben das Recht auf Gesundheit (unabhängig der Kosten)
  • Aber! Was geschieht, wenn eine effektive Methode gegen Aids entwickelt würde, die 10 Mio. pro Patient kostet? Wo ist die Grenze des Bezahlbaren?
  • Klar ist: Der monetäre Nutzen einer Behandlung darf nicht das einzige Entscheidungskriterium für oder gegen eine Therapie sein (wichtig ist immer auch die Betrachtung des individuellen, subjektiven Nutzens, der Effektivität etc.)
  • Angesichts begrenzter Ressourcen helfen Kostenanalysen aber, Fehlallokationen abzubauen und rationale Entscheidungen zu treffen
  • Unmöglich die durchschnittliche Einsparung einer Therapie auf den einzelnen Patienten zu übertragen
  • Theoretisch wäre der positive monetäre Nutzen einer Therapie bei einem Spitzenverdiener sehr viel grösser als derjenige bei einem Erwerbslosen
  • Solche Überlegungen dürfen nicht dazu führen, dass bestimmte Therapien eher Patienten zugute kommen, bei denen es sich mehr « lohnt » (Kosten-Nutzen-Analysen dürfen nicht zur Selektion von Patienten führen
  • Weitere Schwierigkeit: Erfassung der vollständigen Kosten einer Massnahme oft schwierig und sehr aufwändig

Denken Sie sich eine typische Fragestellung aus, die im Rahmen einer Prozess-Outcome- Studie gestellt wird.

Hängt die Qualität der Therapiebeziehung im therapeutischen Prozess mit dem Therapieergebnis zusammen?

Nennen Sie mindestens drei Dimensionen von Psychotherapie-Prozessmassen (nach Hill und Lambert) und je mindestens zwei Unterkategorien (Beispiele) pro genannter Dimension.

1. Focus der Evaluation:

  • « Klient » (z.B. emotionale Beteiligung, dysfunktionales Denken)
  • « Therapeut » (z.B. Realisierung therapeutischer Wirkfaktoren, Qualität der Interpretationen etc.)
  • Klient/Therapeut-Dyade (z.B. therapeutische Beziehung, nonverbale Synchronisation)
  • System (Familie, Gruppe; z.B. Gruppenkohäsion)
  • Supervisoren (z.B. Direktivität von Supervisoren) 


2. Theoretische Basis des Prozessmasses: 


  • Oft basierend auf theoretischen Annahmen eines bestimmten Ansatzes, teils aber auch schulenübergreifend (z.B. Wirkfaktoren nach Grawe) und in Basiswissenschaften (z.B. Allgemeine, Kognitive, Sozialpsychologie) fundiert. 

  • Bekanntes Beispiel aus Klientenzentrierten und emotionsfokussierten Ansätzen: Experiencing Scale (Klein, Mathieu, Gendlin, & Kiesler, 1970)

 

3. Aspekte des Prozesses:


  • Was (Inhalt) versus wie etwas gesagt/gemacht wird (Stil)
  • Beispiel Inhalt: Psychodynamic Interventions Rating Scale (Kategorisierung der therapeutischen Interventionen)
  • Beispiel Stil: Wie empathisch, wie bewertend, wie motivorientiert etc.
  • Wie gut wird etwas gemacht (Qualität) und hält sich ein Therapeut oder 
Patient an die Vorgaben (Manual)

  • Kompetenz und Adhärenzratings 

  • Bezieht sich das Rating auf beobachtbares Verhalten oder « verdeckte Erfahrungen »
  • Beobachtbares Verhalten (z.B. nonverbales Verhalten)
  • Verdeckte Erfahrungen (z.B. Was ging in einem bestimmten Moment im Kopf der Patienten oder Therapeuten vor; Beispiel « Brief Structured Recall »;)

Aus welchen Perspektiven werden Prozessvariablen typischerweise eingeschätzt und mit welchen Methoden werden die Prozessvariablen aus den verschiedenen Perspektiven typischerweise gemessen?

  • Patientenperspektive: typischerweise Fragebogenmethoden = Makroprozessmasse (beziehen sich auf ganze Therapiesitzungen)
  • Therapeutenperspektive: typischerweise Fragebogenmethoden = Makroprozessmasse (beziehen sich auf ganze Therapiesitzungen)
  • Beobachterperspektive: typischerweise Ratingverfahren = oft Mikroprozessmasse (beziehen sich auf Segmente einer Sitzung, z.B. einzelne Aussagen der Patienten; nonverbales Verhalten der Patienten in kurzen Sequenzen etc.)

Prozess-Outcome Forschung: Small « O » and Big « O » (Outcome)

Therapieergebnis = Big « O » (Outcome)

  • Beispiel: Wie hängt die Therapiebeziehung mit Therapieergebnis zusammen? (z.B. Korrelation Qualität der Therapiebeziehung mit der Veränderung der Symptomatik zum Therapieende?) -> Prozess-Outcome-Forschung

 

Sitzungsergebnis = Small « O » (Outcome)

  • Beispiel: Von welchen Variablen hängt die Therapiebeziehung ab? (z.B. Korrelation « Empathie des Therapeuten » mit Einschätzung der Therapiebeziehung zum Sitzungsende?)
    • Mikroprozessforschung; Prozess-Prozess-Forschung

Mit welchen Entscheidungen oder Schwierigkeiten ist man konfrontiert, wenn Prozessvariablen aus der Beobachterperspektive eingeschätzt werden?

Studieneinheiten (« the unit studied »)?

  • sollen Zeiteinheiten geratet werden (z.B. ein Rating für jede Minute der Therapie)?
  • oder Sprecherwechsel « turn takings » (jede Aussage eines Therapeuten oder Patienten)?
  • oder Sinn- bzw. Themeneinheiten?
    • Entscheidung muss vor dem Hintergrund der gemessenen Konstrukte getroffen werden (z.B. Auflösung grösser bei Messung nonverbalen Verhaltens als z.B. bei Einschätzung, welche Techniken Therapeuten anwenden)
    • Ist die Einteilung nicht objektiv gegeben (z.B. Raten von Sinneinheiten), muss auch die Einteilung in Studieneinheiten auf Reliabilität überprüft werden

Stimulusmaterial? Transkripte, Audio- oder Videoaufnahmen

  • Heute v.a. Videoaufnahmen; Hinweise, dass Kombination Video- und Transkripte die reliabelsten Ratings produziert

 

Auswahl der zu ratenden Segmente/Therapien (« sampling data from therapy »)?

  • Aus ökonomischen Gründen können selten ganze Therapien geratet werden, weshalb eine Auswahl an zu ratenden Segmenten und Therapien getroffen werden muss
  • Negativbeispiel: Studie von Sloan et al. (1975). Geratet wurden 4x4 Minuten aus der 5. Therapiesitzung. Daraus wurde auf den gesamten Therapieprozess geschlossen...
  • Die Frage, welche und wie viele Segmente und Therapiesitzungen ausgewählt werden, hängt von der Fragestellung, aber auch von der Varianz der Prozessvariablen ab:
  • Kann davon ausgegangen werden, dass eine Variable über eine Therapiestunde relativ stabil ist, reicht die Einschätzung einer kurzen Sequenz. Fluktuiert eine Prozessvariable in einer Therapiestunde oder im gesamten Therapieprozess, müssen viele Sequenzen aus verschiedenen Therapiestunden eingeschätzt werden

Prozessvariablen müssen Validitätskriterien erfüllen. Welche Arten der Validität können unterschieden werden? Denken Sie sich für jede Art ein Beispiel aus.

  • Augenscheinvalidität: Oberflächlich betrachtet messen die Items/ Ratingskalen, was gemessen werden soll (z.B. « mein Therapeut und ich verstehen einander » misst so etwas wie « Beziehung »)
  • Inhaltsvalidität: Wird der Inhalt eines Konstruktes durch die Messung vollständig erfasst?
  • Konstruktvalidität kann über die Konvergenz-, Diskriminanz und Vorhersagevalidität gemessen werden
    • Konvergenzvalidität: Die Messdaten von Testverfahren, die dasselbe Konstrukt abbilden, müssen hoch miteinander korrelieren z.B.: Mein eigenes Ratingmanual zur Bestimmung der Qualität der Therapiebeziehung muss zu Urteilen führen, die mit den Ratings aus bestehenden Ratingmanualen vergleichbar sind.
    • Diskriminanzvalidität: Die Messdaten von Testverfahren, die verschiedene Konstrukte abbilden, sollten nur gering miteinander korrelieren. z.B. sollte die Einschätzung der Therapiebeziehung nur gering mit einer Einschätzung des Aktivitätsniveaus der Klienten in der Therapie zusammenhängen
    • Vorhersagevalidität (prognostische Validität): Die Messdaten korrelieren mit Daten, die später erhoben werde
    • z.B.: Sagt ein Rating, welches die Motivation und Compliance von Klienten erfasst, Therapieabbrüche voraus?

Welche Möglichkeit der Reliabilitätsüberprüfung spielt bei Prozessmassen, die mit Fragebogen erfasst werden eine wichtige und welche eine weniger wichtige Rolle?

Reliabilität = Verlässlichkeit der Messung (hochreliable Messungen sind nahezu frei von Zufallsfehlern)

  • Interne Konsistenz: Eine hohe interne Konsistenz bedeutet, dass die verschiedenen Items, die eine Skala bilden, im Wesentlichen das Gleiche messen (stark miteinander korrelieren; gebräuchliches Mass = Cronbachs Alpha).
    • Cronbachs Alpha macht v.a. dann Sinn, wenn die Items unterschiedliche Bereiche innerhalb eines einzelnen Konstrukts messen (wenn nur oberflächlich das Gleiche anders gefragt wird, wird Cronbachs Alpha künstlich „aufgeblasen“) Faustregel: Eine Skala sollte nur verwendet werden, wenn mindestens Alpha-Werte von >0.65 erreicht werden

Andere Möglichkeit zur Realiabilitätsüberprüfung:

  • Split-Half-Reliabilität (zwei Hälften des Tests vergleichen)

In Prozessforschung oft nicht relevant bzw. teils unterwünscht:

  • Hohe Re-Test-Reliabilität: Prozessmasse sollten sehr veränderungssensitiv sein. Stabilität von Prozessvariablen oft nicht erwartet(z.B. grosse Variation in Experiencing Rating während einer Therapiestunde)

Wie wird die Reliabilität von Beobachter-Ratings bestimmt?

  • Über die Bestimmung der Interraterreliablität!

Eine Ratingskala kann nur dann sinnvoll verwendet werden, wenn verschiedene Rater dasselbe Objekt ähnlich einschätzen und jeder Rater unterschiedliche Objekte unterschiedlich beurteilt

  • Viele verschiedene Kriterien für die Beurteilung der Übereinstimmung und Interraterreliabilität: Von Angaben zu prozentualen Übereinstimmungen zu komplexeren Massen wie der Intraklasskorrelation
  • Welches Mass verwendet wird hängt auch vom Skalenniveau der Daten ab (nominal-, ordinal oder intervallskaliert; Beispiele siehe nächste Folie)
  • Es kann zwischen Inter-Rater-Reliabilität (mindestens zwei Rater beurteilen das gleiche Objekt) und Intra-Rater-Reliabilität (der gleiche Rater beurteilt ein Objekt zweimal) unterschieden werden

 

Häufig verwendete Indices (Übereinstimmung und Interraterreliabilität)

Bei nominal- oder ordinalskalierten Daten

  • Prozentuale Übereinstimmung (=prozentualer Anteil der Fälle, in denen zwei oder mehrere Rater das gleiche Urteil abgeben; häufig bei nominal- oder ordinalskalierten Daten)
  • Cohens Kappa: Basiert auf der prozentualen Übereinstimmung, hat aber den Vorteil, dass es das Verhältnis der tatsächlichen zu der bei Zufall erwarteten Übereinstimmung berücksichtigt und somit die überzufällige Uebereinstimmung quantifiziert
  • Kappa liegt zwischen 1.0 (perfekte Uebereinstimmung) und -1.0 (völliges Missverständnis zwischen zwei Ratern; kann bei nominal- oder ordinalskalierten Daten berechnet werden)
  • Rangkorrelationskoeffizienten
: Spearman-Rangkorrelationen, Kendalls TAU

Was ist ein mögliches Problem von korrelationalen Analysen in Prozess-Outcome-Studien (Berechnung der Korrelation zwischen Prozess und Outcome-Variablen) ?

Viele Prozessforscher verwenden eine korrelationale Strategie: Die Häufigkeit des Auftretens oder die Ausprägung einer Prozessvariablen wird mit dem Outcome korreliert

  • Implizite Annahme dieser Forschungsstrategie « mehr ist
besser » (z.B. mehr Interpretationen des Therapeuten sind besser als wenige Interpretationen)
  • Diese sog. Medikamentenmetapher psychotherapeutischer Wirkungen eines linearen und additiven Zusammenhangs zwischen Aufwand und Wirkung kann problematisch sein

Responsiveness critique: In der klinischen Praxis variieren die Therapeuten ihr Verhalten aufgrund des Klientenverhaltens. Sie stellen sich idealerweise auf die individuellen Voraussetzungen und Bedürfnisse bei einem Klienten ein (Therapeuten sind « responsive »)

Was ist die Fragestellung in der Studie von Gassmann und Grawe?

Wie sollen zwei therapeutische Wirkfaktoren (Ressourcenaktivierung und Problemaktivierung) in der klinischen Praxis optimal genutzt und kombiniert werden, um therapeutische Veränderungen herbeizuführen?

Welche beiden Prozessvariablen bzw. angenommenen Wirkmechanismen werden untersucht? Wie werden diese in unterschiedlichen Therapieformen realisiert?

Problemaktivierung: Betont die Wichtigkeit der prozessualen Aktivierung bzw. der unmittelbaren emotionalen Erfahrung eines Problems in der Therapiesitzung (Gegensatz: rational/intellektuelles Erzählen ohne gefühlsmässige Beteiligung)

Wird in verschiedenen Therapieformen realisiert:

  • Verhaltenstherapie: Exposition, bei welcher sich Patienten der Angst stellen müssen und diese real erleben
  • Experiential Approach/Zielorientierte Gesprächspsychotherapie (Greenberg/Sachse/Gendlin): Vertiefen der Bearbeitungsebene (Lenken der Aufmerksamkeit der Klienten auf eigene Gefühle; Gefühle sollen im Gespräch real erlebt/gespürt werden)
  • Psychodynamische Ansätze: z.B. wenn Therapeuten interpretieren, was beim Patienten gerade abläuft (z.B. Übertragungsdeutung).

Ressourcenaktivierung: Statt auf Probleme eines Patienten fokussiert die Therapeutin auf dessen Stärken und Fähigkeiten. Entscheidend ist, dass sich der Patient in der Therapie der Ressourcen bewusst wird und lernt, diese gezielt einzusetzen.  In vielen Therapieformen wurde und wird v.a. auf Probleme und wenig auf die Nutzung von Stärken fokussiert. Betont wurde die Bedeutung der Ressourcenaktivierung v.a. in systemischen Ansätzen

Wie wird die Reliabilität der Prozessmasse bestimmt?

  • Prozessrating: Einteilung gemäss Kriterien nach Hill & Lambert (2004)
  • Focus: Geratet wird sowohl Patienten, als auch Therapeutenverhalten
  • Theoretical basis: Konsistenztheorie nach Grawe
  • Perspective of evaluation: Unbeteiligte Beobachter/Rater
  • Unit studied: Minuteneinheiten
  • Stimulus material: Video/DVD Aufnahmen der Therapien

Was sind die drei Forschungshypothesen, die in dieser Studie untersucht werden? Wie werdendie Hypothesen operationalisiert?

Hypothese 1: Ebene Therapieoutcome: Gibt es Unterschiede in der Realisierung der beiden Wirkfaktoren Problemaktivierung und Ressourcenaktivierung zwischen den Therapien mit schlechtem, mittlerem oder gutem Therapieoutcome?

  • Operationalisierung: Vergleich der Mittelwerte der Ratings zwischen den drei Therapieoutcomegruppen (berechnet wurden ttests)

Hypothese 2: Ebene Sitzungsoutcome: Gibt es unterschiedliche Muster bezüglich Problemaktivierung und Ressourcenaktivierung in erfolgreichen und wenig erfolgreichen Sitzungen

  • Operationalisierung: Rein deskriptiv. Darstellung der gemittelten Prozesswerte im zeitlichen Verlauf einer Sitzung

 

Hypothese 3: Minutenebene: Gibt es Unterschiede in Patienten-Therapeuteninteraktionen auf Minutenebene bezüglich Problem- und Ressourcenaktivierung zwischen erfolgreichen und wenig erfolgreichen Sitzungen

  • Operationalisierung: Berechnung von Crosskorrelationen zwischen Patienten- und Therapeutenverhalten (beinhaltet « zeitliche verschobene » Korrelationen:
    • z.B. lag 1 = Ressourcenaktivierung Patient Minute 1 wird mit Ressourcenaktivierung Therapeut Minute 2 korreliert;
    • z.B. lag -7 = Ressourcenaktivierung Patient Minute 9 wird mit Ressourcenaktivierung Therapeut Minute 2 korreliert)

Welche Resultate wurden bezüglich der drei untersuchten Hypothesen gefunden?

Resultate Hypothese 1: Therapieebene

  • Problemaktivierung: Patientenverhalten: keine signifikanten Unterschiede zwischen den Gruppen
  • Ressourcenaktivierung: Signifikant geringere Ressourcenaktivierung in Therapien mit geringem Outcome als in den beiden anderen Gruppen

Welche (auch praktischen) Implikationen hat diese Studie?

(Gassmann und Grawe, Thermin 9)

  • Therapeutenebene: Ressourcenaktivierung erklärt mehr Outcome-Varianz als Problemaktivierung (vor dem Hintergrund, dass viele Therapieschulen v.a. auf Probleme der Klienten fokussieren = wichtiges Ergebnis)
  • Sitzungsebene: Balance von Problemaktivierung und Ressourcenaktivierung wichtig (in schlechten Sitzungen v.a. Problemaktivierung ohne Ressourcenaktivierung)
  • Minutenebene: Dem Prozess der Ressourcenaktivierung sollte ausreichend Raum gegeben werden
  • (mehrere Minuten; Therapeuten sollten Ressourcenaktivierung beim Patienten laufend und über mehrere Minuten verstärken)

Unterschiede zw. Messen    und    Verstehen. Zur Erläuterung gibt sie ein Beispiel. Worauf kommt es beim Messen und Verstehen jeweils an? Bei stand. Befragungen wird von vornhin etwas unterstellt. Was ist das? Und was macht dabei den US  zu qualitativer Forschung?

Der Forschungsauftrag von qualitativen Daten ist das Verstehen (durch sprachliche Äusserungen als symbolisch vorstrukturierten Gegenständen, bzw. mit schriftlichen Texten als deren geronnenen Formen. Der Gegenstand kann gerade nicht über da Messen, also über den methodischen Zugang der standardisierten Forschung erfasst werden.

Beispiel: Schwangere Frauen mussten entweder bei FB ankreuzen ob Schwangerschaft geplant ist oder bei einem Interview die Frage beantworten. Gezeigt hat sich, dass die Frauen die „Planung“ untersch. aufgefasst haben (was man aber nur beim Interview entdeckt hat).

Das Beispiel zeigt, wie qualitative Forschung Raum für die Äusserung eines differenten Sinns lässt. Sie geht aus von einer Differenz zw. dem Sinn den Forschende einbringen und dem Sinn, der Befragte verleiht. Sie untersucht die Konstitution von Sinn, die in standardisierter Forschung bereits als abgeschlossen und pragmatisch als gegeben Verständigungsgrundlage vorausgesetzt wird. Deutungen sind nicht objektiv. Die soziale Wirklichkeit ist eine konstruierte. Der Sinn einer sprachlichen Äusserung ist in doppelter Weise Interaktion (Erfahrungen der Vp + konkrete Interaktion im Interview). Durch Einzeläusserungen werden zugrundeliegende Muster identifiziert.

An einem zweiten Beispiel erklärt Helfferich,    was    mit    Kontextgebundenheit    und    Konstruktion    gemeint    ist. „Das Winken zu verstehen (… ist) eine aktive Konstruktion“ (S.23) Warum ist das so?

Äusserungen sind immer kontextgebunden und Kontext ist für das Verstehen von Infos wichtig. Das Verstehen z.B. einer Geste / Äusserung beruht darauf, dass das Wahrgenommene über sich hinaus auf einen Kontext (und auf einen Sinn, den es in diesem Kontext hat) hinweist. Nur als solches wird es aus dem Strom der visuellen oder akustischen Reize herausgehoben und wahrgenommen. Bspw. kann ein Winken vieles bedeuten (Abschied, Speise bestellen, usw.) und um dies zu verstehen muss man das Wahrgenommene aufgrund o Kontextinfos ergänzen und zu einem sinnhaften Ganzen machen. (=keine passive Abbildung, sondern aktive Konstruktion). Auch kulturelle Regeln können den Sinn „ergänzen“. 

Was  meint    Helfferich    mit    der    „Konstruktion    zweiten    Grades“?

  (Merkt Euch stattdessen lieber    den Begriff der Rekonstruktion. Er sagt dasselbe, ist in der Literatur aber viel  geläufiger.)

Konstruktion zweiten Grades: Wenn Menschen die Welt verstehen und ihr einen Sinn geben, dann tun sie dies im Kontext ihrer Lebenswelt. Forschende wollen dieses Verstehen verstehen. = Verstehensleistung zweiten Grades. Es entsteht eine neue Konstruktion und kann z.B. als inhaltliche Auswertung veröffentlicht werden. Um zu verstehen brauchen wir Infos über den Entstehungskontext von Äusserungen, also über die Interviewsituation, und über den höheren Entstehungskontext der Interpretation (eigene Verstehensleistung).

Was  besagen    die    Prinzipien    Kommunikation,    Offenheit,    Reflexivität,    Vertrautheit    und    Fremdheit?    Und    wie    müssen    sie    von    einer    qualitativ    forschenden    Interviewerin,    die    ihre    Arbeit    gut    machen    will,    berücksichtigt    werden?

Grundprinzipien qualitativer Interviews

Kommunikation: Ein Text (Interview) kommt durch eine Kommunikationssituation zustande. Dieser Komm.- & Interaktionsaspekt ist im Mittelpunkt, weil die Qualität qualitativer Daten aus der Qualität der Interaktion folgt. Der Zugang zu dem Sinn der Befragten ergibt sich in einer Komm.situation.

Offenheit: Die Befragten sollen ihren „Sinn“ – der ein anderer sein kann als der der forschenden – entfalten können. Dazu brauchen sie einen offenen Äusserungsrau, der gefüllt werden kann mit dem, was für sie selbst wichtig ist und in der Art und Weise sowie sie selbst sich ausdrücken möchten.

Vertrautheit und Fremdheit: Fremdheit bedeutet die Anerkennung der Differenz der Sinnsysteme von Interviewer und Erzähler. Sich auf diese Fremdheitsannahme einzulassen bedeutet, alles was im eigenen Denken als selbstverständlich geltende Normalität abgelagert ist, ncht als für die Erzählperson ebenfalls gültig zu übertragen.

Reflexivität: Beinhaltet die Reflexion des eigenen Parts im situativen Verstehensprozess während des Interviews und die Reflexion der Texterzeugung im rekonstruierenden Verstehensprozess während der Interpretation.

[Interviewende müssen sich klar darüber sein, dass sei Komm.partner sind, sie müssen ein Haltung der Offenheit entwickeln und nach der Maxime der Offenheit das Interview steuern. Sie müssen die Fähigkeit zu einer Distanz im Sinne einer Zurückstellung eigener Deutungen und schliesslich Reflexionsfähigkeit erwerben.

Wenn    wir  ein  qualitatives     Forschungsprojekt   starten    und   uns   überlegen,     welche    Methode    zum    Einsatz    kommen    soll:    Nach    welchem    wichtigen    Gesichtspunkt    sollen    wir    uns    dann    laut  Helfferich   entscheiden?

Prinzipielle Massgabe für die Wahl einer Interviewform ist die Gegenstandsangemessenheit, dh. das Verfahren muss geeignet sein, für den spezifischen Forschungsgegenstand angemessene Daten zu liefern. Wenn so die Passung von Forschungsgegenstand und methodischem Vorgehen die zentrale Grundlage ergiebiger qualitativer Forschung ist, dann wird die Klarheit des F.gegenstandes zu einer strategisch ausserordentlich wichtigen Voraussetzung ergiebiger Forschungen.

Was  meinen    die    Begriffe    Forschungsinteresse,    Forschungsfrage    und   Forschungsgegenstand?

Forschungsinteresse: zu Beginn der Forschung noch unspezifisch und breit, benennt Bereich von Phänomenen

Forschungsfrage: sollte so formuliert sein, dass eine Antwort darauf gegeben werden kann. Manche Antworten können erst in der Interpetation als Leistung der Forschenden erarbeitet werden.

Forschungsgegenstand: lässt sich aus der Forschungsfrage ableiten, benennt aber zugleich, was in dem (sprachlichen) Material der Interviewtexte gesucht werden soll und welcher

. Für    welche    Forschungsfragen    eignen    sich    qualitative    Methoden    laut    Helfferich?    

Begründet    dies    in    eigenen    Worten.    Überlegt    Euch  ein    Beispiel    für    eine    geeignete    und  für    eine    ungeeignete    Forschungsfrage.    Denkt    Euch    am    besten    Fragen    aus,    die    Euch    auch    selbst    interessieren.    (Wer    nicht    gleich    auf    Ideen    kommt,    findet    vielleicht    in    der    Tabelle    ab    S.    30    Anregungen.)

Für qualitative Methoden geeignete Fragen, nutzen neben deren Bestimmung, Sinn oder subjektive Sichtweisen in methodisch kontrollierter Weise zu rekonstruieren, die Eigenschaft, dass die Komplexität des Analysegegenstandes erst später reduziert wird. Qualitative Verfahren erzeugen eine Vielfalt an Daten, welche später reduziert werden bei der Aufbereitung und Auswertung der Texte. Geeignete Forschungsfragen:

  • Fragen nach subj. Sinn und nach „der Welt im Kopf von Menschen“
  • Fragen, die auf eine erst spät reduzierte Vielfalt von Phänomenen zielen im Sinne von „ES-gibt“-Aussagen,
  • Fragen nach existierenden oder möglichweise nach typischen Mustern n dieser Vielfalt.

Nicht geeignet: Fragen die auf Quantifizierungen oder Häufigkeitszusammenhänge erschlossene Wirkungen zielen.

Helfferich  erklärt    ab    S.    29    anhand    eines    Beispiels,    was    mit    qualitativen    Interviews    überhaupt    erschlossen   werden    kann  –    und    was  nicht.    Was    denn?    Und    was    nicht?  Und    warum    (nicht)?

Forschungsgegenstand soll nicht als Lebenssituation, Alltag und Ressourcen benennt werden, denn damit bleibt unklar, was aus welchem Material gewonnen werden kann. Der Alltag erschliesst sich als solcher nicht in Interviews, daher kann der Alltag selbst nicht methodologischer Forschungsgegenstand sein (und somit nicht das sein, womit gearbeitet wird). Methodologisch können Gegenstände bei qualitativen Interviews nur Deutungen und Sinn sein, der im Alltag verliehen wird. Soll der Alltag nicht nur Thematisierungsfolie sein, um grundlegende räumliche Orientierungen zu rekonstruieren, sondern soll er in seinen faktischen Handlungsabläufen Gegenstand sein, dann wären andere qualitative Zugänge als Interviews (Bspw. Beobachtung) sinnvoller.

Eignung für Qualitative Forschung:

  • + Subj. Sinn/Konzepte/Theorien, Deutungsmuster, Alltagstheorien, Wirklichkeits-konstruktionen, kogn. Repräsentationen
  • +/- Selbstverständnis, Lebensetnwürfe, Orientierung, Normen
  • +/- Kollektive Deutungsmuster, kulturelle Muster/Stile (Gruppendiskussionen eignen sich besser als Einzelinterviews)
  • + Beziehungen, Positionierungen
  • +/- (unbewusste) Motive/Motivation
  • + Prozesse, Abläufe, Verläufe, Falllogik (nur geeignet, wenn darunter nicht die Abb. eines objektiven Verlaufs verstanden wird)
  • + (narrative) Bewältigung
  • - Erfahrungen, Handlungen (sind in qualitativen Interviews oft nicht direkt zugänglich).
  • (+) Aushandlungen)

Was sind Vor- und Nachteile von nicht experimentellen Fallstudien?

Vor- & Nachteile:

•  Oft wird argumentiert, dass Fallstudien die Kluft zwischen Forschung und Praxis verkleinern: Fallstudien sind nahe am Einzelfall und Kliniker können leicht auch selbst Fallstudien durchführen

•  Auch seltene Phänomene können illustriert werden (Bsp. Oliver Sacks Studien) 
• Fallstudien sind v.a. auch während der Entwicklung neuer Erhebungs- und Behandlungsformen nützlich (auch aus ethischen Gründen: Pilotversuch besser nur an wenigen Pat.)

 

•  Nachteile ergeben sich v.a. durch die Konzentration auf den einzelnen Fall: Es ist nicht möglich zu entscheiden, ob Ergebnisse auch Gültigkeit für andere Fälle haben: Generalisierungsmöglichkeit ist eingeschränkt

•  Es können leicht « plausible » Geschichten geschrieben werden, welche Faktoren für ein Ergebnis wesentlich waren, aber aus einer anderen Perspektive lassen sich meist auch andere « plausible » Geschichten ableiten: Viele « unkontrollierte » Variablen

•  Die Auswahl der vermeintlich relevanten Variablen ist oft entscheidend für die Auswahl eines Falles (keine Zufallsauswahl eines Falles). Das Interesse an einem spezifischen Fall wird auch 
den Forschungsprozess bestimmen: « Verminderte » Objektivität