PsyThFormeth
PTFuMdKP
PTFuMdKP
Kartei Details
Karten | 87 |
---|---|
Sprache | Deutsch |
Kategorie | Psychologie |
Stufe | Universität |
Erstellt / Aktualisiert | 21.06.2016 / 18.07.2024 |
Weblink |
https://card2brain.ch/box/psythformeth
|
Einbinden |
<iframe src="https://card2brain.ch/box/psythformeth/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Was meint Helfferich mit der „Konstruktion zweiten Grades“?
(Merkt Euch stattdessen lieber den Begriff der Rekonstruktion. Er sagt dasselbe, ist in der Literatur aber viel geläufiger.)
Konstruktion zweiten Grades: Wenn Menschen die Welt verstehen und ihr einen Sinn geben, dann tun sie dies im Kontext ihrer Lebenswelt. Forschende wollen dieses Verstehen verstehen. = Verstehensleistung zweiten Grades. Es entsteht eine neue Konstruktion und kann z.B. als inhaltliche Auswertung veröffentlicht werden. Um zu verstehen brauchen wir Infos über den Entstehungskontext von Äusserungen, also über die Interviewsituation, und über den höheren Entstehungskontext der Interpretation (eigene Verstehensleistung).
Was besagen die Prinzipien Kommunikation, Offenheit, Reflexivität, Vertrautheit und Fremdheit? Und wie müssen sie von einer qualitativ forschenden Interviewerin, die ihre Arbeit gut machen will, berücksichtigt werden?
Grundprinzipien qualitativer Interviews
Kommunikation: Ein Text (Interview) kommt durch eine Kommunikationssituation zustande. Dieser Komm.- & Interaktionsaspekt ist im Mittelpunkt, weil die Qualität qualitativer Daten aus der Qualität der Interaktion folgt. Der Zugang zu dem Sinn der Befragten ergibt sich in einer Komm.situation.
Offenheit: Die Befragten sollen ihren „Sinn“ – der ein anderer sein kann als der der forschenden – entfalten können. Dazu brauchen sie einen offenen Äusserungsrau, der gefüllt werden kann mit dem, was für sie selbst wichtig ist und in der Art und Weise sowie sie selbst sich ausdrücken möchten.
Vertrautheit und Fremdheit: Fremdheit bedeutet die Anerkennung der Differenz der Sinnsysteme von Interviewer und Erzähler. Sich auf diese Fremdheitsannahme einzulassen bedeutet, alles was im eigenen Denken als selbstverständlich geltende Normalität abgelagert ist, ncht als für die Erzählperson ebenfalls gültig zu übertragen.
Reflexivität: Beinhaltet die Reflexion des eigenen Parts im situativen Verstehensprozess während des Interviews und die Reflexion der Texterzeugung im rekonstruierenden Verstehensprozess während der Interpretation.
[Interviewende müssen sich klar darüber sein, dass sei Komm.partner sind, sie müssen ein Haltung der Offenheit entwickeln und nach der Maxime der Offenheit das Interview steuern. Sie müssen die Fähigkeit zu einer Distanz im Sinne einer Zurückstellung eigener Deutungen und schliesslich Reflexionsfähigkeit erwerben.
Wenn wir ein qualitatives Forschungsprojekt starten und uns überlegen, welche Methode zum Einsatz kommen soll: Nach welchem wichtigen Gesichtspunkt sollen wir uns dann laut Helfferich entscheiden?
Prinzipielle Massgabe für die Wahl einer Interviewform ist die Gegenstandsangemessenheit, dh. das Verfahren muss geeignet sein, für den spezifischen Forschungsgegenstand angemessene Daten zu liefern. Wenn so die Passung von Forschungsgegenstand und methodischem Vorgehen die zentrale Grundlage ergiebiger qualitativer Forschung ist, dann wird die Klarheit des F.gegenstandes zu einer strategisch ausserordentlich wichtigen Voraussetzung ergiebiger Forschungen.
Was meinen die Begriffe Forschungsinteresse, Forschungsfrage und Forschungsgegenstand?
Forschungsinteresse: zu Beginn der Forschung noch unspezifisch und breit, benennt Bereich von Phänomenen
Forschungsfrage: sollte so formuliert sein, dass eine Antwort darauf gegeben werden kann. Manche Antworten können erst in der Interpetation als Leistung der Forschenden erarbeitet werden.
Forschungsgegenstand: lässt sich aus der Forschungsfrage ableiten, benennt aber zugleich, was in dem (sprachlichen) Material der Interviewtexte gesucht werden soll und welcher
. Für welche Forschungsfragen eignen sich qualitative Methoden laut Helfferich?
Begründet dies in eigenen Worten. Überlegt Euch ein Beispiel für eine geeignete und für eine ungeeignete Forschungsfrage. Denkt Euch am besten Fragen aus, die Euch auch selbst interessieren. (Wer nicht gleich auf Ideen kommt, findet vielleicht in der Tabelle ab S. 30 Anregungen.)
Für qualitative Methoden geeignete Fragen, nutzen neben deren Bestimmung, Sinn oder subjektive Sichtweisen in methodisch kontrollierter Weise zu rekonstruieren, die Eigenschaft, dass die Komplexität des Analysegegenstandes erst später reduziert wird. Qualitative Verfahren erzeugen eine Vielfalt an Daten, welche später reduziert werden bei der Aufbereitung und Auswertung der Texte. Geeignete Forschungsfragen:
- Fragen nach subj. Sinn und nach „der Welt im Kopf von Menschen“
- Fragen, die auf eine erst spät reduzierte Vielfalt von Phänomenen zielen im Sinne von „ES-gibt“-Aussagen,
- Fragen nach existierenden oder möglichweise nach typischen Mustern n dieser Vielfalt.
Nicht geeignet: Fragen die auf Quantifizierungen oder Häufigkeitszusammenhänge erschlossene Wirkungen zielen.
Helfferich erklärt ab S. 29 anhand eines Beispiels, was mit qualitativen Interviews überhaupt erschlossen werden kann – und was nicht. Was denn? Und was nicht? Und warum (nicht)?
Forschungsgegenstand soll nicht als Lebenssituation, Alltag und Ressourcen benennt werden, denn damit bleibt unklar, was aus welchem Material gewonnen werden kann. Der Alltag erschliesst sich als solcher nicht in Interviews, daher kann der Alltag selbst nicht methodologischer Forschungsgegenstand sein (und somit nicht das sein, womit gearbeitet wird). Methodologisch können Gegenstände bei qualitativen Interviews nur Deutungen und Sinn sein, der im Alltag verliehen wird. Soll der Alltag nicht nur Thematisierungsfolie sein, um grundlegende räumliche Orientierungen zu rekonstruieren, sondern soll er in seinen faktischen Handlungsabläufen Gegenstand sein, dann wären andere qualitative Zugänge als Interviews (Bspw. Beobachtung) sinnvoller.
Eignung für Qualitative Forschung:
- + Subj. Sinn/Konzepte/Theorien, Deutungsmuster, Alltagstheorien, Wirklichkeits-konstruktionen, kogn. Repräsentationen
- +/- Selbstverständnis, Lebensetnwürfe, Orientierung, Normen
- +/- Kollektive Deutungsmuster, kulturelle Muster/Stile (Gruppendiskussionen eignen sich besser als Einzelinterviews)
- + Beziehungen, Positionierungen
- +/- (unbewusste) Motive/Motivation
- + Prozesse, Abläufe, Verläufe, Falllogik (nur geeignet, wenn darunter nicht die Abb. eines objektiven Verlaufs verstanden wird)
- + (narrative) Bewältigung
- - Erfahrungen, Handlungen (sind in qualitativen Interviews oft nicht direkt zugänglich).
- (+) Aushandlungen)
Was sind Vor- und Nachteile von nicht experimentellen Fallstudien?
Vor- & Nachteile:
• Oft wird argumentiert, dass Fallstudien die Kluft zwischen Forschung und Praxis verkleinern: Fallstudien sind nahe am Einzelfall und Kliniker können leicht auch selbst Fallstudien durchführen
• Auch seltene Phänomene können illustriert werden (Bsp. Oliver Sacks Studien) • Fallstudien sind v.a. auch während der Entwicklung neuer Erhebungs- und Behandlungsformen nützlich (auch aus ethischen Gründen: Pilotversuch besser nur an wenigen Pat.)
• Nachteile ergeben sich v.a. durch die Konzentration auf den einzelnen Fall: Es ist nicht möglich zu entscheiden, ob Ergebnisse auch Gültigkeit für andere Fälle haben: Generalisierungsmöglichkeit ist eingeschränkt
• Es können leicht « plausible » Geschichten geschrieben werden, welche Faktoren für ein Ergebnis wesentlich waren, aber aus einer anderen Perspektive lassen sich meist auch andere « plausible » Geschichten ableiten: Viele « unkontrollierte » Variablen
• Die Auswahl der vermeintlich relevanten Variablen ist oft entscheidend für die Auswahl eines Falles (keine Zufallsauswahl eines Falles). Das Interesse an einem spezifischen Fall wird auch den Forschungsprozess bestimmen: « Verminderte » Objektivität
Was ist die Logik hinter experimentellen Einzelfalldesigns? Was ist der Unterschied zwischen Quasi-experimentellen und experimentellen Einzelfalldesigns?
- Auswahl einer Zielvariablen (abhängige Variable): z.B. Intensität der Angst
- Wiederholte Messung der Zielvariablen: z.B. Wiederholte Messung der Angst mit Fragebogen
- Baseline Erhebung: Überwachen der Zielvariable über einen bestimmten Zeitraum (ohne Intervention
- Einführen der Intervention. Wiederholte Messung der abhängigen Variablen.
• Logik: Wenn alle anderen Variablen konstant gehalten werden, und die einzige Variable, die verändert wurde das Einführen der Intervention war, kann darauf geschlossen werden, dass die Intervention kausal für die Veränderung verantwortlich war
• Weil es nicht möglich ist alle möglichen Störvariablen zu kontrollieren, sind Replikationen von Einzelfallexperimenten wichtig
Bei quasi-experimentellen Designs wird die Intervention nicht gezielt eingeführt bzw. manipuliert. Es wird « einfach » wiederholt gemessen und beobachtet, wie sich die Zielvariable in Abhängigkeit von den « natürlicherweise » verwendeten Interventionen verändert
Was ist im Rahmen von experimentellen Einzelfallstudien mit einem ABAB-Design gemeint? Denken Sie sich ein Beispiel für eine Einzelfallstudie mit einem ABAB-Design aus!
Eine Rückkehr auf das Ausgangsniveau bei der zweiten Baseline-Erhebung stärkt Validität der Kausalitätsaussage
Beispiel: Zwanghaftes Händewaschen (Mills et al., 1973)
- Vier erfolgreiche Replikationen mit 4 stationären Patienten, die unter starkem Waschzwang litten
- Während Replikationsserie Veränderung im Versuchsplandesign, zuerst A-B-A Design
- A = Baseline ; B= Exposition mit Reaktionsverhinderung (Hände « verschmutzen » & Verhinderung der Möglichkeit Hände zu waschen)
- Später A-B-BC-B-A Design, A=Baseline, B=Placebo, C=Expo mit Reaktionsverhinderung
Was versteht man unter einem Multiple-Baseline-Design? Denken Sie sich eine Beispielstudie mit diesem Design aus.
• Experimentelle Bedingungen werden bei verschiedenen Versuchpersonen oder bei unterschiedlichen Variablen zu unterschiedlichen Zeitpunkten eingeführt
• 1, 2 und 3 können also verschiedene Versuchspersonen sein oder unterschiedliche Variablen bei der gleichen VP wie z.B.
- 1. Interventionen, die auf negative Gedanken abzielen
- 2. Interventionen, die auf Achtsamkeit abzielen
- 3. Interventionen, die auf Verhalten abzielen
Was sind Vor- und Nachteile von experimentellen Einzelfallforschungsdesigns?
Vorteile:
- Es kann eine klare kausale Beziehungen zwischen einer Intervention und einer Veränderung aufgezeigt werden
- Sehr viel billiger als experimentelle Studien mit grossen Stichproben
- Verschiedene Einzelfallexperimente können in rascher Abfolge aufeinander aufbauen und so schnell zur Entwicklung oder Optimierung einer Intervention beitragen
- Im Gegensatz zu vielen Gruppenstudien wird nicht einfach Prä und Post gemessen. Die wiederholte Messung erlaubt die detaillierte Analyse von Veränderungsmustern und zeitlichen Abfolgen der Veränderung
- Häufige methodische Probleme in klinischen Studien (z.B. Powerprobleme) werden vermieden
Nachteile:
- V.a. eingeschränkte Generalisierungsmöglichkeiten auf Population: Eine Intervention, die sich bei einem Individuum als wirksam erwiesen hat, muss bei einem anderen nicht wirksam sein.
- Aber! Auch in Gruppenstudien werden Patienten oft selegiert (z.B. homogen bezüglich Störung) und auch da stellt sich die Frage der Generalisierbarkeit
- Wie bei Gruppenstudien können auch Einzelfallexperimente bei verschiedenen Individuen mit verschiedenen Problemen und in unterschiedlichen Settings wiederholt durchgeführt werden (um Aussagen stärker generalisieren zu können)
Was ist mit Hierarchisch Linearen Modellen (HLM-Modellen) gemeint? Warum sind diese Modelle auch in der Psychotherapieforschung wichtig?
Grundsätzlich haben Daten in der Psychologie oft eine Mehrebenenstruktur (mehrere hierarchisch geordnete Ebenen)
Warum muss Mehrebenenstruktur berücksichtigt werden?
- Eigentlich notwendige Unabhängigkeit der Beobachtungen ist in hierarchischen Datenstrukturen nicht erfüllt
- Zum Beispiel haben in einer grösseren Studie bestimmte Patienten den gleichen Therapeuten und wurden in der gleichen Klinik behandelt
- Diese Merkmale unterscheiden sie gemeinsam von anderen Patienten, die von anderen Therapeuten und in einer anderen Klinik behandelt wurden
- Nicht Berücksichtigung dieser Abhängigkeit der Daten bzw. der hierarchischen Struktur kann zu Fehlschlüssen führen (z.B. sind Unterschiede in Therapieerfolgen nicht auf eine bestimmte Behandlung, sondern auf Therapeuten oder bestimmte Kliniken zurückzuführen
Was ist mit Treatment-Aptitude-Forschung gemeint? Versuchen Sie herauszufinden, was ein sehr bekanntes Modell in diesem Bereich, nämlich das Systematic Treatment Selection (STS)-Modell nach Beutler et al. beinhaltet.
Darunter werden Forschungsansätze verstanden, die sich mit der differenziellen Anpassung des therapeutischen Vorgehens an den spezifischen Patienten befassen. Sehr bekannt hier ist das STS-Modell (Systematic Treatment Selection Modell von Larry Beutler und John Clarkin)
Letztlich geht es dabei um die Beantwortung der berühmten Frage von Gordon Paul (1967): „What treatment, by whom, is most effective for this individual with that specific problem and under which set of cirumstances?“
Systematic Treatment Selection (Beutler & Clarkin, 1990): Modell zur differentiellen Selektion von Interventionen auf der Basis von Patientenmerkmalen
- Atheoretisch -> rein empirische Grundlage: bestimmte Interventionen wirken bei bestimmten Patienten besser (patient x treatment interaction)
- patient x treatment - Interaktionen wurden bei Depressiven, Angst- und Suchtpatienten, sowie gemischten Stichproben ambulanter Patienten validiert
- Präskriptive Therapie berücksichtigt die wichtigsten Patientenmerkmale, auf die sich ein Therapeut unbedingt differentiell einstellen sollte
- Modell wurde 2002 von APA als « empirically supported » anerkannt
Was ist mit dem Phasenmodell psychotherapeutischer Veränderungen nach Howard et al. (1986) gemeint? Inwiefern ist es für die Messung von Therapieerfolg relevant?
Nutzung von laufend erhobenen Einzelfalldaten (Einzelfallmonitoring) zur Qualitätssicherung - Ausgangsfrage (Hannan, Lambert et al., 2005)
• Wie gut sind PsychotherapeutInnen darin, währen deiner Therapie vorauszusagen, ob die Therapie zu einem guten oder schlechten Therapieergebnis führen wird?
• Untersuchtwurden550Therapienvon48TherapeutInnen (ambulante Psychotherapie)
• Nachder3.TherapiesitzungwurdendieTherapeutengefragt: « In your clinical judgement, predict the client’s treatment outcome. Improve, no progress, get worse (deterioration) »
• DieTherapeutenwurdenauchdarüberinformiert,dasssichim Schnitt 8% der Patienten in einer Psychotherapie verschlechtern
Dose-Response-Model (Howard et al., 1988)
-> Bei den gleichen Patienten hätte in der 3. Sitzung mit statistischen Modellen (Idee siehe unten) in 80% der Fälle eine Verschlechterung vorausgesagt werden können!
Was ist das „Scientist-Practitioner“-Modell?
- 1949 Conference on Graduate Education in Clinical Psychology in Boulder, Colorado (als Folge des 2. Weltkrieges; viele Veteranen mit psychischen Problemen; damals war klinische Psychologie eine “kleine” akademische Disziplin mit wenig Praxisbezug).
- ”Scientist-practitioner model” oder “Bouldermodel” of graduate level training in clinical psychology.
- Essenz: Das Doktorat (Ph.D.) in clinical psychology sollte auf der Vermittlung sowohl wissenschaftlicher Methoden als auch von klinischer Praxis mit psychotherapeutischen Interventionen beruhen.
- Seither wird (auch in D/CH) von Klinischen Psychologen erwartet, dass sie Forschung in ihrem Feld machen und evaluieren, ebenso wie Psychotherapie praktizieren können
- Ziel: Wissenschaftliche Erkenntnisse sollten vor dem Hintergrund eines Verständnisses der Komplexität von Therapien und menschlichen Funktionierens erfolgen
- Aber auch Kritik an Scientist-Practitioner-Modell: Erforschung bspw. der Wirksamkeit erfolgt nicht mehr “unabhängig”, weil Psychotherapieforscher ein Interesse haben, dass Psychotherapie oder der eigene Ansatz wirkt
Was versteht man unter „empirisch validierten Therapien“ („empirically supported treatments“)?
- Therapieformen, deren Wirksamkeit gemäss bestimmten Kriterien empirisch gut abgesichert sind
- Kriterien werden von einer Task Force erarbeitet (die Bekannteste: APA Task Force on Promotion and Dissemination of Psychological Procedures of Division 12)
- Ziel: Klinikern und Leistungserbringern Handlungsempfehlungen für eine möglichst optimale Versorgung von Patienten zu geben
- Auch viel Kritik an dieser Bewegung
Was ist mit „efficacy“ und was mit „effectiveness“ gemeint?
- Keine vergleichbaren deutschen Begriffe
- Efficacy: die Wirksamkeit einer Behandlung in der „Kunstwelt“ kontrollierter Studien (unter idealen „Labor“-Bedingungen)
- hohe interne Validität, geringere externe Validität
- Effectiveness: die Wirksamkeit einer Behandlung in der routinemässigen Anwendung (unter Alltagsbedingungen)
- hohe externe Validität, geringere interne Validität
Warum ist die Untersuchung der „effectiveness“ einer Therapie wichtig?
- Erkenntnisse aus „efficacy studies“ lassen sich möglicherweise nicht auf die Anwendung in der Routinepraxis generalisieren
- In „efficacy studies“ werden Patienten möglicherweise anders rekrutiert, als in der Alltagspraxis (z.B. über Inserate und nicht z.B. aufgrund einer Überweisung eines Arztes) -> kann zu einem positiven Selektionsbias führen (Pat., die sich auf Inserate melden sind möglicherweise motivierter als überwiesene Pat.)
- Patienten in „efficacy studies“ können sich von üblichen Patienten unterscheiden (z.B. stärker bezüglich einer bestimmten Diagnose selegiert/homogenisiert; weniger „typische“ Patienten mit komorbiden Störungen)
- Auch Therapeuten können sich unterscheiden (z.B. Therapeuten sind in „efficacy studies“ möglicherweise besser trainiert, als Therapeuten „draussen“ in der Praxis)
- Efficacy und Effectiveness-Studien ergänzen sich! Nachdem die efficacy unter „Laborbedingungen“ nachgewiesen wurde, sollte auch die Machbarkeit und Übertragung der Ergebnisse auf Alltagspraxis untersucht werden
In kontrolliert randomisierten Studien werden bestimmte Therapieformen mit Kontrollbedingungen verglichen. Welche Arten von Kontrollbedingungen existieren und was sind die jeweiligen Vor- und Nachteile?
- Warteliste-Kontrollgruppe
- Vorteile: Zeiteffekte werden kontrolliert (Spontane Remission, «Reifung» der Klienten, Regression zur Mitte)
- Nachteile: Unklar, ob Wirkung der Behandlungsbedingung auf spezifische Komponenten der Intervention zurückzuführen ist (oder z.B. auf die Aufmerksamkeit durch Therapeuten); aber auch ethische Bedenken (kann man Leidende warten lassen?)
- Einsatz: Nützlich in einer frühen Phase der Entwicklung einer neuen Therapieform; Frage: Ist die neue Therapieform überhaupt wirksam?
- Placebokontrollbedingung
- Vorteile: Nicht nur Zeiteffekte, sondern auch Erwartungs- und Aufmerksamkeitseffekte werden kontrolliert. Erlaubt Schlüsse auf die spezifische Wirkung einer Intervention
- Nachteile: Schwierig zu realisieren (meist sog. supportive therapies); Probanden müssen auch darüber informiert werden, dass sie möglicherweise in einer Placebobedingung sind; Doppelblind nicht möglich: Therapeuten wissen, dass es sich um Placebobedingung handelt (Erwartungseffekte?); Ethische Bedenken (z.B. 20 Sitzungen Placebotherapie?)
- Einsatz: Oft gefordert, aber eher selten gut realisiert
- Vergleich mit etablierter Therapieform
- Vorteile: Spezifische Wirkung einer Intervention kann gezeigt werden; weniger ethische Bedenken (alle erhalten eine erfolgsversprechende Intervention)
- Nachteile: Sehr aufwändig (auch Kontrollintervention muss gut und seriös durchgeführt werden; für beide Bedingungen müssen geschulte Therapeuten verfügbar sein; grosse Stichproben erforderlich, da meist relativ kleine oder gar keine Effekte erwartet werden müssen).
- Einsatz: In einer zweiten Phase - nach einem Wartelistekontrollgruppenvergleich - wichtig.
- Superiority und Non-inferiority trials
- Superiority trial: Versuch des Nachweises der Überlegenheit einer Behandlung gegenüber Kontrollbedingung
- Non-inferiority trial: Versuch des Nachweises der Äquivalenz bzw. Nichtunterlegenheit; z.B. vor dem Hintergrund von Kosten-Effektivitätsüberlegungen: herkömmliche vs. minimale (d.h. deutlich billigere) Intervention
Vor-, Nachteile und Einsatz von Warteliste-Kontrollgruppen
- Warteliste-Kontrollgruppe
- Vorteile: Zeiteffekte werden kontrolliert (Spontane Remission, «Reifung» der Klienten, Regression zur Mitte)
- Nachteile: Unklar, ob Wirkung der Behandlungsbedingung auf spezifische Komponenten der Intervention zurückzuführen ist (oder z.B. auf die Aufmerksamkeit durch Therapeuten); aber auch ethische Bedenken (kann man Leidende warten lassen?)
- Einsatz: Nützlich in einer frühen Phase der Entwicklung einer neuen Therapieform; Frage: Ist die neue Therapieform überhaupt wirksam?
Vor-, Nachteile und Einsatz von Placebokontrollbedingung
- Placebokontrollbedingung
- Vorteile: Nicht nur Zeiteffekte, sondern auch Erwartungs- und Aufmerksamkeitseffekte werden kontrolliert. Erlaubt Schlüsse auf die spezifische Wirkung einer Intervention
- Nachteile: Schwierig zu realisieren (meist sog. supportive therapies); Probanden müssen auch darüber informiert werden, dass sie möglicherweise in einer Placebobedingung sind; Doppelblind nicht möglich: Therapeuten wissen, dass es sich um Placebobedingung handelt (Erwartungseffekte?); Ethische Bedenken (z.B. 20 Sitzungen Placebotherapie?)
- Einsatz: Oft gefordert, aber eher selten gut realisiert
Vor-, Nahcteile und Einsatz von "Vergleich mit etablierter Therapieform"
- Vergleich mit etablierter Therapieform
- Vorteile: Spezifische Wirkung einer Intervention kann gezeigt werden; weniger ethische Bedenken (alle erhalten eine erfolgsversprechende Intervention)
- Nachteile: Sehr aufwändig (auch Kontrollintervention muss gut und seriös durchgeführt werden; für beide Bedingungen müssen geschulte Therapeuten verfügbar sein; grosse Stichproben erforderlich, da meist relativ kleine oder gar keine Effekte erwartet werden müssen).
- Einsatz: In einer zweiten Phase - nach einem Wartelistekontrollgruppenvergleich - wichtig.
Superiority und Non-Inferiority Trials
- Superiority und Non-inferiority trials
- Superiority trial: Versuch des Nachweises der Überlegenheit einer Behandlung gegenüber Kontrollbedingung
- Non-inferiority trial: Versuch des Nachweises der Äquivalenz bzw. Nichtunterlegenheit; z.B. vor dem Hintergrund von Kosten-Effektivitätsüberlegungen: herkömmliche vs. minimale (d.h. deutlich billigere) Intervention
Was ist der Vorteil der Randomisierung von Probanden zu verschiedenen Behandlungsbedingungen?
- ermöglicht Vergleichbarkeit der Bedingungen hinsichtlich aller denkbaren Personenvariablen und anderen Einflüssen (Kontrolle von Störvariablen)
- Vergleichbarkeit ist zwar nicht garantiert (da jede Randomisierung mit Zufallsfehlern behaftet ist), aber sie gewährleistet sie innerhalb bestimmter statistischer Fehlergrenzen
- Begriff in Text: Stratifizierte Randomisierung («schichtweise» Randomisierung; im Gegensatz zu einfacher Randomisierung): Beispielsweise können Gruppen nach Schweregrad der Symptome gebildet werden, Patienten werden dann innerhalb der Gruppe randomisiert (Strata = Schicht) -> garantiert, dass in alle Versuchsbedingungen gleich viele schwer und leicht belastete Personen randomisiert werden
Zu welchen Zeitpunkten erfolgen in kontrolliert randomisierten Studien üblicherweise Messungen?
- Prä, Post, Follow-Up, immer öfter auch wiederholte Messung während Behandlung
- Kendall et al. betonen Wichtigkeit von Katamneseerhebungen, da nicht davon ausgegangen werden kann, dass Effekte anhalten (siehe nächste Folie)
- Katamneseerhebungen auch mit Problemen verbunden:
- Aufwand/Kosten (« Detektivarbeit »; Langzeitkatamnesen oft auch löchrig)
- Je länger Abstand, desto schwieriger die kausale Verbindung zu Therapie
Was ist mit „treatment adherence“ gemeint? Warum ist die Messung der Adherence in randomisiert kontrollierten Studien (RCT) wichtig?
- In RCT ist die unabhängige, manipulierte Variable meist ein bestimmter Therapieansatz (z.B. kognitive Verhaltenstherapie, interpersonelle Therapie etc.)
- Die «Vorgabe» an die Therapeuten z.B. verhaltenstherapeutisch vorzugehen, garantiert noch nicht, dass sie das auch tun («gesagt ist nicht getan»)
- Adherence (Adhärenz) misst das Ausmass, mit welchem sich Therapeuten an die Vorgaben eines Ansatzes halten («Manualtreue» bei manualisierten Therapien)
- Adhärenz wird üblicherweise von Beobachtern (externen Ratern) eingeschätzt.
- neben der Adhärenz bzw. der Frage, wie stark sich ein Therapeut an ein Manual hält, wird oft auch die Kompetenz eingeschätzt. Diese bezieht sich auf Frage, wie kompetent, gut und geschickt die einzelnen Interventionen realisiert wurden (z.B. auch ob der Zeitpunkt der Intervention günstig war)
- Metaanalyse zum Zusammenhang von Adhärenz/ Kompetenz und Therapieoutcome (Webb et al., 2010): Resultat: Adhärenz und Kompetenz korrelieren nicht mit dem Therapieoutcome (r=0.02 bzw. r=0.07)
- die Tatsache, dass die Adhärenz und Kompetenz nicht mit dem Therapieerfolg zusammenhängt, wird auch als Hinweis gedeutet, dass es nicht die spezifischen Techniken sind, die in Psychotherapien letztlich wirken
Was ist mit „Attrition“ gemeint? Was wird unter einem „intent-to-treat sample“ verstanden?
- Attrition (rate) = Schwundquote = Anzahl an Patienten, die vorzeitig aus einer Behandlung/der Studie ausscheiden oder sich nicht ans Studienprotokoll halten
- Eine höhere Attrition rate kann zu einem Attrition Bias führen.
- Beispiel: Verglichen werden sollen zwei Therapieformen
- Bias Problem: Bei der schlechter wirksamen Therapie brechen die Patienten eher ab -> Für diese liegen dann auch keine Daten vor -> Wirkung der schlechter wirksamen Therapie wird überschätzt (wenn nicht nach dem Intention-to- treat-Prinzip analysiert wird; nächste Frage)
Was wird unter den « intent-to-treat »-Prinzip bzw. einer « intent-to-treat »-Stichprobe verstanden?
- Das « Intent-to-treat »-Prinzip (ITT) bedeutet, dass die Daten aller Patienten, die man beabsichtigte zu behandeln bzw. die die Einschlusskriterien einer Studie erfüllten und z.B. randomisiert wurden, ausgewertet werden.
- Das « Gegenteil » ist die Completers- oder Per-Protocol-Analyse (nur die Daten von Patienten, die vorhanden sind und/oder die eine Behandlung abgeschlossen haben werden ausgewertet)
- Konkrete Methoden (um mit Missings und nach dem ITT-Prinzip vorzugehen):
- LOCF (Last observation carried forward): Der letzte gemessene Wert wird angenommen (z.B. Post-Messung =Prä-Messung = keine Veränderung wird angenommen)
- Ersetzen der fehlenden Werte durch Schätzungen (mit statistischen Algorithmen, die vorhandene Daten berücksichtigen; « Imputations »)
- Komplexere statistische Methoden: z.B. linear mixed models
Aufgrund des möglichen Attrition Bias werden Intent-to-treat-Analysen empfohlen
Was versteht man unter einer „klinisch signifikanten“ Veränderung („Clinical significant“- change)?
Reliable Change Index (RCI; Jacobson & Truax, 1991)
- Überschreitet eine Veränderung (z.B. Prä -> Post-Therapie) einen Wert, der auch aufgrund eines Messfehlers erwartet werden könnte
- Wenn ja, wird von einer reliablen Veränderung gesprochen
- Für die Berechnung wird Test-Retest-Reliablität des Messinstruments (z.B. Beck Depression Inventar) als Schätzung des Messfehlers verwendet
- Resultat der Berechnung des RCI ist z.B. dass sich eine Person auf dem Beck Depression Inventar um mindestens 5 Punkte verbessern muss, damit von einer reliablen Veränderung gesprochen werden kann
-
- 1 / 87
-