Strukturgleichungsanalyse versus Regressionsanalyse Sirko Kupper 1997 Für die statistische Analyse von Forschungshypothesen der Sozial- und Verhaltenswissenschaften ist die Strukturgleichungsmodellierung umfas- sender und robuster als die multiple Regressionsanalyse. 1 Erläuterung der These Die Strukturgleichungsmodellierung ist für statistische Analyse von Forschungshypothesen der Sozial- und Verhaltenswissenschaften umfassender, weil ?? ausgehend von den Forschungshypothesen ein umfangreiches Modell spezifiziert wird, das anschließend geschätzt und getestet wird. Im Gegensatz zur multiplen Regressionsanalyse, wo nur direkte Beziehungen von unabhängigen Variablen auf eine abhängige Variable spezifiziert werden können. ?? als Derivat dieser Modellspezifikation das Modell nochmals sorgfältig durchdacht werden kann, hinsichtlich bisheriger theoretischer und empirischer Untersuchungen. ?? die Beziehungen zwischen latenten Variablen geschätzt und getestet werden können, was in vielen Fragestellungen der Psychologie von Interesse ist (z. B. Eine schlechte Gesundheit ruft ein negatives Selbstbild hervor!). und sie ist robuster, weil ?? im Falle der Verletzung der N(0,1)-Annahme korrigierte Schätzmethoden (Robuste Maximum Likelihood Analyse) und korrigierte statistische Testkennwerte (Skaliertes ?2, Satorra & Bentler, 1988) eingesetzt werden können. Im Gegensatz zur Multiplen Regressionsanalyse, bei der im Falle von Abweichungen von der Normalverteilung starke Verzerrungen der Ergebnisse auftreten und somit die Zuverlässigkeit der Ergebnisse in Frage gestellt ist. 2 Gegenüberstellung der beiden Analysemethoden an einem empirischen Beispiel Die Daten stammen aus einer Untersuchung von Chatterjee & Yilmaz (1992), in der einer Zufallsstichprobe von 24 Patienten Fragebogen vorgelegt wurde. Anhand dieses Datensatzes haben die Autoren verschiedene Diagnosetechniken demonstriert, um einer leichtfertigen Anwendung der Regressionsanalyse vorbeugen zu können. Mit Hilfe dieser vorliegenden Daten soll nun der Einfluß des Alters (AGE) auf die Gesundheit (HEALTH) untersucht werden. Das Konstrukt Gesundheit wurde über die Indikatorvariablen Schwere der Krankheit (ILLNESS), Ängstlichkeit (ANXIETY) und Zufriedenheit (SATISFACTION) operationalisiert. 2.1 Vorbereitende Analysen 2.1.1 Scatterplot Mit Hilfe des Scatterplots1 wurde im Datensatz ein „Ausreißer“ oder sog. „einflußreicher Fall“ identifiziert, der das Ergebnis verzerren kann. Dieser „Ausreißer“ (Patient 10) wurde aus den weiteren Analysen ausgeschlossen. Das R2 des Scatterplots veränderte sich nach Ausschluß des Wertes von 0.151 auf 0.631. 2.1.2 Prüfung der Normalverteilungsannahme Zunächst wurden die Daten als Normal Plot (erwartete gegen beobachtete Wahrscheinlichkeit) dargestellt und inspiziert, wonach nur kleinere Abweichungen zu erkennen sind. In einem weiteren Schritt wurde ein Test auf Verteilungsparameter (Kolmogoroff-Smirnov-Test2) durchgeführt. Für die Variable Ängstlichkeit (Anxiety) ist die Normalverteilungsannahme nur mit Einschränkungen haltbar. P=20 %, d. h. mit einer Wahrscheinlichkeit von 20 % ist die Ablehnung der Normalverteilungsannahme falsch. Die übrigen Variablen liegen normalverteilt vor. 2.2 Strukturgleichungsmodellierung nach Bentler (EQS) 2.2.1 Modellspezifikation In Abbildung 1 ist das hypothetisierte Modell abgebildet. 1 Scatterplot, Streudiagramm: Das Scatterplot ist ein häufig benutzter statistischer Plot. Zwei Variablen werden gegeneinander verglichen, um die Daten zu untersuchen. Dies ist eine gute Hilfsmöglichkeit, um die Beziehungen zwischen Variablen anzuzeigen, ihre lineare Beziehung zu bewerten und Ausreißer (Outliners) zu identifizieren. Der Scatterplot im Rahmen von EQS zeigt den Plot, zeichnet die bivariate lineare Regressionsgerade, gibt obere und untere Grenzen des 95%-Konfidenzintervalls an und zeigt die Regressionsgleichung. 2 K-S-Verteilungstest: Test auf Normalverteilung, der auf dem absoluten Wert der maximalen Differenz zwischen der beobachteten empirischen (kumulativen) Verteilungsfunktion und der unter der Annahme einer Normalverteilung erwartete Verteilungsfunktion. Die Korrektur nach Lillifors wird angewendet, die berücksichtigt, daß Mittelwert und Varianz der Normalverteilung vorher aus den Daten zu schätzen sind. 2.2.2 Testen des hypothetisierten Modells 2.2.2.1 Parameterschätzung Die Parameterschätzung erfolgte mit Hilfe der Maximum-Likelihood-Methode. Die Angabe der Parameterschätzungen erfolgt im EQS-Programm in standardisierter Form, d. h. die Varianz der Variable beträgt 1.0. Die Zahlen an den gerichteten Pfeilen in Abbildung 2 entsprechen somit standardisierten Regressionskoeffizienten. Ein Sternchen (*) an den Koeffizienten indiziert statistische Signifikanz in der unstandardisierten Lösung, d. h. der Parameter ist für das Modell bedeutsam. Fixierte Parameter werden nicht auf Signifikanz getestet. 2.2.2.2 Modellbewertung Obgleich sich zeigt, daß die Variable AGE einen starken Einfluß auf das Konstrukt HEALTH besitzt und daß die drei Variablen ILLNESS, ANXIETY und SATISFACTION gute Indikatoren für HEALTH zu sein scheinen, ist das Modell statistisch zu verwerfen. Der ?2- Wert von 11.3 bei 2 Freiheitsgraden (p=0.0035) impliziert bei einem Signifikanzniveau von 5%, daß dieses Modell verworfen werden muß. Der Normal Fit Index (NFI) ist auch nur 0.79 und der Comparative Fit Index (CFI) nur 0.80. Um so schwerer wiegt dieses Ergebnis bei der geringen Stichprobe von N=23. 2.2.3 Modellmodifikation 2.2.3.1 Spezifikation des modifizierten Modells Im Rahmen der Modellmodifikation soll nun mit Hilfe des Modells 2 in Abbildung 3 geprüft werden, ob der Einfluß von AGE auf HEALTH möglicherweise indirekter Art ist, d. h. durch die Drittvariable SATISFACTION vermittelt wird. Da im Rahmen von Modell 1 deutlich wurde, daß die manifesten Variablen ILLNESS und ANXIETY durch die latente Variable positiv beeinflußt werden, erweist es sich als sinnvoller die Konstruktbezeichnung in „BAD HEALTH“ umzubenennen. In diesem Modell ist kein direkter Effekt von AGE auf BAD HEALTH enthalten. Der Alterseffekt wird vollständig durch SATISFACTION vermittelt. Der indirekte Effekt von AGE auf BAD HEALTH kann durch die Multiplikation der beiden Pfadkoeffizienten ermittelt werden. (V1-V4) • (V4-F1) = AGE ? BAD HEALTH, (-0.77) • (-0.67)= 0.52, d. h. hohes Alter geht mit steigender schlechter Gesundheit einher. Interpretiert man die Regressionskoeffizienten von links nach rechts, so erhält man folgende Erklärungen für direkte Effekte: ?? ältere Menschen sind zufriedener ?? Menschen mit schlechter Gesundheit sind unzufriedener ?? Menschen mit einem stärkeren Ausmaß an Krankheit zeigen häufig schlechte Gesundheit ?? ängstliche Menschen zeigen oft eine schlechte Gesundheit und folgende für indirekte Effekte: ?? ältere Menschen zeigen oft schlechte Gesundheit (und glauben öfters, daß sie eine schlechte Gesundheit besitzen) ?? Menschen mit einem höheren Ausmaß an Krankheit sind unzufriedener ?? Menschen mit einer hohen Ängstlichkeit sind unzufriedener 2.2.3.2 Modellschätzung und -bewertung Im Gegensatz zu Modell 1 paßt dieses Modell sehr gut zu den Daten, was sich in einem ?2- Wert von 0.05 bei zwei Freiheitsgraden und einem p=0.98 (?=98%) und einem CFI=1.00 (S-B ?2=0.06; S-Bp=0.97, Robust CFI=1.00). 2.3 Multiple Regressionsanalyse 2.3.1 Erstes Regressionsmodell Da latente Variablen im Rahmen dieses Ansatzes nicht hypothetisiert werden können, wird theoretisch vorausgesetzt, daß gesunde Menschen zufrieden sind und dann in Abbildung 4 die Zufriedenheit (SATISFACTION) aus den Variablen AGE, ILLNESS und ANXIETY vorhergesagt. Als vorbereitende Analyse wird zunächst mit Hilfe einer Varianzanalyse die Nullhypothese getestet, ob in der Grundgesamtheit die Werte Koeffizienten gleich Null betragen. Das Bestimmheitsmaß liegt sehr hoch mit r2=0.67, d. h. 67 % der Gesamtstreuung sind auf die erklärenden Variablen zurückzuführen und 33% auf in der Regressionsgleichung nicht erfaßte Einflüsse. Das Modell wird nach dem F-Test für die gesamte Regressionsfunktion nicht verworfen. Die Prüfung der einzelnen Koeffizienten ergab jedoch nur für die Variable AGE eine Signifikanz. 2.3.2 Modellmodifikation Da lediglich die Variable AGE einen akzeptablen Beitrag zur Vorhersage von SATISFACTION leistet werden zusätzlich zwei Teilmodelle spezifiziert, durch die die Einflüsse von ILLNESS und ANXIETY auf SATISFACTION getrennt überprüft werden. Insgesamt existieren somit die drei Teilmodelle in Abbildung 5 Mit den Koeffizienten von ANXIETY=0.604 und ILLNESS=0.587 sind die ?-Gewichte akzeptabel. Für die Parameterschätzungen werden statistische Signifikanzen ausgegeben. Da sich das Modell nicht als gesamtes in der vorliegenden Struktur bestätigen läßt (d. h. SATISFACTION = ?1 ILLNESS + ?2 ANXIETY + e) kann davon ausgegangen werden, daß hinter den Variablen eine Größe zu vermuten ist, die den Einfluß auf beide Variablen steuert (z. B. HEALTH oder vielmehr BAD HEALTH). Nach einer Integration der drei Einzelmodelle kommen wir in Abbildung 7 auch zu dem Modell der Strukturgleichungsanalyse. 3 Diskussion Es wurde anhand dieses kurzen empirischen Beispiels gezeigt, daß sich der Ansatz der Strukturgleichungsmodellierung sehr viel umfassender, einfacher anzuwenden und unmißverständlicher darstellt als der Analyseansatz der multiplen Regression. Mit dem Ansatz der Strukturgleichungsmodellierung können die Beziehung zwischen manifesten Variablen und einer dahinterstehenden hypothetisierten Größe statistisch getestet werden. Auch Modelle mit verschiedenen Nebeneinflüssen und Moderatoreffekten (i. S. indirekter Effekte) können getestet und bewertet werden. Die Robustheit der Analysen wurde durch die Berechnung des Satorra-Bentler-?2-Wertes und des Robust CFI ausgedrückt. Die Parameterschätzung erfolgte in diesem Fall mit Hilfe der Robusten Maximum-Likelihood- Methode. 4 Die Modellierung von Strukturgleichungen 4.1 Einleitung Lineare Strukturgleichungsmodelle sind primär algebraischer Natur. Es handelt sich um komplexe lineare Gleichungssysteme, die als Regressionsgleichungen als Komponenten bestehen (Bollen, 1989; Loehlin, 1992; Bentler, Wu & Houck, 1996), wie z. B. in folgender Form: V4=?1V1+?2V2+?3V3+E4 d. h. die Variable 4 wird als Linearkombination der gewichteten Variablen V1, V2 und V3 vorhergesagt. Wenn ein Modell mehrere solcher Gleichungen benötigt, so können sie ökonomisch in Matrizenschreibweise zusammengefaßt werden. Im Standard-LISREL-Modell nach Jöreskog & Sörbom (1993) werden diese Gleichungen über acht verschiedene Matrizen abgebildet (?, ?, ? ?, ? ?, ? , ? , ? ?, ? ?). Bentler & Weeks haben diesen formal anspruchsvollen Ansatz durch die Verwendung von drei Matrizen vereinfacht. Im Rahmen des Bentler-Weeks-Ansatzes setzen sich die Modellparameter aus den Koeffizienten in den Gleichungen sowie den Varianzen und Kovarianzen der unabhängigen Variablen zusammen. In dem angeführten Beispiel setzen sich die Modellparameter aus den Koeffizienten ?1, ?2 und ?3 und aus den Varianzen und Kovarianzen der Variablen V1, V2 und V3 zusammen. Neben dieser algebraischen Repräsentation von Strukturgleichungsmodellen existiert auch die Möglichkeit einer Visualisierung in Form von Pfaddiagrammen. Die algebraische Form des Pfaddiagramms in Abbildung 8 entspricht der o.a. Gleichung. Die „Modellierung von linearen Strukturgleichungen“ (Structural Equation Modeling, SEM) ist ein umfassendes Verfahren, um Hypothesen über das Verhältnis von manifesten und Abbildung 8. Pfaddiagramm zur Gleichung: V4=?1V1+?2V2+ ?3V3+E4 latenten Variablen zu überprüfen. Diese Hypothesen werden typischerweise in Form eines Pfaddiagramms abgebildet. Bereits Sewell Wright (1921), einer der bekanntesten Begründer dieses Ansatzes, präferierte Pfaddiagramme zur Visualisierung von kausalen Beziehungen zwischen Modellvariablen. Der SEM-Ansatz basiert auf der konfirmatorischen Faktorenanalyse, die 1966 durch Karl Jöreskog (1966) entwickelt wurde. Das Hauptmerkmal linearer Strukturgleichungsmodelle ist die Berücksichtigung von latenten Variablen (wie z. B. Depression, Einstellungen, Erziehungsstil). 4.2 Grundlegende Konzepte 4.2.1 Latente versus beobachtbare Variablen Latente Variablen sind theoretische Konstrukte, d. h. abstrakte Konzepte, die nicht beobachtet werden können und daher aus empirischen Messungen beobachtbarer Variablen geschlossen werden müssen. Im allgemeinen Verständnis der latenten Variablen als Faktoren, können sie als „hinter den beobachtbaren Variablen“ stehende Größen begriffen werden. Sie repräsentieren den Zusammenhang zwischen den beobachtbaren Variablen. Beispiele für latente Variablen in der Psychologie sind Anorexia nervosa und Depression, in der Soziologie soziale Klasse und Schicht oder in der Pädagogik Schulklima und Lehrererwartung. Da die latenten Variablen unbeobachtbar sind, müssen sie indirekt gemessen werden. Dies wird dadurch erreicht, daß die latente Variable operational über eine oder mehrere beobachtbare Variablen, die diese latente Variable möglichst hinreichend repräsentieren, definiert wird. Dies kann über Antworten aus Fragebogen, kodierten Antworten auf Interviewfragen oder kodierten Bewertungen von Fremdbeurteilungsinventars (z. B. SKI/3). Diese erhobenen Daten werden beobachtete oder manifeste Variablen genannt und dienen im Rahmen des SEM-Ansatzes als Indikatoren für die dahinterstehenden Konstrukte (d. h. latente Variablen). Nach dieser kurzen Erörterung zum Verhältnis von manifesten und latenten Variablen sollen im folgenden zur ältesten und weithin bekannten statistischen Prozedur zur Untersuchung dieses Verhältnisses einige grundsätzliche Überlegungen angestellt werden, der Faktoren- analyse. 4.2.2 Faktorenanalytisches Modell Bei der Benutzung der Faktorenanalyse untersucht der Forscher die Kovariation innerhalb einer Menge von beobachteten Variablen, um über die „dahinterstehenden“ latenten Konstrukte Informationen zu erhalten. Es existieren zwei Formen der Faktorenanalyse: die exploratorische Faktorenanalyse und die konfirmative Faktorenanalyse. Beide Analyse- techniken sollen kurz beschrieben werden. Die exploratorische Faktorenanalyse wird dann verwendet, wenn der Forscher die Absicht besitzt, Strukturen in einem Datensatz zu erkennen. Zunächst besitzt der Forscher noch keine konkreten Vorstellungen über die Korrelationen der zu untersuchenden Variablen. Als Ursache dieser empirisch beobachteten Korrelationen werden lediglich hypothetische Faktoren als verursachend angesehen. Der Forscher besitzt jedoch keine genaue Kenntnis von diesen Faktoren. Das Hauptmerkmal der exploratorischen Faktorenanalyse besteht somit darin, daß etwas entdeckt werden soll (nämlich die Faktoren) und daraus hervorgehend Hypothesen generiert werden. Im Gegensatz zur exploratorischen Faktorenanalyse besitzt der Forscher bei der Anwendung einer konfirmatorischen Faktorenanalyse bereits a priori konkrete Vorstellungen über mögliche hypothetische Faktoren (z. B. über andere empirische Untersuchungen oder Theorien). Es werden somit Hypothesen über die Beziehungen zwischen manifesten, beobachtbaren und latenten, nicht beobachtbaren Variablen aufgestellt. Diese Hypothesen werden an einem empirischen Datensatz getestet. Der Grundgedanke der konfirmatorischen Faktorenanalyse besteht darin, daß etwas begründet werden soll (nämlich die Beziehung zwischen beobachteten und latenten Variablen). Diese „Begründung“ erfolgt über statistische Hypothesentestung. Zusammenfassend kann gesagt werden, daß der faktorenanalytische Ansatz auf die Art und das Ausmaß der Beziehung zwischen manifesten und latenten Variablen (Faktoren) fokussiert. Die Stärke der Regressionspfade von den Faktoren zu den beobachteten Variablen ist von vorrangigem Interesse. Im Rahmen des SEM-Ansatzes wird ein derartiges konfirmatorisches faktorenanalytisches Modell als Meßmodell bezeichnet. 4.2.3 Vollständiges Strukturgleichungsmodell Im Unterschied zum faktorenanalytischen Modell erlaubt das vollständige Strukturgleichungsmodell die Ermittlung der Regressionsstruktur zwischen latenten Variablen. Der Forscher kann in diesem Fall Hypothesen über die Wirkung von einer latenten Variable auf eine andere aufstellen. Ein derartiges Modell wird als vollständig bezeichnet, weil es sowohl das Meßmodell als auch das Strukturmodell berücksichtigt. Das Meßmodell beschreibt die Beziehung zwischen latenten Variablen und ihren empirischen Messungen. Das Strukturmodell stellt die Beziehungen zwischen den latenten Variablen dar. 4.2.4 Allgemeine Ziele und der Prozeß der statistischen Modellierung Die Verwendung statistischer Modelle stellt einen sehr effizienten und bequemen Weg dar, um die einer Menge beobachteter Variablen zugrundeliegende Struktur zu beschreiben. In Form von Diagrammen oder mathematischen Gleichungen erklären diese Modelle, wie die beobachteten und latenten Variablen miteinander in Beziehung stehen. In der Regel postuliert der Forscher ein statistisches Modell auf der Basis einer zugrundeliegenden Theorie, früherer empirischer Forschungsergebnisse in diesem Bereich oder einer Kombination von beidem. Nach dieser Modellspezifikation wird die Plausibilität des Modells an einem Datensatz getestet (der alle beobachteten Variablen des Modells enthält). Die Hauptaufgabe dieses modelltestenden Vorgehens besteht in der Ermittlung des sog. Goodness-of-Fit (Güte der Anpassung) zwischen dem hypothetisierten Modell und dem Datensatz. Folglich unterstellt der Forscher dem Datensatz die Struktur des hypothetisierten Modells und testet anschließend, wie gut sich die Daten an diese Struktur anpassen. Da eine perfekte Anpassung zwischen den beobachteten Daten und dem hypothetisierten Modell erwartungsgemäß unwahrscheinlich erscheint, wird die Diskrepanz zwischen diesen beiden Modellen als Residual ausgedrückt. Der Modellanpassungsprozeß kann demnach folgendermaßen zusammengefaßt werden: Daten = Modell + Residual wobei: ?? Daten repräsentieren die Messungen der beobachteten Variablen, die aus einer bestimmten Merkmalsausprägung bei Personen resultiert. ?? Modell stellt die hypothetisierte Struktur zwischen beobachteten und latenten Variablen dar, in manchen Modellen auch die Struktur zwischen latenten Variablen. ?? Residual gibt die Höhe der Differenz zwischen dem hypothetisierten Modell und den beobachteten Daten an. Die mit diesem Modellanpassungsprozeß verbundene Theorie wurde in vielen Arbeiten dargestellt. Zum Beispiel Bollen (1989), Hayduk (1987) oder Loehlin (1992). Der Algorithmus einer Strukturgleichungsmodellierung stellt sich folgendermaßen dar. 4.3 Algorithmus 4.3.1 Modellspezifikation Chronologisch betrachtet beginnt die Strukturgleichungsmodellierung mit der Spezifiztierung eines Modells, mit dem die Anpassung der empirischen an die theoretische Verteilung abgeschätzt werden soll. Somit wird aus dem empirischen Stichprobenbefund die Verteilung und Ausprägung der Merkmale in der Grundgesamtheit theoretisch berechnet. 4.3.1.1 Parameterfestlegung Die Modellspezifikation führt im Rahmen des SEM-Ansatzes zu der Formulierung einer Behauptung über eine Menge von Parametern. Diese Parameter werden gewöhnlicherweise als feste, restringierte oder freie Parameter spezifiziert. ?? Die festen Parameter werden nicht durch die Daten geschätzt, sondern a priori numerisch festgelegt. Häufig besitzen die festen Parameter einen Wert von Null. Falls jedoch zwischen zwei Variablen aufgrund einer exploratorischen Faktorenanalyse, Theorien oder früherer Untersuchungen eine kausale Beziehung erwartet wird, so wird der Wert für den entsprechenden Parameter auf den Wert 1 gesetzt. Es empfiehlt sich auf jeden Fall den Wert für die festen Parameter nicht zu niedrig zu wählen, damit der Schätzungsvorgang nicht bei einem sehr geringen Wert beginnt und daher eventuell früher abgebrochen werden muß. ?? Die restringierten Parameter sollen aus den Werten der beobachteten Variablen geschätzt werden, aber dabei genau dem Wert eines oder mehrerer anderer Parameter entsprechen. Die Gleichsetzung erfolgt vor dem Hintergrund, daß der Forscher aufgrund einer exploratorischen Faktorenanalyse, Theorien oder früherer Untersuchungen stark vermutet, daß zwei Parameter den gleich starken Einfluß („Ladung“) auf eine beobachtete Variable besitzen. ?? Die freien Parameter werden aus den Werten der beobachteten Variablen geschätzt. 4.3.2 Parameterschätzung Die freien und restringierten Parameter sollen aus der Menge der erhobenen Daten geschätzt werden. Dafür sind die iterativen Methoden, wie Maximum-Likelihood-Methode oder Methode der kleinsten Quadrate (Least Square), zu bevorzugen. Das Prinzip der Maximum- Likelihood-Methode soll wie folgt zusammengefaßt werden: Vom Statistikprogramm oder vom Forscher angegebene Startwerte (d. h. Näherungswerte) für die unbekannten Modellparameter werden iterativ verändert, bis die aus den geschätzten Parametern zurückgerechneten Kovarianzen (bei Standardisierung = Korrelationen) den empirisch ermittelten Kovarianzen möglichst gut entsprechen. 4.3.3 Bewertung der Modellanpassung Das auf diese Weise spezifizierte und geschätzte Modell wird anschließend mit Hilfe statistischer Kennwerte im Hinblick auf die Anpassung an die empirischen Daten eingeschätzt. Am häufigsten wird die Chi-Quadrat-Prüfgröße (?2) verwendet. Der Nachteil einer Chi-Quadrat-Statistik besteht jedoch in der Restriktion, daß die Beobachtungsdaten multivariat normalverteilt vorliegen müssen. Im Falle der Verletzung dieser Normalverteilungsannahme werden die Ergebnisse der statistischen Analyse stark verzerrt. Verschiedene asymptotische Verteilungsmethoden (ADF, Browne, 1982, 1984), die aus diesem Grund entwickelt wurden, können aufgrund der Forderung nach hohen Stichprobenzahlen dieses Defizit nicht vollständig ausgleichen. Satorra & Bentler (1988) entwickelten eine korrigierte Form der Chi-Quadrat-Statistik (sog. S-B ?2). Ein besonderer Vorteil stellt das im EQS unter Windows (Bentler & Wu, 1995) verfügbare korrigierte ?2 bei der Analyse psychologischer Daten dar, für die eine Annahme der multivariaten Normalverteilung oft nicht haltbar ist (Bentler et al., 1996; Hu, Bentler & Kano, 1992). Als Ergebnis dieser Kontroversen um einen geeigneten statistischen Kennwert wurden neben dem Satorra-Bentler-?2 zusätzliche Anpassungskennwerte entwickelt, die in der Regel Werte zwischen 0 und 1 annehmen. Im Rahmen des SEM-Konzeptes nach Bentler (1995) wird der Comparative Fit Index (CFI) als der Index der Wahl vorgeschlagen. Die genannten Zusatz-Indizes resultieren aus dem Vergleich der Anpassung des spezifizierten Modells mit der Anpassung des Unabhängigkeitsmodells (sog. Nullmodell, Bentler & Bonett, 1980) an die empirischen Daten. Das Unabhängigkeitsmodell wird zur Abbildung von vollständiger Unabhängigkeit zwischen den Variablen herangezogen. Unter dieser Annahme exisitieren demnach ebenso viele latente Variablen (oder Faktoren) wie beobachtbare Variablen. Alle Korrelationen zwischen den Variablen betragen Null. Man spricht daher auch von dem Nullmodell. Anhand des Akaike Information Criterion (AIC, Akaike, 1987) erfolgt im Rahmen der EQS-Software der maschinelle Vergleich dieser beiden Modellaussagen unter dem Aspekt der Sparsamkeit einer Modellkonstruktion. Sparsamkeit heißt in diesem Zusammenhang, ob durch die postulierten latenten Variablen tatsächlich ein ausreichend großer Teil der Varianz aufgeklärt wird oder ob in die Schätzung der Pfadkoeffizienten zu viele Parameter einbezogen wurden. 4.3.4 Zusammenfassung des Ablaufs: Ähnlichkeiten und Unterschiede (Vorteile) gegenüber konventionellen statistischen Analysemethoden Aus der Darstellung der Basiskonzepte können Ähnlichkeiten und Unterschiede zu den konventionellen statistischen Ansätzen (z. B. multiple Regressions-/Varianzanalyse) abgeleitet werden. Der SEM-Ansatz ist in folgenden Punkten den konventionellen statistischen Ansätzen ähnlich: 1. Basiert auf statistischen Modellen. 2. Es besteht keine Möglichkeit, die Kausalität statistisch zu testen (d. h. daß durch die Ermittlung der statistischen Signifikanz einer Beziehung zwischen zwei Variablen – zwar ein Hinweis aber – kein Maß für die eventuell zugrundeliegende Ursache-Wirkungs-Beziehung gegeben wird. Die Ursache-Wirkungs-Beziehung wird eher durch die Logik, strenge Theorie und methodologische Strategien etabliert.). In folgenden Charakteristika unterscheidet sich der SEM-Ansatz von den konventionellen statistischen Ansätzen: 1. Im Rahmen der Strukturgleichungsmodellierung wird ein statistisches Modell formal spezifiziert und anschließend geschätzt und getestet (i. Ggs. Zur Multiplen Regressionsanalyse: nur direkte Effekte werden auf einen Endwert [AV] spezifiziert). Diese Spezifikation unterliegt geringen Restriktionen hinsichtlich der Typen von zu vermutenden Beziehungen (direkte vs. Indirekte Effekte). Ein weiterer Vorteil von SEM ist in diesem Zusammenhang die Möglichkeit, nochmals ausführlich über die Daten und die Hypothesen nachzudenken. 2. Der größte Vorteil der Strukturgleichungsmodellierung im Vergleich zu den konventionellen statistischen Ansätzen besteht in der Kapazität, Beziehungen zwischen latenten Variablen (d. h. theoretischen Konstrukten) zu schätzen und zu testen. 3. Ein dritter Vorteil der Strukturgleichungsmodellierung gegenüber den herkömmlichen statistischen Ansätzen besteht in der Robustheit gegenüber Verletzungen der Normalverteilung. Die entwickelten robusten Schätzmethoden (wie die robuste Maximum- Likelihood-Methode) sowie statistische Testmethoden (wie das korrigierte S-B ?2, Satorra & Bentler, 1988) und Bewertungsindizes (Robust CFI) können trotz einer Verletzung der Normalverteilungsannahme auch bei kleinen Stichproben verläßlich angewendet werden. 5 Kurzübersicht zur linearen (multiplen) Regression Die lineare Regression wird dazu verwendet, die Werte einer abhängigen Variable aus einer oder mehreren unabhängigen Variablen vorherzusagen. Insbesondere wird die Regressionsanalyse dazu eingesetzt, um Zusammenhänge zu erkennen und zu erklären sowie die Werte der AV zu schätzen (d. h. zu prognostizieren). Im Rahmen der Regressionsanalyse werden für jede der unabhängigen Variablen, die zu einem Vorhersagewert für jeden Fall führen wird (d. h. so nah wie möglich am tatsächlichen Wert der AV), über ein Least Squares- Kriterium eine Gewichtung (Koeffizient ?x) geschätzt. Ein Beispiel bildet die Frage, ob und wie die Zufriedenheit von Patienten von dem Lebensalter, der Schwere der Krankheit und der Ängstlichkeit der Patienten abhängt. In der Regressionsanalyse wird eine eindeutige Richtung des Zusammenhangs zwischen den Variablen unterstellt, die nicht umkehrbar ist. Sie überprüft somit eine unterstellte Struktur zwischen zwei oder mehreren Variablen (d. h. direkte Effekte, i. Ggs. zu SEM, wo auch indirekte Effekte untersucht werden können). Die lineare Regressionsanalyse unterstellt, daß zwischen Regressand (AV, erklärte Variable, Prognosevariable) und Regressor (UV, erklärende Variable, Prädiktorvariable) eine lineare Beziehung besteht. Linearität bedeutet, daß sich Regressand und Regressor(en) nur in konstanten Relationen verändern. Zuerst sollte eine Varianzanalyse durchgeführt werden, um die Nullhypothese zu testen, ob alle Koeffizienten sind in der Grundgesamtheit gleich Null sind (d. h. testen, ob das Populations-R2 signifikant größer Null ist). 5.1 Formulierung eines Modells Auf der Grundlage von Vorüberlegungen des Forschers wird das zu untersuchende lineare Regressionsmodell entworfen. Dabei spielen ausschließlich fachliche Gesichtspunkte eine Rolle. Die Regressionsgleichung besitzt folgende Form: Y = b0+b1x1+b2x2+...bjxj+...bJxJ b0= konstantes Glied, das den Y-Wert für X=0 angibt b1= Regressionskoeffizient, der die Neigung der Geraden bestimmt (d. h. um wieviel ändert sich y, wenn sich x um eine Einheit ändert) 5.2 Schätzung der Regressionsfunktion Die Aufgabe der multiplen Regressionsanalyse lautet, daß die Parameter b0, b1, b2, ...bj so bestimmt werden, daß die Summe der Abweichungsquadrate minimiert wird. Als Ergebnis weist die Regressionsanalyse die Koeffizienten der Regressionsgleichung aus. In einer groben Augenscheinanalyse können bereits erste Anhaltspunkte für die unterschiedliche Stärke des Zusammenhangs zwischen Regressor und Regressand gegeben werde. Je größer der absolute Betrag des Regressionskoeffizienten ist, desto stärker ist der vermutete Einfluß ? ? ? ? ? ? ? ? ? ? k k k k k K k y y e 1 min! 2 1 2 ] [ auf die AV. Um eine direkte Vergleichbarkeit der numerischen Werte zu ermöglichen, werden die Koeffizienten in standardisierte Regressionskoeffizienten umgeformt. 5.3 Prüfung der Regressionsfunktion An die Schätzung der Regressionsfunktion schließt sich die Frage an, ob der unterstellte lineare Zusammenhang in der Stichprobe zu einer befriedigenden Erklärung der Stichprobenwerte führt und ob die Regressionsfunktion der Stichprobe eine brauchbare Schätzfunktion für den „wahren“ Zusammenhang in der Grundgesamtheit darstellt. Um diese Fragen zu beantworten wird zunächst mit Hilfe statistischer Testverfahren die Qualität der Regressionsgleichung als ganzer geprüft. Als Testkennwert wird das Bestimmtheitsmaß r2 ermittelt. Fällt dieser Test unbefriedigend aus, so ist der gesamte Regressionsansatz unbrauchbar. Das Bestimmtheitsmaß trifft eine Aussage darüber, wie gut sich die Regressionsfunktion an die empirische Punkteverteilung anpaßt bzw. wieviel Restschwankung übrig geblieben ist. Es kann Werte im Bereich von 0 bis 1 annehmen. Im Fall von r2= 1 wird die gesamte Streuung erklärt. Z. B. ein r2= 0,35 besagt, daß 35 % der gesamten Streuung auf die erklärende Variable Alter und 65 % auf in der Regressionsgleichung nicht erfaßte Einflüsse zurückzuführen sind. Fehlerpotential: Der Wert des Bestimmtheitsmaßes kann also auch mit der Aufnahme von irrelevanten Regressoren nur zunehmen bzw. nicht abnehmen. Daher wurde ein korrigiertes Bestimmheitsmaß entwickelt, daß diese Fehlerquelle weitestgehend minimiert. Die Prüfung der Regressionsfunktion als ganzer erfolgt mit dem F-Test, der die H0 prüft, daß in der Grundgesamtheit die Regressionskoeffizienten ?1...?J alle Null sind (d. h. kein Zusammenhang zwischen AV und UV besteht). Mit dem F-Test wird folglich die Erklärungskraft der Regressionsgleichung insgesamt überprüft (d. h. die Güte der Schätzung der Y-Werte aus den X-Werten wird überprüft). 5.4 Prüfung der Regressionskoeffizienten Wenn die Prüfung der Regressionsfunktion insgesamt nicht zum Verwerfen des Regressionsmodells führt, werden die einzelnen Koeffizienten getestet. Es wird auf der Grundlage Stichprobenergebnisse überprüft, ob die Regressionskoeffizienten in der Grundgesamtheit einen bestimmten Wert annehmen, in der Regel ?j= 0 (Nullhypothese). 5.5 Prüfung der Prämissen des linearen Regressionsmodells 5.5.1 Nicht korrekte Spezifizierung des Modells Folgende zwei Fälle können eintreten: ?? Overfitting: Das Modell enthält zu viele erklärende Variable. ?? Underfitting: Das Modell enthält zu wenige erklärende Variable. Solange das Ergebnis nicht aufgrund fachlicher Überlegungen widersprüchlich ist (z. B. falsches Vorzeichen eines signifikanten Koeffizienten) besteht somit auch kein Grund, eine sachlich begründete Hypothese zu verwerfen. 5.5.2 Nicht-Normalverteilung der Variablen in der Grundgesamtheit Wenn die Bedingung der Normalverteilung verletzt ist, sind die Prüfgrößen der o.a. Testverfahren nicht anwendbar. Die Prüfergebnisse von F-Test und t-Test sind ungültig. 5.5.3 Nichtlinearität Nichtlinearität kann zum einen auftreten, wenn sich die Beziehung zwischen AV und UV am ehesten durch eine Kurve annähern läßt (z. B. Wachstums-/sättigungsbedingte Effekte). Weiterhin kann im Mehr-Variablenfall die Situation eintreten, daß sich die Wirkungen von UV nicht additiv verknüpfen. Als Folge von Nichtlinearität findet eine Verzerrung der Schätzwerte der AV statt. 5.5.4 Multikolinearität Das lineare Regressionsmodell basiert auf der Prämisse, daß die Regressoren nicht exakt linear abhängig sind, d. h. daß sich ein Regressor als lineare Funktion der übrigen Regressoren darstellen läßt. Bei empirischen Daten besteht immer ein gewisser Grad an linearer Abhängigkeit (Kolinearität). Die Multikolinearität wird erst dann zum Problem, wenn eine starke Abhängigkeit zwischen den UV besteht (d. h. die Korrelationskoeffizienten der der Korrelationsmatrix sind nahe ?1?). Je stärker die Multikolinearität ist, desto größer werden die Standardfehler der Regressionskoeffizienten und somit die Schätzung unzuverlässiger (d. h. Ineffizienz der Schätzwerte). Bei kompletter Multikolinearität ist die Regressionsanalyse (mit den betroffenen Variablen) rechnerisch nicht durchführbar. Bei steigendem Standardfehler sinkt auch die Aussagekraft des Regressionskoeffizienten. Es kann im Falle der Multikolinearität vorkommen, daß das Bestimmtheitsmaß r2 der Regressionsfunktion signifikant ist, obgleich alle Koeffizienten in der Funktion nicht signifikant sind. Zur Lösung des Problems der Multikolinearität können eine oder mehrere weniger wichtige Variablen aus der Regressionsgleichung entfernt werden. 5.5.5 Autokorrelation Die Residuen in der Grundgesamtheit sind nach der Annahme des Regressionsmodells unkorreliert. Sollte diese Bedingung nicht gegeben sein, so wird von Autokorrelation gesprochen. Die Autokorrelation führt zu erheblichen Verzerrungen bei der Ermittlung des Standardfehlers der Regressionskoeffizienten und damit auch bei der Bestimmung der Konfidenzintervalle für die Regressionskoeffizienten. Die Prüfung auf Autokorrelation kann mit dem Durbin-Watson-Test erfolgen. Über die Ermittlung eines empirischen Wertes d (der die Differenz zwischen den Residuen von aufeinanderfolgenden Beobachtungswerten angibt) kann die H0 getestet werden, daß die Beobachtungswerte nicht autokorreliert sind (z. B. in Zeitreihen: Die Abweichung von der Regressions-(Trend-)Geraden sind dann nicht mehr zufällig, sondern in ihrer Richtung von den Abweichungen abhängig, z. B. des vorangegangenen Beobachtungswertes). Folge ist demnach die Ineffizienz der Schätzwerte. 5.5.6 Heteroskedastizität Heteroskedastizität liegt dann vor, wenn die Streuung der Residuen in einer Reihe von Werten der prognostizierten abhängigen Variable nicht konstant ist. Die Prämisse des linearen Regressionsmodells verlangt, daß die Varianz der Fehlervariablen e für alle k homogen ist (d. h. die Residualgröße darf in ihrer Streuung nicht von dem Betrag bzw. der Reihenfolge der Beobachtungen der UV beeinflußt werden). Beispiel: Bei der Messung der Zufriedenheit bei älteren Probanden treten zunehmend Meßfehler infolge mangelnder Aufmerksamkeit auf, was wiederum zu einer zunehmenden Residualgröße führen würde. Heteroskedastizität verfälscht den Standardfehler des Regressionskoeffizienten und verfälscht somit die Schätzung des Konfidenzintervalls. Die Aufdeckung der Heteroskedastizität geschieht mit dem Geldfeld-Quandt-Test, bei dem die Varianz der Residuen in zwei Untersuchungsstichproben gegeneinander verglichen wird.