Die explorative Faktorenanalyse (EFA) ist ein Verfahren aus der multivariaten Statistik. Mithilfe der Faktorenanalyse kann aus den Beobachtungen vieler manifester Variablen (z .B Items eines Fragebogens) auf wenige zugrunde liegende latente Variablen, die Faktoren genannt werden, geschlossen werden. Eine EFA führt zu einer Reduktion der Variablen auf wenige, den manifesten Variablen zugrunde liegende Faktoren. Der folgende Text gibt einen Überblick über die Grundlagen der EFA sowie der wichtigsten Überlegungen, die bei ihrer Durchführung berücksichtigt werden müssen und stellt die wichtigsten faktorenanalytischen Methoden vor.

Hinweis:
Eine zitierbare Druckversion des Textes ist auf Psydoc zu finden: http://psydok.sulb.uni-saarland.de/volltexte/2013/4823/

Überlick

Die explorative Faktorenanalyse (EFA) ist ein Verfahren zur Datenanalyse, das angewendet wird, wenn in einem Datensatz nach einer noch unbekannten korrelativen Struktur gesucht werden soll. Die EFA gehört somit in die Gruppe der strukturent-deckenden Verfahren. Unter der explorativen Faktorenanalyse versteht man nicht ein bestimmtes Verfahren, sondern eine Familie verwandter Verfahren. Das in der Psychologie am meisten eingesetzte Verfahren ist die Hauptkomponentenanalyse (Principal components analysis, PCA). Daneben gibt es noch die Hauptachsenanalyse (Principal axis factor analysis, PAF) und die Maximum Likelihood Faktorenanalyse (Maximum Likelihood factor analysis, ML). Einen Überblick über die unterschiedlichen Verfahren bietet Bühner (2004). Die PCA ist in der Psychologie zum Teil zu einem Standard geworden, wobei eine PCA aber keine Faktorenanalyse im eigentlichen Sinn darstellt, was später noch erläutert werden wird.

Das Ziel einer Faktorenanalyse ist, eine Vielzahl von korrelierenden, manifesten Variab-len auf einen kleinen Satz latenter Variablen (Faktoren) zu reduzieren, die einen mög-lichst großen Teil der Varianz der Ausgangsvariablen aufklären. Die Grundannahme der Faktorenanalyse dabei ist, dass sich der Wert einer Variable additiv in eine gewichtete Summe aus den Faktoren zerlegen lässt. Diese Annahme lässt sich durch folgende Gleichung ausdrücken (Moosbrugger & Hartig, 2003):

Formel1

wobei xim der beobachtete Wert der Person i auf der Variablen mij der Wert der Person i auf dem Faktor j, mj die Faktorladung der beobachteten Variable m auf dem nicht beobachtbaren (latenten) Faktor j darstellt. f bezeichnet die Anzahl der dem Wert xim zugrunde liegenden Faktoren und εmi bezeichnet eine Residualvariable. Die Residualvariable wird gelegentlich als Einzelrestvarianz bezeichnet (Eckey, Kosfeld & Rengers, 2002). Der beobachtete Wert xim stellt einen Indikator dar, welcher Rückschlüsse auf den Wert der latenten Variablen λmj erlaubt. Diese Gleichung ist eine Formulierung des Modells gemeinsamer Faktoren (commom factor model) von Thurstone (1947). Dabei wird die Varianz der manifesten Werte aufgeteilt in die Varianz, welche durch die latenten Faktoren verursacht wird und in eine Residualvarianz, welche sich aus der Varianz der beobachteten Variablen zusammensetzt, die nicht durch die gemeinsamen Faktoren verursacht wird und in die Fehlervarianz, die weder auf die Faktoren noch auf das Item zurückzuführen ist (Brown, 2006). Die Residual- und Fehlervarianz werden in der Variablen e zusammengefasst. Das Besondere an der explorativen Faktorenanalyse bzw. dem Modell gemeinsamer Faktoren ist, dass jede der angenommenen latenten Variablen einen Einfluss auf die manifesten Variablen hat.

Bei der PCA wird die Residual- und Fehlervarianz nicht berücksichtigt. Hierbei geht es ausschließlich um die Reduktion von Daten und um die Reduktion von Redundanzen (Interkorrelationen) zwischen den einzelnen Variablen (Leonhart, 2004). Aus diesem Grund stellt eine PCA keine eigentliche Faktorenanalyse im eigentlichen Sinn dar, es ist lediglich ein Instrument zur Datenreduktion. Da in der psychologischen Modellbildung, insbesondere in dem Thurstone’schen Modell gemeinsamer Faktoren, die Residualvariable aber eine wichtige Rolle spielt, sollte eine PCA bei der Analyse psychologischer Daten nicht angewandt werden.

Startpunkt der EFA ist die Interkorrelationsmatrix der Variablen. Davon ausgehend werden nun mittels eines Algorithmus neue „künstliche“ Variablen errechnet, die mit den manifesten Variablen korrelieren (für eine Beschreibung dieses Algorithmus sieh Bortz, 1999 bzw. Backhaus, Erichson, Plinke und Weiber, 2003). Diese „künstliche“ Variable wird Faktor oder auch latente Variable genannt und man sagt, dass die mit ihm korrelierenden manifesten Variablen auf dem Faktor laden. Diese Korrelation der manifesten Variablen mit den Faktoren wird Faktorladung (oder einfach nur Ladung) genannt und kann Werte zwischen null und eins annehmen. Man kann maximal so viele Faktoren extrahieren, wie man Variablen in der Analyse hat. Allgemein gilt, dass je höher die ursprünglichen Variablen korrelieren, desto weniger Faktoren werden zur Beschreibung der Daten benötigt. Eine Faktorenanalyse führt im Idealfall zu einer sogenannten Einfachstruktur (Thurstone, 1947). Bei einer Einfachstruktur laden nur bestimmte Variablen hoch auf einem Faktor und sehr niedrig auf alle anderen Faktoren. Neben den Faktoren und Faktorladungen führt eine EFA zu den folgenden Ergebnissen: dem Eigenwert eines Faktors, den Kommunalitäten, der Ladungsmatrix und den Faktorwerten. Der Eigenwert eines Faktors ist die Summe der quadrierten Faktorladungen eines Faktors über alle Variablen. Der Eigenwert errechnet sich durch quadrieren und aufaddieren der Faktorladungen in den jeweiligen Spalten der Ladungsmatrix. Der Eigenwert gibt an, wie viel Varianz ein Faktor erklärt. Ein Eigenwert von eins bedeutet also, dass ein Faktor genauso viel Varianz wie eine Variable erklärt. Die Kommunalität ist die Summe der quadrierten Ladungen einer Variablen über alle Faktoren. Die Kommunalität errechnet sich durch quadrieren und aufaddieren der Faktorladungen in den jeweiligen Zeilen der Ladungsmatrix. Die Kommunalität gibt an, wie viel Varianz die Variable an allen Faktoren erklärt. Die Ladungsmatrix ist eigentlich das Ergebnis von primärem Interesse beim Rechnen einer EFA. In ihren Zeilen finden sich die Variablen und in ihren Spalten die Faktoren. Im Schnittpunkt einer Zeile mit einer Spalte (also dem entsprechenden Element der Matrix) findet sich die Faktorladung der Variablen auf dem Faktor. Der Faktorwert gibt die Ausprägung des entsprechenden Faktors bei einem Individuum wieder und errechnet sich als Linearkombination der Faktorladungen mit den individuellen Ausprägungen der manifesten Variablen bei einer Person. Die Faktorwerte sind standardnormal verteilt.

Nach diesem allgemeinen Überblick über den Zweck und das Ergebnis einer EFA müssen die Probleme, die sich bei der Durchführung ergeben besprochen werden. Dabei gilt es folgende Punkte zu berücksichtigen:

  • Eignung der Daten zur Durchführung einer EFA: Da die Durchführung einer EFA voraussetzt, dass die Variablen hoch genug miteinander interkorrelieren um sinnvolle Ergebnisse zu liefern, wird ein Verfahren gebraucht, das die Prüfung der Daten zur generellen Eignung auf eine faktorenanalytische Auswertung hin gestattet. Ein weiterer Punkt stellt eine ausreichende Stichprobengröße dar, damit überhaupt eine stabile Faktorlösung errechnet werden kann.
  • Anzahl der zu extrahierenden Faktoren: Dieses Problem zielt auf die Tatsache ab, dass eine EFA es prinzipiell gestattet so viele Faktoren zu extrahieren, wie Variablen vorhanden sind. Damit ist aber keine Informationsverdichtung erfolgt. Man benötigt also Kriterien, die einem Anhaltspunkte liefern, wie viele Faktoren sinnvollerweise zu extrahieren sind.
  • Interpretations-/Rotationsproblem: Die extrahierten Faktoren müssen entsprechend der Faktorladungen der Variablen inhaltlich interpretiert werden. Die Interpretation lässt sich häufig durch eine Rotation der Faktoren erleichtern, somit muss man sich also für eine geeignete Faktorenrotation entscheiden.
  • Bedeutsamkeit von Faktorladungen: Dieser Punkt beschäftigt sich mit der Frage, ab welcher Höhe die Faktorladungen bedeutsam zu interpretieren sind, das heißt also bei der Interpretation und Benennung eines Faktors eine Rolle spielen.

Eignung der Daten zur Durchführung einer EFA

Um die Eignung von Daten für die Faktorenanalyse zu bestimmen gibt es mehrere Ver-fahren. Das am häufigsten benutzte ist das Kaiser-Meyer-Olkin (KMO) Maß. Der KMO-Maß errechnet sich nach (Bühner, 2006) nach

Formel2

wobei rij der Korrelationskoeffizient der Variablen i und j ist und rij.z der partielle Korrelationskoeffizient nach Herauspartialisierung aller anderen Variablen ist. Man bestimmt also den gemeinsamen Varianzanteil, den alle Variablen miteinander teilen, und setzt diesen mit dem gemeinsamen Varianzanteil aller Variablen miteinander zuzüglich der Summe der quadrierten Partialkorrelationskoeffizienten, in Beziehung. Eine große Summe der Partialkorrelationskoeffizienten bedeutet, dass die Interkorrelationsmatrix wenig gemeinsame Varianz enthält und somit wird der KMO-Koeffizient klein. Um die Eignung einer Interkorrelationsmatrix beurteilen zu können, gelten folgende Anhaltspunkte (nach Kaiser und Rice, 1974):

KMO-Koeffizient

Eignung der Daten

>0,90

sehr gut

0,80-0,90

gut

0,70-0,79

mittel

0,60-0,69

mäßig

0,50-0,59

schlecht

<0,50

inkompatibel mit der Berechnung

Anlag zur Prüfung, ob die Gesamtheit aller Variablen zur Durchführung einer EFA geeignet ist, existiert noch die Möglichkeit die Eignung einer Variable zu prüfen. Die geschieht mit dem sogenannten Measure of Sampling Adequacy (MSA), das eng mit dem KMO-Maß verwandt ist. Das MSA berechnet sich aus den Korrelationen und Partialkorrelationen zwischen einem Item und den übrigen noch vorhandenen Items (Bühner, 2006). Das MSA-Maß gibt somit an, wie gut ein Item zu den übrigen Items passt, mit denen eine Faktorenanalyse durchgeführt werden soll. Die Interpretation des MSA richtet sich nach en gleichen Kriterien wie beim KMO-Maß.

Die Stichprobengröße und die Anzahl der Items beeinflussen ebenfalls die Ergebnisse einer Faktorenanalyse. In der Literatur zu findende Daumenregeln (siehe z. B. Brayant & Yarnold, 2001 für eine Übersicht), die ein Verhältnis von Items zu Fällen in einem Bereich von 1:3 bis 1:10 angeben, erwiesen sich als nicht hinreichend. MacCallum, Widaman, Zang & Hong (1999) konnten in Monte-Carlo Studien zeigen, dass nicht das Verhältnis von Items zu Fällen für die Ergebnisse entscheidend ist, sondern die Kommunalität (h2) eines Items. MacCallum et al. (1999) geben eine Stichprobengröße von n=60 als ausreichend an, wenn die Kommunalität der Items mindestens 0,60 beträgt. Ergebnisse von Mundform, Shaw & Ke (2005) bestätigen dies. Allerdings wurden die Ergebnisse von Mundform et al. nur an sog Maximum-Likelihood Faktorenanalysen mit Varimax-Rotation (s. u.) gewonnen, sodass diese nicht auf andere Extraktions- und Rotationsverfahren verallgemeinert werden sollten. Zusammenfassen lässt sich der Zusammenhang von Stichprobengröße wie folgt (in Anlehnung an Bühner, 2006):

Stichprobengröße

Kommunalität

Beurteilung

n<60

h2<0,60

keine Faktorenanalyse durchführbar

n=60

h2>0,60

gerade ausreichend

n=100

h2>0,50

ausreichend

n=200

h2>0,50

fair

n= 300

h2>0,50

gut

n=500

h2>0,50

sehr gut

n=1000

h2>0,50

exzellent

Bestimmung der Faktorenzahl

Ein weiteres Problem stellt die Anzahl der Faktoren dar, die es zu extrahieren gilt. Grundlegendes Ziel unserer Faktorenanalyse soll es sein, eine Faktorenstruktur zu ermitteln, die in Bezug auf die verwendete Methode der Faktorenextraktion und -rotation so stabil ist, dass ihre Replikation in einer anderen Untersuchung sichergestellt ist. Daher sollte es Methoden geben, die es erlauben, die Zahl der Faktoren objektiv zu bestimmen. Prinzipiell ist die Frage mathematisch zu beantworten, wobei es aber auch eine Methode gibt, deren Ergebnisse subjektiv vom Auswerter abhängen können. Dies ist der Scree-Test, der weiter unten beschrieben wird. Allerdings existiert neben der Frage Bestimmung der Faktorenzahl noch ein weiteres inhaltliches Problem: Ist Anzahl der Faktoren auch inhaltlich interpretierbar? Es ist keinesfalls gegeben, dass die bestimmte Anzahl an Faktoren eine Interpretierbarkeit gewährleistet. Somit befinden wir uns in einem Spannungsfeld, das wir gegebenenfalls im Sinne der inhaltlichen Interpretierbarkeit entscheiden werden. Generell aber gilt, dass nur die Faktorlösung genommen wird, deren inhaltliche Interpretierbarkeit gegeben ist.

Ein subjektives Kriterium um die Anzahl der zu extrahierenden Faktoren zu bestimmen ist der Scree-Test nach Cattell (1966). Beim Scree-Test werden zuerst die Eigenwerte in einem Diagramm dargestellt. Dabei werden die Nummer des Faktors auf der Abszisse und die dazugehörigen Eigenwerte auf der Ordinate abgetragen und danach die Punkte mit einer Geraden verbun-den. Diese Darstellung wird Scree-Plot genannt. Die Stelle, an dem diese Linie einen Knick auf-weist, bestimmt die Zahl der zu extrahierenden Faktoren. Die Zahl wird an der Faktornummer auf der Abszisse abgelesen. An diesem Punkt beginnt die Methode ihre Objektivität einzubüßen. So weist Bühner (2006) darauf hin, dass in der Literatur sowohl Versionen des Scree-Tests zu finden sind, die nur die Zahl das Faktoren bis zum Knick als bedeutsam erachten, andere Literatur aber den Faktor auch nach dem Knick mitzählt. Auch kann es passieren, dass in einem Scree-Plot mehrere Knicke vorkommen. Somit hängt die Zahl der Faktoren von den Vorlieben des Auswerters ab.

Eines der mathematischen Verfahren ist die Parallelanalyse nach Horn (1965). Bei der Paralle-lanalyse werden Eigenwerte einer Faktoranalyse eines empirisch gewonnenen Datensatzes mit den Eigenwerten einer Faktorenanalyse eines Datensatzes mit normalverteilten Zufallsdaten verglichen. Die Idee der Parallelanalyse ist, dass bei der Faktorenanalyse des empirischen Dat-ensatzes soviel Faktoren beibehalten werden, wie es Eigenwerte gibt, die größer als die Eigen-werte des Zufallsdatensatzes sind. Anders ausgedrückt heißt dies, dass die Faktoren, die man beibehalten will, wenigstens soviel Varianz aufklären sollen, wie sich bei der Analyse von Zu-fallsdaten ergibt. Voraussetzung dabei ist die Übereinstimmung der Anzahl der Variablen und Fälle des empirischen Datensatzes und des Zufallsdatensatzes. Auch sollten die Verteilung der Variablen der empirischen Daten normalverteilt sein, ist dies nicht der Fall sollten keine nor-malverteilten Zufallsdaten verwendet werden, sondern die empirischen Daten sollten durch Permutation vertauscht werden, wodurch die Verteilungsform erhalten bleibt. In der prak-tischen Anwendung geht man von einer künstlich erzeugten Datenmatrix mit normalverteilten Zufallsdaten aus, wobei die Anzahl der generierten Fälle und Variablen mit den eigentlichen Daten übereinstimmt. Weichen die empirischen Daten sehr von der Normalverteilung ab, wer-den die Daten permutiert. Hat man die Zufallsdaten erzeugt (bzw. die ursprünglichen Daten permutiert), wird daraus die Interkorrelationsmatrix errechnet und anschließend werden aus dieser mittels des EFA-Algorithmus so viele Eigenwerte extrahiert, wie Variablen vorhanden sind. Dieser Durchgang wird mehrmals wiederholt und die jeweils errechneten Eigenwerte wer-den gemittelt. Im Anschluss daran vergleicht man die gemittelten Eigenwerte der Zufallsdaten mit den Eigenwerten der eigentlichen Daten. Man behält nun so viele Faktoren bei, wie es Ei-genwerte gibt, die größer sind, als die gemittelten Eigenwerte der Zufallsdaten. Grafisch wird der Eigenwertverlauf der eigentlichen Daten mit dem Eigenwertverlauf der Zufallsdaten in einem Scree-Plot dargestellt. Es werden diejenigen Faktoren beibehalten, deren Eigenwerte in der Grafik über den Zufallseigenwerten liegen. Nach Zwick und Velicer (1986) führt die Parallelanalyse zu guten Ergebnissen. O’Connor (2000) gibt an, dass die Parallelanalyse in einigen Fällen zu einer Überextraktion von Faktoren führen kann.

Ein weiteres Kriterium für die Bestimmung der Faktorzahl ist die Replikativität der Faktoren-struktur. Zur Bestimmung der Replikativität wird die Versuchspersonenstichprobe in zwei Zu-fallshälften aufgeteilt und mit diesen beiden neuen Stichproben jeweils die gewünschte Fak-torenlösung berechnet. Die beiden resultierenden Faktorladungsmatrizen werden dann mithilfe der Kongruenzkoeffizienten von Tucker miteinander verglichen. Der Kongruenzkoeffizient berechnet sich nach (Tucker, 1951):

Formel3

wobei aij die Ladung der Variablen i auf dem Faktor j der ersten Faktorladungsmatrix und bik die Ladung der Variablen i auf dem Faktor k der zweiten Faktorladungsmatrix darstellt. Der resultierende Koeffizient Cik kann Werte zwischen -1 und +1 annehmen und ist analog zu interpretieren wie eine Korrelation. Allerdings gibt es keine Möglichkeit den Kongruenzkoeffizienten abzusichern und es kommt zudem erschwerend der Umstand hinzu, dass selbst durch Verwendung von Zufallsmatrizen hohe Kongruenzkoeffizienten mit Beträgen um die 0,80 errechnet werden können. Es muss also gefordert werden, dass die Kongruenzkoeffizienten entsprechend hoch sind (über 0,80), um die Replikativität der Faktorenstruktur sicher zu stellen.

Rotation und Interpretation der Faktoren

Das letzte Problem, dass es zu besprechen gilt, ist die Interpretation der gefundenen Faktoren. Häufig ist die erste errechnete Faktorlösung nur schwer interpretierbar. Um die Interpretier-barkeit der Faktorlösung zu erleichtern, existieren sog. Rotationsmethoden. Dabei werden die gefundenen Faktoren so gedreht, dass sie möglichst gut zu interpretieren sind, wobei hier die oben schon erwähnte Einfachstruktur ein angestrebtes Ziel ist. Durch die Einfachstruktur wird gewährleistet, dass jede Variable nur auf einem Faktor lädt und somit Interpretationsschwierigkeiten durch Variablen, die auf zwei oder mehr Faktoren hoch laden, verhindert werden sollen. Die Einfachstruktur aber nur ein angestrebtes Ziel, das keinesfalls erreicht werden muss.

Grundsätzlich kann man bei Rotationsmethoden schiefwinklige (oblique) und orthogonale Rota-tionsmethoden unterscheiden. Eine Faktorenlösung mit m Faktoren kann geometrisch als m-dimensionaler Raum interpretiert werden. Wird eine oblique Rotationsmethode gewählt, können die Achsen des m-dimensionalen Raumes nach der Rotation schiefwinklig aufeinander stehen, bei orthogonaler Rotation sind die Achsen nach der Rotation paarweise orthogonal zueinander. Inhaltlich gesprochen bedeutet dies, dass bei obliquen Faktorrotationen Korrelationen zwischen den Faktoren erlaubt sind, wohingegen bei orthogonalen Rotationen die Faktoren immer unkorreliert sind. Wird eine orthogonale Rotation angewandt, sollte man aber bei der In-terpretation nicht den Fehler begehen, die Unkorreliertheit der Faktoren als Indiz für in der Wirklichkeit unabhängige Eigenschaften zu nehmen. Die Unkorreliertheit der Faktoren, die als Repräsentation für die wirkliche Eigenschaft stehen, ist ein Artefakt der orthogonalen Rotation. Ob eine oblique oder eine orthogonale Rotation gewählt werden sollte, hängt von der zu beant-wortenden Frage ab. Teilweise findet sich eine kontroverse Diskussion, ob eine orthogonale oder eine oblique Rotationstechnik angewandt werden sollte. So sprechen sich Moosbrugger und Hartig (2002) dafür aus, nur oblique Rotationen anzuwenden, da sich bei Unabhängigkeit der Dimension automatisch unabhängige Faktoren ergeben. Allerdings sprechen die Autoren auch den Fall an, dass aus anderen Gründen orthogonale Faktoren gewünscht werden. Dies ist z. B. bei Faktoren, deren Faktorwerte als unabhängige Prädiktoren in eine multiple Regressionsanalyse eingehen sollen, der Fall. Oder z. B. wenn auf der Grundlage der Faktorenanalyse Skalen konstruiert werden sollen, die möglichst unabhängig voneinander sein sollen. Bühner (2006) empfiehlt, immer zuerst eine oblique Rotationstechnik anzuwenden. Sind die Korrelationen der Faktoren nur gering ausgeprägt, kann anschließend ein orthogonales Rotationsverfahren angewendet werden.

Eine orthogonale Rotationsmethode ist die Varimax-Rotation. Die Varimax-Rotation hat zum Ziel, eine Einfachstruktur in der Faktorlösung zu erreichen. Das Einfachstrukturkriterium ver-langt, dass pro Faktor einige Variablen möglichst hoch laden, während andere möglichst niedrig laden sollen. Dies ist mit der Forderung äquivalent, dass die Varianz der Faktorladungen pro Faktor maximiert wird. Zur Berechnung werden zuvor die Faktorladungen quadriert, sodass positive wie negative Faktorladungen gleich zur Varianz beitragen. Die Achsen werden dann so lange rotiert, bis mittlere Ladungen gering bzw. extrem werden. Zusammengefasst bedeutet dies eine Rotation der Faktoren in der Art, dass die Varianz der quadrierten Ladungen pro Faktor maximiert wird (Bortz, 1999).

Das bekannteste der obliquen Rotationsverfahren ist die Promax-Rotation. Bei diesem werden die ursprünglichen orthogonalen Ladungen mit den Exponenten 2, 4 oder 6 potenziert und anschließend oblique rotiert (Eckey, Kosfeld & Rengers, 2002).Dadurch extrem hohe und extrem niedrige Faktorladungen vermieden und die Interpretation der Ergebnisse erleichtert werden. Die benutzen Exponenten müssen vor der Durchführung der Rotation festgelegt werden. Die Promax-Rotation mit dem Exponenten 4 führt in der Regel zu guten Lösungen (Eckey, Kosfeld & Rengers, 2002, Bühner, 2006). Anders als bei der orthogonalen Rotation kann nach einer obliquen nicht mehr die Kommunalität (die Summe der quadrierten Faktorladungen) berechnen, da die Faktoren nicht mehr unabhängig voneinander sind (Eckey, Kosfeld & Rengers, 2002). Ein weiterer Unterschied ist, dass bei obliquen Rotationstechniken nicht nur die ursprüngliche Faktorladungsmatrix in eine Mustermatrix und eine Strukturmatrix aufgeteilt wird. Die Mustermatrix gibt die standardisierten partiellen Regressionsgewichte der Items auf die Faktoren an, während die Strukturmatrix die Korrelationen der Items und der Faktoren angibt. Zur Interpretation sollte die Mustermatrix betrachtet werden. (Bühner, 2006). Weiterhin wird bei obliquen Rotationsverfahren die Matrix der Faktorkorrelation ausgegeben.

Nachdem durch die Rotation die Interpretierbarkeit der Faktorlösung verbessert wurde, muss nun noch geklärt werden, welche Variablen zur Interpretation eines Faktors herangezogen werden. Das heißt, wie hoch muss die Faktorladung einer Variablen sein, damit diese als zu diesem Faktor gehörig betrachtet und zu seiner Interpretation herangezogen werden kann. Eine Faustregel besagt, dass bei der Interpretation der Faktoren nur Ladungen berücksichtigt werden, die betragsmäßig größer als 0,30 sind (Gorsuch, 1983). Kline (1997) zufolge spielt aber nicht nur die statistische Bedeutsamkeit eine Rolle, sondern auch die psychologische Bedeutsamkeit, sodass auch Kline die Empfehlung gibt, Ladungen unter 0,30 nicht zu interpretieren. Allerdings wirkt sich auf die Höhe der Faktorladungen auch die Anzahl der Variablen und der Versuchspersonen aus. Diese bleiben in der Faustregel aber unberücksichtigt. Differenziertere Interpreta-tionshinweise geben Guadagnoli und Velicer (1988, zitiert nach Bortz, 1999):

  • Wenn auf einem Faktor mindestens vier Variablen Ladungen über 0,60 aufweisen, kann die Faktorenstruktur ungeachtet der Stichprobengröße generalisierend interpretiert werden.
  • Das gleiche gilt für Faktoren, auf denen jeweils zehn oder mehr Variablen Ladungen größer als 0,40 aufweisen.
  • Wenn weniger als zehn Variablen eine Ladung größer als 0,40 aufweisen, sollte eine Interpretation nur erfolgen, wenn die untersuchte Stichprobe mindestens 300 Probanden enthält.
  • Wenn weniger als zehn Variablen eine Ladung größer als 0,40 aufweisen und der Stichprobenumfang weniger als 300 Probanden beträgt muss mit zufälligen Ladungsmustern gerechnet werden. Eine Interpretation sollte hier nur erfolgen, wenn sich die gefunden Faktorenstruktur in anderen Stichproben replizieren lässt.

 

Literatur

Backhaus, K., Erichson, B., Plinke, W. & Weiber, R. (2003). Multivariate Analysemethoden. Heidelberg: Springer.

Bortz, J. (1999). Statistik für Sozialwissenschaftler. Heidelberg: Springer.

Brown, T. A. (2006). Confirmatory factor analysis for applied research. New York: Guilford Press.

Bryant, F. B., Yarnold, P. R. (1994). Principal-components analysis and exploratory and confirmatory factor analysis. In: L. G. Grimm und P. R. Yarnold (Hrsg) Reading and understanding multivariate statistics. Washington: American Psychological Association.

Bühner, M. (2006). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson.

Cattell, R. B. (1966). The scree test for the number of factors. Mulitvariate Behavioral Research, 1, 245-276.

Eckey, H.-F., Kosfeld, R., Rengers, M. (2002). Multivariate Statistik. Wiesbaden: Gabler.

Gorsuch, R. L. (1983). Factor analysis. Hillsdale: Erlbaum.

Guagdagnoli, E., Velicer, W. F. (1988). Relation of sample size to the stability of component structure. Psychological Bulletin, 103, 265-275.

Kaiser, H. F., Rice, J. (1974). Little Jiffy, Mark IV. Educational and Psychological Measurement, 34, 11-117.

Kline, P. (1997). An easy guide to factor analysis. London: Routledge.

Loenhart, R. (2004). Lehrbuch Statistik. Einstieg und Vertiefung. Bern: Huber

MacCallum, R. C., Widaman, K. F., Zhang, S. & Hong, S. (1999) Sample size in factor analysis. Psychological Methods, 4, 87-99.

Moosbrugger, H., Hartig, J. (2002). Factor analysis in personality research: Some artefacts and their consequences for psychological assessment. Psychologische Beiträge, 44, 136-158.

Mundform, D. J., Shaw, D. G., Ke, T. L. (2005). Minimum sample size recommendations for conducting factor analysis. International Journal of Testing, 5, 159-168.

O’Connor, B. (2000). SPSS and SAS programms for determining the number of components using parallel analysis and Velicer’s MAP test. Behavior Research Methods, Instruments, & Computers, 32, 396-402.

Thurstone, L. L. (1947) Multiple factor analysis. Chicago: University of Chicago Press.

Tucker, R. L. (1951). A method for synthesis of factor analytic studies. Personnel research section report no. 984. Washington, D. C.: Department of the Army.

Zwick, W. R., Velicer, W. F. (1986). Comparison of five rules for determining the number of components to retain. Psychological Bulletin, 99, 432-442.