Eigenvektoren und die Psychologie

Christoph Pöppe

Wie definiert man in der Physik eine elementare Größe wie Länge, Zeit oder Masse? Durch ein Messverfahren. Seit den neuesten Definitionen der Sekunde und des Meters ist das „offizielle“ Messverfahren zwar ungeheuer kompliziert geworden; aber für den Hausgebrauch bieten Zollstock und funkgesteuerte Armbanduhr geeignete Näherungen.

Und wie definiert man eine Größe in der Psychologie? Als ich zum ersten Mal die Antwort hörte – von einer Kommilitonin vom Fach –, war ich doch etwas verblüfft: Durch einen Fragebogen! Aber es stimmt schon. Gut, man muss den Begriff des Fragebogens etwas weiter fassen, so dass darunter nicht nur die eher neckischen Selbsttests aus der Illustrierten fallen, sondern auch Intelligenztests oder allgemeiner alle Mittel, mit denen Psychologinnen und Psychologen irgendwelche Eigenschaften ihrer Forschungsgegenstände – der „Versuchspersonen“ – zu bestimmen trachten.

Der lästerliche Spruch „Intelligenz ist, was der Intelligenztest misst“ hat durchaus einen wahren Kern. Das Interesse in der Psychologie gilt nicht vorrangig den Rohdaten, sprich den unmittelbaren Auskünften der Versuchsperson oder ihren einzelnen Testergebnissen, sondern dahinter liegenden Eigenschaften wie zum Beispiel Intelligenz. Und da in deren Definition eine erhebliche Willkür steckt, fühlen sich die Vertreter des Fachs selbst damit nicht wirklich wohl.

Gleichwohl ist gegen das Ziel an sich nichts einzuwenden: Aus einer Vielzahl von Messwerten, die jeder für sich nicht besonders erhellend sind, möchte man ein übersichtliches Gesamtbild gewinnen, das mit möglichst wenigen Zahlen eine möglichst aussagekräftige Auskunft über die Versuchsperson liefert. Und das am Ende möglichst frei von jeder Willkür.

In der Regel gibt es auch gute Gründe, diese Datenreduktion – von vielen Messwerten auf wenige charakterisierende Größen – für sinnvoll zu halten. Vielleicht misst ein Test die Zeit, die die Versuchsperson für die Lösung einer Rechenaufgabe benötigt, und dann die entsprechende Zeit für eine andere Rechenaufgabe. Dann werden die Ergebnisse dieser beiden Teiltests ziemlich genau dasselbe sagen.

Wie weit diese Übereinstimmung geht, kann man mit leichter Mühe aus den Testergebnissen für eine hinreichend große Anzahl von Versuchspersonen zahlenmäßig bestimmen. Es handelt sich um den sogenannten Korrelationskoeffizienten, den ich Ihnen im letzten Beitrag  vorgestellt habe. Ist er 1, sagen beide Ergebnisse genau dasselbe, ist er –1, sagen sie genau das Gegenteil voneinander, und ist er 0, dann hat das eine mit dem anderen nichts zu tun.

Es hilft, sich die ganze Sache geometrisch vorzustellen. Der Test liefert für jede Versuchsperson eine Reihe von, sagen wir, 20 Zahlen: Punktzahlen für das Erreichen gewisser Ziele, Antwortzeiten, Vorlieben und Abneigungen auf einer Skala von 1 bis 10, Zustimmung oder Ablehnung für eine Behauptung auf einer ebensolchen Skala. Dann fassen wir das Gesamtergebnis des Tests für diese Versuchsperson als einen Punkt in einem 20-dimensionalen Raum auf; die Einzelergebnisse sind die 20 Koordinaten dieses Punktes.

Man spricht auch gerne von Vektoren anstelle von Punkten und denkt sich statt des schlichten Punkts einen geraden Strich oder auch Pfeil, der vom Nullpunkt bis zu diesem Punkt verläuft. Wozu? Weil man dann Winkel zwischen diesen Vektoren definieren kann und zum Beispiel sagen kann, ob ein Vektor auf einem anderen senkrecht steht. Es stellt sich heraus, dass das meiste von dem, was man an Geometrie im gewöhnlichen Raum kennt, auf hochdimensionale Räume übertragbar ist. Insbesondere ist der Korrelationskoeffizient im Wesentlichen der Cosinus des Winkels zwischen den beiden Vektoren: 1, wenn sie in dieselbe Richtung zeigen, –1, wenn sie in entgegengesetzte Richtungen zeigen, und 0, wenn sie aufeinander senkrecht stehen.

Übrigens: Vor der ganzen Rechenarbeit werden alle Messgrößen standardisiert, das heißt mit Hilfe der z-Transformation so zurechtgemacht, dass sie normalverteilt mit Erwartungswert 0 und Standardabweichung 1 sind.

Leider haben wir alle unsere Schwierigkeiten, uns gedanklich in einem 20-dimensionalen Raum zurechtzufinden. Deswegen denken wir uns jetzt der Anschaulichkeit zuliebe einen Test mit nur drei Aufgaben, so dass jedes Testergebnis ein Punkt im vertrauten dreidimensionalen Raum ist. Wenn zwei dieser Aufgaben im Wesentlichen dieselben Fähigkeiten abfragen wie die beiden Rechenaufgaben im Beispiel oben, dann sind die zugehörigen Werte x und y einander ziemlich ähnlich, und dann liegen die Punkte alle in der Nähe der Geraden x = y, der Winkelhalbierenden im Koordinatensystem. Jetzt nehmen wir den dritten Wert z hinzu, der mit den ersten beiden vielleicht nichts zu tun hat, dann liegen alle Testergebnisse ziemlich genau in einer Ebene. In unserem Beispiel steht diese Ebene vertikal auf der Geraden x = y; im Allgemeinen kann sie irgendwie im Raum liegen.

Jetzt bietet sich eine Datenreduktion geradezu an. Wir verdrehen unser Koordinatensystem so, dass zwei Koordinatenachsen in unserer Ebene liegen und die dritte senkrecht dazu steht. Dann rechnen wir unsere Testergebnisse in die neuen Koordinaten um – und können die dritte Koordinate getrost weglassen. Deren Werte sind so nahe an null, dass sie als Messfehler durchgehen können; so haben wir unser Koordinatensystem zurechtgemacht.

Zurück aus der dreidimensionalen Spielwiese in den echten 20-dimensionalen Raum. Gesucht ist eine Drehung des Koordinatensystems (aus 20 Achsen) mit der Eigenschaft, dass die ersten paar Koordinaten schon die Gegend, in der die Punkte der Testergebnisse liegen, ziemlich genau beschreiben, so dass die Werte in den restlichen Koordinaten eher vernachlässigbar sind. In der Sprache der linearen Algebra: Gesucht wird ein Teilraum des 20-dimensionalen Raums mit der Eigenschaft, dass unsere Punkte ihm möglichst nahe liegen. Und das wiederum heißt, dass die Summe der Quadrate der Abstände zwischen Punkt und Teilraum minimal wird.

Dafür hält die lineare Algebra ein überaus elegantes Mittel bereit. In der Psychologie heißt es Hauptkomponentenanalyse, in der Mathematik spricht man von den Eigenwerten der Korrelationsmatrix und den zugehörigen Eigenvektoren. Die Korrelationsmatrix ist die Tabelle, in der die (empirischen) Korrelationen zwischen den einzelnen Messgrößen aufgelistet sind. (Für standardisierte Daten sind Korrelationen dasselbe wie Kovarianzen.) An der Stelle (i, j) der Tabelle steht also, wie viel die Antwort auf Frage i über die Antwort auf Frage j sagt. Genauso viel sagt die Antwort auf Frage j über die Antwort auf Frage i, was bedeutet, dass die Korrelationsmatrix symmetrisch ist. Nach dem Spektralsatz hat jede symmetrische (reelle) Matrix eine Orthonormalbasis von Eigenvektoren. Die wiederum liefern das Koordinatensystem, in dem unsere Korrelationsmatrix eine besonders einfache Form hat: eine Diagonalmatrix.

Dass es sich bei unseren neuen Basisvektoren, also denen, die das neue Koordinatensystem aufspannen, um Eigenvektoren der Korrelationsmatrix handelt, spielt im Folgenden keine bedeutende Rolle. „Ortho“ bedeutet: Die Eigenvektoren stehen senkrecht aufeinander; sie sind nur mit sich selbst korreliert und haben miteinander nichts zu tun. Und „normal“ sagt, dass sie die Länge 1 haben. Das vereinfacht manche Berechnung, ist aber ansonsten nicht weiter wichtig.

Ein Eigenvektor ist, wie jeder Vektor, eine Linearkombination der ursprünglichen Basisvektoren, deren jeder für ein Teiltestergebnis steht, also so etwas wie 0,3 mal Test 1 plus 0,15 mal Test 2 minus 0,07 mal Test 3 und so weiter. Andersherum kann man jedes Gesamt-Testergebnis als Linearkombination aus diesen Eigenvektoren verstehen.

Die Datenreduktion geht jetzt so: Man schaut sich die Eigenwerte in absteigender Reihenfolge der Reihe nach an. Vielleicht haben die ersten drei von ihnen noch einen deutlich positiven Wert, und dann fällt die Kurve steil ab, so dass alle folgenden Eigenwerte nur noch mühsam von null zu unterscheiden sind. Dann wirft man alle Eigenvektoren bis auf die ersten drei weg und hat bei nur geringer Verfälschung 20 Einzelwerte auf drei eingedampft.

Mit diesem Verfahren haben wir eine wundervolle Datenreduktion erzielt. Anstelle von 20 Einzelwerten muss der Computer sich nur noch drei merken und vor allem nur mit diesen dreien weiterrechnen. Wenn diese Daten nicht gerade psychologische Testergebnisse sind, sondern vielleicht ein digitalisiertes akustisches Signal, dann ist das äußerst praktisch. Dann muss nämlich nicht der komplette Datenwust über die Telefonleitung, sondern nur ein komprimiertes Signal, das gleichwohl das Wesentliche wiedergibt.

Dagegen ist die Anwendung auf psychologische Daten problematisch. Diese Spektralzerlegung in Eigenvektoren ist zwar völlig willkürfrei: ein schlichter mathematischer Algorithmus, in den nur die rohen Messdaten eingehen. Aber damit ist noch lange nicht klar, ob und wie man aus dessen Ergebnissen etwas Relevantes über den Forschungsgegenstand selbst erschließen kann.

Wie die Psychologie damit umgeht, versuche ich Ihnen im nächsten Beitrag zu erklären.

The post Eigenvektoren und die Psychologie originally appeared on the HLFF SciLogs blog.