Korrelationsanalyse in SPSS

Die Basis-Methode zur Untersuchung eines Zusammenhangs zweier Merkmale ist die Korrelation. Die Wahl eines geeigneten Korrelationskoeffizienten ist hierbei von der Skalierung der benutzten Merkmale abhängig. Für mindestens intervallskalierte Merkmalen ist die Korrelation nach Pearson die geeignete Wahl. Bei mindestens ordinalskalierten Merkmalen sind die Korrelation nach Spearman oder Kendall geeignet.

Die Daten

Im Weiteren wird die Untersuchung auf einen Zusammenhang zwischen zwei Merkmalen an Hand von SPSS vorgeführt.

Bei obigem Datensatz handelt es sich um die Ausgaben für Werbung advert und die Einnahmen durch Verkäufe sales. Die Daten liegen für N = 24 Unternehmen vor. Wir wollen den Zusammenhang zwischen Ausgaben für Werbung und Verkäufen der Unternehmen untersuchen. Beide Variablen sind intervallskaliert. Somit wird die Pearson Korrelation verwendet. Zunächst schauen wir uns den Zusammenhang jedoch grafisch an. Dies dient einer ersten Überprüfung der Beziehung der Merkmale. Ebenfalls sind "Ausreißer" auf diese Weise erkennbar.

Eine erste grafische Betrachtung des Zusammenhangs

Zur Erstellung des Streudiagramm öffnen Sie über die SPSS-Programmleiste Grafik > Klassische Dialogfelder > Streu-/Punktdiagramm.

Daraufhin öffnet sich das folgende Dialogfeld. Klicken Sie auf definieren. Somit nutzen wir das Einfache Streudiagramm (Voreinstellung).

Es öffnet sich das kommende Fenster.

Jetzt definieren Sie die Einnahmen durch Verkäufe als Y-Achse und die Ausgaben an Werbung als X-Achse. Das Dialogfeld sieht nun wie in dem kommenden Bild aus.

Nun drücken Sie auf OK. Das Streudiagramm erscheint in dem SPSS-Ausgabefenster.

Das obige Bild zeigt den Zusammenhang zwischen Ausgaben für Werbung und den Einnahmen durch Verkäufe. Das Bild zeigt klar einen steigenden Zusammenhang. Mit steigenden Ausgaben für Werbung steigen auch die Verkäufe.

Berechnung der Korrelation

Im Weiteren bestimmen wir nun die Stärke der Korrelation. Hierzu gehen wir auf Analysieren > Korrelation > Bivariat.

Es öffnet sich das folgende Fenster. Die Voreinstellung ist die Pearson-Korrelation Somit müssen wir hier nichts einstellen. Weiterhin fügen wir die Merkmale in das Feld Variablen ein.

Somit sieht das Programmfeld nach diesem Schritt wie in kommendem Bild aus. Nun bestätigen wir mit OK. Damit starten unsere Berechnungen.

Es erscheint in dem SPSS-Ausgabefenster folgende Tabelle.

Zum einen sehen wir hier den Korrelationskoeffizienten zwischen Verkäufen und Ausgaben für Werbung. Er beträgt r = 0,916. Dies ist eine positive Korrelation. Nach Cohen ergeben sich folgende Richtwerte zur Beurteilung der Stärke der Pearson Korrelation. So gelten Zusammenhänge mit r > 0,1 als schwach, r > 0,3 als mittelstark und r > 0,5 als starke Korrelationen. Somit haben wir hier eine starke positive Korrelation beobachten können. Weiterhin ist in der Tabelle eine Zeile Signifikanz (2-seitig). Hierbei handelt es sich um den p-Wert zu dem Test auf Signifikanz der Korrelation. Rein Formal wird hier die Nullhypothese "Die Korrelation ist Null" gegen die Alternative "Die Korrelation ist ungleich Null" getestet. Wir prüfen also in diesem Beispiel zweiseitig. Abschließend beinhaltet die obige Tabelle noch das N. Also die Stichprobengröße. Hier hatte wir 24 Unternehmen.

Abschließende Worte

In diesem Kontext wird nochmals auf den Test der Korrelation eingegangenen. Dieser setzt voraus, dass die Merkmale bivariat normalverteilt sind. Dies lässt sich im Allgemeinen nicht prüfen. Weiterhin folgt aus einer univariaten Normalverteilung der Merkmale nicht, dass jene auch bivariate normalverteilt sind voraus. Umgekehrt gilt es jedoch. Somit reicht es rein formal auch nicht die univariate Normalverteilung zu prüfen. Ab einem N größer 30 kann hingegen, auf Grund des zentralen Grenzwertsatzes, die Normalverteilung als erfüllt betrachtet werden. In unserem Beispiel wurde auf die Prüfung der Voraussetzungen des statistischen Tests verzichtet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.