Friedman-Test in SPSS

Sollen mehr als zwei Messwiederholungen bezüglich eines mindestens ordinalskalierten Merkmals induktiv untersucht werden, so biete sich der Friedman-Test an. Hierbei handelt es sich um einen nicht-parametrischer Test. Er eignet sich somit für metrische Daten, bei welchen die Normalverteilungsannahme der Differenzen zwischen den Messungen verletzt erscheint.

Die Daten

Der Daten der verwendet wird ist in SPSS implementiert und heißt dietstudy.sav. Dieser beinhaltet Daten zu einer Diätstudie mit N = 16 Teilnehmern. Unter Anderem enthält der Datensatz 5 Messungen zu dem Wert an Triglyceriden der Probanden. Im Folgenden wird untersucht, ob sich die Anzahl an Triglyceride über die Messungen verändert hat.

Analyse

Zunächst erfolgt eine Datenexploration um die Verteilung der Messungen beurteilen zu können. Dies erfolgt grafisch. Hierzu wählen Sie bei SPSS Grafik und dann klassische Dialogfelder an, vergleich den kommenden Screenshot.

Unter klassische Dialogfelder wählen Sie nun Boxplot.

Es öffnet sich das folgende Dialogfeld. Hier wählen Sie bitte Einfach. Bei Daten im Diagramm verwenden Sie Auswertung über verschiedene Variablen. Dann drücken Sie auf Definieren.

Jetzt öffnet sich das kommende Dialogfeld. Hier markieren Sie die fünf Messungen der Triglycerid-Werte.

Diese markierten Variablen fügen Sie dann in das Feld Box entspricht ein. Danach drücken Sie auf OK.

Es erscheint in der SPSS-Ausgabe die angeforderte Grafik.

Für eine bessere Übersicht betrachten Sie die Boxplots vertikal. Hierzu müssen Sie im Diagrammeditor in der Symbolleiste auf Koordinatensystem transponieren klicken. Es ist zu erkennen, dass die Triglycride-Werte leicht Schiefen in ihren Verteilungen aufweisen. In Anbetracht dessen und dem mit N = 16 geringen Stichprobengröße scheint es sinnvoll zu sein einen nicht-parametrischen Test zu verwenden.

Zur Durchführung des Tests gehen Sie auf Analysieren und dann auf Nicht parametrische Tests.

Es öffnet sich ein weiteres Dialogfeld in welchem Sie klassische Dialogfelder wählen.

Hier wählen Sie K verbundene Stichproben aus.

Es öffnet sich das kommende Fenster. Hier ist der Friedmann-Test per Voreinstellung ausgewählt. Es können hier noch der Kendall- oder Cochran-Test angewählt werden. Markieren Sie wieder die fünf Messungen zu den Triglyceriden.

Diese fügen Sie in das Feld Testvariablen ein. Danach bestätigen Sie mit OK.

In der SPSS-Ausgabe erscheint die folgende Tabelle. Hier ist zu erkennen, dass der Friedman-Test auf nicht-signifikante Unterschiede hindeutet, \chi^2(4)=4,18, p = 0,383. Da keine signifikanten Unterschiede zwischen den Messungen nachgewiesen werden konnten, ist eine Post-Hoc-Analyse nicht notwendig.

Kruskal-Wallis-Test in Stata

Zur Untersuchung von Gruppenunterschieden (mehr als 2 Gruppen) biete sich der nicht-parametrische Kursaal-Wallis-Test an. Dieser benötigt ein mindestens ordinalskalierte Merkmal und unterliegt nicht der Normalverteilungsannahme. Im Weiteren wird in diesem Artikel die Umsetzung des Tests in Stata beschrieben.

Die Daten

Für die Analyse laden wir den systeminternen Datensatz auto.dta.

Dieser Datensatz umfasst 12 Merkmale zu N = 71 Automodellen. Unter Anderen beinhaltet der Datensatz die Merkmale Kopffreiheit (headroom) und Preis (Price). Im Folgenden sollen im Folgenden Mittelwertunterschiede zwischen verschiedenen Klassen an Kopffreiheit untersucht werden. Hierbei liegt die Kopffreiheit als metrisches Merkmal vor, sodass eine Klassenbildung erfolgen muss, damit der Kruskal-Wallis-Test verwendet findet.

Mittels der kommenden Befehle wird aus der Variablen Kopffreiheit eine neue Variable klassierte Kopffreiheit generiert. Hierbei wird eine kategoriale Variable mit den Ausprägungen unter 2, zwischen 2 und maximal 3, zwischen 3 und maximal 4 und über 4 erzeugt.

Mittels kommender Befehle erfolgt die Vergabe der Variablen- und Wertelabels.

Analyse

Vor einer induktiven Mittelwertuntersuchung, erfolgt eine Exploration der Daten. Kommender Befehl dient der Visualisierung der Verteilung des Preises nach Kopffreiheitsklassen. Hiermit sind die Verteilungen in Form von Boxplots dargestellt.

Kommende Abbildung zeigt die Verteilungen der Preise nach Kopffreiheit. Hierbei zeigt sich, dass die Verteilungen für 2 thru 3 in. und 3 thru 4 in. rechtsschief sind. Demgegenüber sind die Verteilungen von under 2 in. und over 4 in. jeweils linksschief. Wegen der Schiefe innerhalb der Gruppen kann eine Normalverteilung ausgeschlossen werden. Somit erscheint die Untersuchung der Mittelwertunterschiede mittels eines nicht-parametrischer Tests sinnvoll.

Hierzu wird der Kurskal-Wallis-Test benutzt. Im vorliegenden Falle deutet dieser auf nicht-signifikante Unterschiede im Preis zwischen den Kopffreiheitsklassen hin, \chi^2(3)=2,98, p = 0,394. Damit unterscheidet sich der Preis zwischen den Kopffreiheitsklassen nicht. Auf Grund des nicht-signifikanten Ergebnisses ist eine Post-Hoc-Analyse nicht nötig.

Kruskal-Wallis-Test in R

Der Kruskal-Wallis-Test kann verwendet werden, falls ein mindestens ordinalskaliertes Merkmal zwischen zwei oder mehr Gruppen verglichen werden soll. Er unterliegt im Vergleich zur Varianzanalyse weniger harten Annahmen. Zum Beispiel ist eine Normalverteilung innerhalb der Gruppen keine Voraussetzung dieses Tests.

Die Daten

Wir nutzen für die heutige Analyse den Datensatz chickwts aus dem Paket datasets. Er besteht aus N = 71 Beobachtungen und 2 Merkmalen. Zum einen das Gewicht von 71 Hühnern. Zum Anderen eine kategoriales Merkmal, welches den Futtertyp angibt. Dabei liegen bei dem Futtertyp 6 Ausprägungen, also verschiedenen Futterarten, vor.

Wir wollen im Folgenden untersuchen, ob zwischen den 6 Futtertypen signifikante Gewichtsunterschiede vorliegen.

Die Analyse

Zunächst betrachten wir die Verteilungen der Gewichte für die 6 Futtertypen visuell. Hierzu erstellen wir mit dem kommenden Befehl Boxplots.

Kommende Grafik zeigt die Boxplots. Zunächst fällt auf, dass sich die Verteilungen sehr in ihren Streuungen visuell unterscheiden. Weiterhin ist zu erkennen, dass sich ebenfalls die durchschnittlichen Gewichte der Hühner nach Futtertyp unterscheiden. Ebenfalls wirken die Verteilungen alle, bis auf die zu horsebean, sehr asymmetrisch. Dies deutet auf eine Verletzung der Normalverteilungsannahme hin. Somit werden die Unterschiede zwischen den Futtergruppen mittels eines geeigneten nicht-parametrischer (verteilungsfreien) Test untersucht.

Für die Untersuchung auf Gruppenunterschiede mittels eines geeigneten verteilungsfreien Tests untersucht. Hierbei eignet sich der Kruskal-Wallis-Test. Mit dem kommenden Befehl lässt sich dieser in R berechnen. Er liefert ein signifikantes Ergebnis, \chi^2(5)=37,34, p = 0,000. Somit unterscheidet sich das Gewicht des Hühner zwischen den Futtertypen signifikant. Zur Prüfung, wie sich die Futtertypen paarweise unterscheiden wird eine Post-Hoc-Analyse vollzogen. Hierfür verwenden wir den Dunn-Test.

Der Dunn-Test ist in dem Paket FSA implementiert. Mit kommenden Befehl wird dieses Paket in R geladen.

Kommender Output zeigt die Ergebnisse. Hierbei wurde die Funktion dunnTest() benutzt. Es wurde mittels der Benjamin-Hochberg-Korrektur für das multiple Testproblem korrigiert. Dabei zeigt sich, dass zwischen casein & horsebean, casein & linseed, horsebean & meatmeal, casein & soybean, horsebean & soybean, horsebean & sunflower, linseed & sunflower und soybean & sunflower signifikante Mittelwertunterschiede vorliegen.

Chi-Quadrat-Test in R

Im heutigen Artikel gehen wir darauf ein, wie ein Chi-Quadrat-Test in R umgesetzt wird. Im Falle zweier kategorialer Merkmale wird dieser häufig bei der Statistik-Beratung verwendet.

Die Daten

Für die Analyse mittels Chi-Quadrat-Test werden wir den Datensatz Titanic aus dem Paket datasets benutzen. Dabei lesen wir das Paket datasets wie gewohnt mit library(datasets) ein. Kommender Screenshot zeigt uns den Aufbau des Datensatzes beziehungsweise des Objekts Titanic.

Wir wollen den Zusammenhang zwischen dem Überleben Survived und der Reiseklasse beziehungsweise Crew Class untersuchen. Um uns hierzu aus dem Objekt Titanic eine Kreuztabelle mit dem Überleben gegen die Klassenzugehörigkeit zu erzeugen, ist es sinnvoll, sich zunächst mit der Beschaffenheit des Objekts auseinander zusetzen. Kommender Screenshot zeigt die Struktur des Objekts. Es handelt sich hierbei um einen table mit Listeneinträgen. Dabei sind die Einträge der Liste gerade die vier Merkmale Class, Sex, Age und Survived.

Kommendes Bild zeigt den Code um die oben erwähnte Kreuztabelle zu berechnen. Hierbei verwenden wir die Funktion apply. Das erste Element im Funktionsaufruf ist dabei das Objekt Titanic. Als margin wurde der Vektor c(4, 1) angegeben. Damit werden das vierte und das erste Listenelement angewählt. Also Survived und Class. Weiterhin wenden wir die Funktion sum auf Titanic an. Somit erhalten wir die folgende Kreuztabelle.

Die Analyse

Mittels des Befehls chisq.test() wird der Chi-Quadrat-Test berechnet. Hierbei kann das Objekt unter anderem als table an die Funktion übergeben werden. Der Chi-Quadrat-Test liefert hierbei ein signifikantes Ergebnis, \chi^2(3)=190,4, p = 0,000. Weiterhin ist die Annahme, dass alle erwarteten Häufigkeiten größer 5 sind, erfüllt. Die Berechnung der erwarteten Häufigkeiten erfolgt in R wie folgt. Wir hatten zunächst den Chi-Quadrat-Test in dem Objekt test abgespeichert. Hierauf haben wir uns mit test$expected die erwarteten Häufigkeiten ausgegeben lassen.

Möchten wir die Stärke des Zusammenhangs beurteilen, so bietet sich Cramer's V an. Dieses ist im Paket questionr implementiert. Die Funktion cramer.v berechnet jenes. Dabei ergab sich ein Cramer's V von 0,29. Somit ist der Zusammenhang unbedeutsam.

Chi-Quadrat-Test in SPSS

Im Falle von kategorialen Merkmalen und Zusammenhangsanalysen kommt bei einer SPSS-Auswertung häufig der Chi-Quadrat-Test zur Verwendung. Er findet bei kategorialen Merkmalen verwenden. Hierbei zeigen wir im heutigen Beitrag auf, wie der Test in SPSS umzusetzen ist. Die Umsetzung einer Zusammenhangsanalyse metrischer Daten erfolgt in SPSS mit der Pearson-Korrelation.

Die Daten

Wir nutzen zu Vorführung den Datensatz cereal.sav der in SPSS 26 als Beispieldatensatz vorliegt. Dabei enthält dieser Datensatz informationen zu dem Alter (in Klassen), Geschlecht, Familienstand, Art des Lifestyles und das präferierte Frühstück von N = 880 Personen.

Die Analyse

Wir wollen den Zusammenhang zwischen Alter und präferiertem Frühstück untersuchen.

Erstellung der Kreuztabelle

Hierzu gehen Sie auf Analysieren > Deskriptive Statistik > Kreuztabellen.

Es öffnet sich das folgende Menu. Hierbei fügen wir die Variablen agecat in das Feld Zeilen und bfast in das Feld Spalten ein.

Anwahl des Chi-Quadrat-Tests und Assoziationsmaßes

Das Fenster sieht nun wie in kommenden Bild aus. Wir klicken nun auf den Button Statistik.

Es öffnet sich das kommende Fenster. Da wir den Chi-Quadrat-Test berechnen möchten, machen wir einen Haken an Chi-Quadrat. Weiterhin möchten wir uns ein Zusammenhangsmaß ausgeben lassen, dass für nominale Skalen geeignet ist. Hierbei stehen uns mehre in SPSS zur verfügung. Wir wählen Cramer's V. Somit machen wir einen Haken an Phi und Cramer-V.

Das Fenster sieht nun wie in dem nächsten Bild aus. Nun klicken wir auf Weiter.

Weitere Kennzahlen bzw. Statistiken für die Kreuztabelle

Wir befinden uns wieder im Hauptmenu für Kreuztabellen. Wir wollen weitere Anpassungen an unsere Berechnungen vornehmen , sodass wir auf Zeilen klicken.

Folgendes Fenster öffnet sich jetzt. Hier können diverse Statistiken bezüglich der Kreuztabelle angewählt werden. So ist es möglich sich die erwarteten Häufigkeiten mit in der Kreuztabelle angeben zu lassen. Nichtsdestotrotz ist das nicht zwingend notwendig, da ohnehin eine Fußnote unter der Kreuztabelle in jedem Falle mit angibt, ob die Annahme der erwarteten Häufigkeiten erfüllt ist beziehungsweise wieviele Zellen der Kreuztabelle den Richtwert von größer 5 nicht erreichen.

Wesentlicher sind im Kontext von Gruppenvergleichen die Zeilen- beziehungsweise Spaltenprozente. Mit Ihnen kann der Zusammenhang schon einemal an Und der Kreuztabelle beurteilt werden, ohne eine Kennzahl für die Stärke, wie Cramer's V, zu bestimmen.

Weitere Einstellungen sind hier noch möglich. Wir klicken Zeilenweise an, sodass dort ein Haken angezeigt wird.

Nun sieht das Fenster wie in kommenden Bild aus. Wir drücken auf Weiter, da wir alle wesentlichen Einstellungen hier vorgenommen haben.

Wir befinden uns nun wieder im Hauptmenu zur Kreuztabelle. Da alle Einstellungen erfolgt sind, drücken wir nun auf OK. Die Berechnungen werden nun ausgeführt.

Die Ergebnisse

In der SPSS-Ausgabe erscheinen nun diverse Tabellen. Zunächst können wir die Ergebnisse des Chi-Qudrat-Test der kommende Tabelle entnehmen. Es zeigt sich ein signifikanter Zusammenhang zwischen Alter und dem präferiertem Frühstück, \chi^2(6)=309,34, p = 0,000. Die Annahme das alle erwarteten Häufigkeiten größer 5 sind ist erfüllt. Dies ist der Fussnote unter der Tabelle zu entnehmen. Hier steht 0 Zellen haben erwartete Häufigkeit kleiner 5.

Kommende Tabelle zeigt die Kontigenztafel beziehungsweise Kreuztabelle zwischen Alter und präferiertem Frühstück. Es zeigen sich zwischen den Altersgruppen Unterschiede in dem bevorzugten Frühstück. So bevorzugen die unter 31 Jährigen einen Frühstücksriegel oder Frühstücksflocken. Dies ist ähnlich in der Gruppe der 31 - 45 Jährigen, wobei hier der Anteil an Personen die Haferbrei bevorzugen schon größer ist als bei den unter 31 Jährigen. In der Klasse der 46 - 60 Jährigen werden Haferbrei oder Frühstücksflocken am häufigsten konsumiert. Bei den über 60 Jährigen hingegen bevorzugt der Großteil Haferbrei.

Als Zusammenhangsmaß zur Beurteilung der Stärke wird Cramer's V bestimmt. Dies ist der kommende Tabelle zu entnehmen. Cramer's V betrug dabei V = 0,42. Dies entspricht einen bedeutsamen Zusammenhang. Werte über 0,3 gelten als starke Assoziationen zwischen zwei nominalen Merkmalen.

gepaarter t-Test in Stata

In der heutigen Auswertung zeigen wir euch, wie ein gepaarter t-Test in Stata erfolgt.

Die Daten

Dazu verwenden wir die Daten bpwide.dta. Eine Beschreibung der Daten findet sich hier. Wir möchten hierbei den Blutdruck vor und nach einer Intervention der im Datensatz befindlichen Patienten vergleichen. Hierzu nutzen wir den t-Test für gepaarte Stichproben.

Ergebnisse

Hierbei zeigt sich, dass sich die Messungen signifikant unterscheiden, t(119) = 3,34, p = 0,011. Auf Grund der Großen Stichprobe von N = 120 ist eine annähernde Normalverteilung der Differenz der Messungen anzunehmen (Annahme des gepaarten t-Tests).

Zur Beurteilung, wie sich die Unterschiede äußern, betrachten wir die deskriptiven Statistiken im Output. Dabei zeigt sich, dass vor Intervention der mittlere Blutdruck der Teilnehmer bei M = 156,46 und nach der Intervention bei M = 151,36 lag. Somit ist ein signifikanter Rückgang nach der Intervention im Blutdruck der Patienten nachgewiesen.

gepaarter t-Test in R

Dieser Artikel beinhaltet die Umsetzung eines gepaarten t-Tests bei einer R-Auswertung.

Der Datensatz

Hierzu verwenden wir den Datensatz AMSsurvey aus dem Paket car. Dieser enthält die Anzahl an Dissertationen in Mathematik nach Institution, Geschlecht und Staatsangehörigkeit für die Jahre 2008 - 2009 count und die Jahre 2011 - 2012 count11. Kommendes Bild zeigt die Daten. Dabei wollen wir untersuchen, ob sich die Anzahl an Dissertationen über die beiden Messungen verändert hat.

Die Ergebnisse

Zur Prüfung auf eine signifikante Veränderung verwenden wir die Funktion t.test(). Dabei geben wir die beiden Variablen innerhalb der Funktion folgendermaßen an t.test(AMSsurvey$count, AMSsurvey$count11, paired = TRUE). Die Option paired = TRUE weist R dabei an, den t-Test für verbundene Stichproben zu verwenden. Es zeigt sich, dass die Anzahl an Dissertation von den Jahren 2008 - 2009 zu den Jahren 2011 - 2012 signifikant unterschiedlich ist, t(23) = -2,64, p = o,015. Da die Teststatistik negativ ist, wissen wir, dass die mittlere Anzahl an Dissertationen in den Jahren 2011 - 2012 größer war als in 2008 - 2009. Dies erkennen wir ebenfalls an der negativen Mittelwertdifferenz von -8,92 unten im Output. Somit ist die mittlere Anzahl an Dissertationen in den Jahren 2011 - 2012 um 8,92 höher als in den Jahren 2008 - 2009.