Friedman-Test in SPSS

Sollen mehr als zwei Messwiederholungen bezüglich eines mindestens ordinalskalierten Merkmals induktiv untersucht werden, so biete sich der Friedman-Test an. Hierbei handelt es sich um einen nicht-parametrischer Test. Er eignet sich somit für metrische Daten, bei welchen die Normalverteilungsannahme der Differenzen zwischen den Messungen verletzt erscheint.

Die Daten

Der Daten der verwendet wird ist in SPSS implementiert und heißt dietstudy.sav. Dieser beinhaltet Daten zu einer Diätstudie mit N = 16 Teilnehmern. Unter Anderem enthält der Datensatz 5 Messungen zu dem Wert an Triglyceriden der Probanden. Im Folgenden wird untersucht, ob sich die Anzahl an Triglyceride über die Messungen verändert hat.

Analyse

Zunächst erfolgt eine Datenexploration um die Verteilung der Messungen beurteilen zu können. Dies erfolgt grafisch. Hierzu wählen Sie bei SPSS Grafik und dann klassische Dialogfelder an, vergleich den kommenden Screenshot.

Unter klassische Dialogfelder wählen Sie nun Boxplot.

Es öffnet sich das folgende Dialogfeld. Hier wählen Sie bitte Einfach. Bei Daten im Diagramm verwenden Sie Auswertung über verschiedene Variablen. Dann drücken Sie auf Definieren.

Jetzt öffnet sich das kommende Dialogfeld. Hier markieren Sie die fünf Messungen der Triglycerid-Werte.

Diese markierten Variablen fügen Sie dann in das Feld Box entspricht ein. Danach drücken Sie auf OK.

Es erscheint in der SPSS-Ausgabe die angeforderte Grafik.

Für eine bessere Übersicht betrachten Sie die Boxplots vertikal. Hierzu müssen Sie im Diagrammeditor in der Symbolleiste auf Koordinatensystem transponieren klicken. Es ist zu erkennen, dass die Triglycride-Werte leicht Schiefen in ihren Verteilungen aufweisen. In Anbetracht dessen und dem mit N = 16 geringen Stichprobengröße scheint es sinnvoll zu sein einen nicht-parametrischen Test zu verwenden.

Zur Durchführung des Tests gehen Sie auf Analysieren und dann auf Nicht parametrische Tests.

Es öffnet sich ein weiteres Dialogfeld in welchem Sie klassische Dialogfelder wählen.

Hier wählen Sie K verbundene Stichproben aus.

Es öffnet sich das kommende Fenster. Hier ist der Friedmann-Test per Voreinstellung ausgewählt. Es können hier noch der Kendall- oder Cochran-Test angewählt werden. Markieren Sie wieder die fünf Messungen zu den Triglyceriden.

Diese fügen Sie in das Feld Testvariablen ein. Danach bestätigen Sie mit OK.

In der SPSS-Ausgabe erscheint die folgende Tabelle. Hier ist zu erkennen, dass der Friedman-Test auf nicht-signifikante Unterschiede hindeutet, \chi^2(4)=4,18, p = 0,383. Da keine signifikanten Unterschiede zwischen den Messungen nachgewiesen werden konnten, ist eine Post-Hoc-Analyse nicht notwendig.

Kruskal-Wallis-Test in Stata

Zur Untersuchung von Gruppenunterschieden (mehr als 2 Gruppen) biete sich der nicht-parametrische Kursaal-Wallis-Test an. Dieser benötigt ein mindestens ordinalskalierte Merkmal und unterliegt nicht der Normalverteilungsannahme. Im Weiteren wird in diesem Artikel die Umsetzung des Tests in Stata beschrieben.

Die Daten

Für die Analyse laden wir den systeminternen Datensatz auto.dta.

Dieser Datensatz umfasst 12 Merkmale zu N = 71 Automodellen. Unter Anderen beinhaltet der Datensatz die Merkmale Kopffreiheit (headroom) und Preis (Price). Im Folgenden sollen im Folgenden Mittelwertunterschiede zwischen verschiedenen Klassen an Kopffreiheit untersucht werden. Hierbei liegt die Kopffreiheit als metrisches Merkmal vor, sodass eine Klassenbildung erfolgen muss, damit der Kruskal-Wallis-Test verwendet findet.

Mittels der kommenden Befehle wird aus der Variablen Kopffreiheit eine neue Variable klassierte Kopffreiheit generiert. Hierbei wird eine kategoriale Variable mit den Ausprägungen unter 2, zwischen 2 und maximal 3, zwischen 3 und maximal 4 und über 4 erzeugt.

Mittels kommender Befehle erfolgt die Vergabe der Variablen- und Wertelabels.

Analyse

Vor einer induktiven Mittelwertuntersuchung, erfolgt eine Exploration der Daten. Kommender Befehl dient der Visualisierung der Verteilung des Preises nach Kopffreiheitsklassen. Hiermit sind die Verteilungen in Form von Boxplots dargestellt.

Kommende Abbildung zeigt die Verteilungen der Preise nach Kopffreiheit. Hierbei zeigt sich, dass die Verteilungen für 2 thru 3 in. und 3 thru 4 in. rechtsschief sind. Demgegenüber sind die Verteilungen von under 2 in. und over 4 in. jeweils linksschief. Wegen der Schiefe innerhalb der Gruppen kann eine Normalverteilung ausgeschlossen werden. Somit erscheint die Untersuchung der Mittelwertunterschiede mittels eines nicht-parametrischer Tests sinnvoll.

Hierzu wird der Kurskal-Wallis-Test benutzt. Im vorliegenden Falle deutet dieser auf nicht-signifikante Unterschiede im Preis zwischen den Kopffreiheitsklassen hin, \chi^2(3)=2,98, p = 0,394. Damit unterscheidet sich der Preis zwischen den Kopffreiheitsklassen nicht. Auf Grund des nicht-signifikanten Ergebnisses ist eine Post-Hoc-Analyse nicht nötig.

Kruskal-Wallis-Test in R

Der Kruskal-Wallis-Test kann verwendet werden, falls ein mindestens ordinalskaliertes Merkmal zwischen zwei oder mehr Gruppen verglichen werden soll. Er unterliegt im Vergleich zur Varianzanalyse weniger harten Annahmen. Zum Beispiel ist eine Normalverteilung innerhalb der Gruppen keine Voraussetzung dieses Tests.

Die Daten

Wir nutzen für die heutige Analyse den Datensatz chickwts aus dem Paket datasets. Er besteht aus N = 71 Beobachtungen und 2 Merkmalen. Zum einen das Gewicht von 71 Hühnern. Zum Anderen eine kategoriales Merkmal, welches den Futtertyp angibt. Dabei liegen bei dem Futtertyp 6 Ausprägungen, also verschiedenen Futterarten, vor.

Wir wollen im Folgenden untersuchen, ob zwischen den 6 Futtertypen signifikante Gewichtsunterschiede vorliegen.

Die Analyse

Zunächst betrachten wir die Verteilungen der Gewichte für die 6 Futtertypen visuell. Hierzu erstellen wir mit dem kommenden Befehl Boxplots.

Kommende Grafik zeigt die Boxplots. Zunächst fällt auf, dass sich die Verteilungen sehr in ihren Streuungen visuell unterscheiden. Weiterhin ist zu erkennen, dass sich ebenfalls die durchschnittlichen Gewichte der Hühner nach Futtertyp unterscheiden. Ebenfalls wirken die Verteilungen alle, bis auf die zu horsebean, sehr asymmetrisch. Dies deutet auf eine Verletzung der Normalverteilungsannahme hin. Somit werden die Unterschiede zwischen den Futtergruppen mittels eines geeigneten nicht-parametrischer (verteilungsfreien) Test untersucht.

Für die Untersuchung auf Gruppenunterschiede mittels eines geeigneten verteilungsfreien Tests untersucht. Hierbei eignet sich der Kruskal-Wallis-Test. Mit dem kommenden Befehl lässt sich dieser in R berechnen. Er liefert ein signifikantes Ergebnis, \chi^2(5)=37,34, p = 0,000. Somit unterscheidet sich das Gewicht des Hühner zwischen den Futtertypen signifikant. Zur Prüfung, wie sich die Futtertypen paarweise unterscheiden wird eine Post-Hoc-Analyse vollzogen. Hierfür verwenden wir den Dunn-Test.

Der Dunn-Test ist in dem Paket FSA implementiert. Mit kommenden Befehl wird dieses Paket in R geladen.

Kommender Output zeigt die Ergebnisse. Hierbei wurde die Funktion dunnTest() benutzt. Es wurde mittels der Benjamin-Hochberg-Korrektur für das multiple Testproblem korrigiert. Dabei zeigt sich, dass zwischen casein & horsebean, casein & linseed, horsebean & meatmeal, casein & soybean, horsebean & soybean, horsebean & sunflower, linseed & sunflower und soybean & sunflower signifikante Mittelwertunterschiede vorliegen.

Chi-Quadrat-Test in R

Im heutigen Artikel gehen wir darauf ein, wie ein Chi-Quadrat-Test in R umgesetzt wird. Im Falle zweier kategorialer Merkmale wird dieser häufig bei der Statistik-Beratung verwendet.

Die Daten

Für die Analyse mittels Chi-Quadrat-Test werden wir den Datensatz Titanic aus dem Paket datasets benutzen. Dabei lesen wir das Paket datasets wie gewohnt mit library(datasets) ein. Kommender Screenshot zeigt uns den Aufbau des Datensatzes beziehungsweise des Objekts Titanic.

Wir wollen den Zusammenhang zwischen dem Überleben Survived und der Reiseklasse beziehungsweise Crew Class untersuchen. Um uns hierzu aus dem Objekt Titanic eine Kreuztabelle mit dem Überleben gegen die Klassenzugehörigkeit zu erzeugen, ist es sinnvoll, sich zunächst mit der Beschaffenheit des Objekts auseinander zusetzen. Kommender Screenshot zeigt die Struktur des Objekts. Es handelt sich hierbei um einen table mit Listeneinträgen. Dabei sind die Einträge der Liste gerade die vier Merkmale Class, Sex, Age und Survived.

Kommendes Bild zeigt den Code um die oben erwähnte Kreuztabelle zu berechnen. Hierbei verwenden wir die Funktion apply. Das erste Element im Funktionsaufruf ist dabei das Objekt Titanic. Als margin wurde der Vektor c(4, 1) angegeben. Damit werden das vierte und das erste Listenelement angewählt. Also Survived und Class. Weiterhin wenden wir die Funktion sum auf Titanic an. Somit erhalten wir die folgende Kreuztabelle.

Die Analyse

Mittels des Befehls chisq.test() wird der Chi-Quadrat-Test berechnet. Hierbei kann das Objekt unter anderem als table an die Funktion übergeben werden. Der Chi-Quadrat-Test liefert hierbei ein signifikantes Ergebnis, \chi^2(3)=190,4, p = 0,000. Weiterhin ist die Annahme, dass alle erwarteten Häufigkeiten größer 5 sind, erfüllt. Die Berechnung der erwarteten Häufigkeiten erfolgt in R wie folgt. Wir hatten zunächst den Chi-Quadrat-Test in dem Objekt test abgespeichert. Hierauf haben wir uns mit test$expected die erwarteten Häufigkeiten ausgegeben lassen.

Möchten wir die Stärke des Zusammenhangs beurteilen, so bietet sich Cramer's V an. Dieses ist im Paket questionr implementiert. Die Funktion cramer.v berechnet jenes. Dabei ergab sich ein Cramer's V von 0,29. Somit ist der Zusammenhang unbedeutsam.

Chi-Quadrat-Test in SPSS

Im Falle von kategorialen Merkmalen und Zusammenhangsanalysen kommt bei einer SPSS-Auswertung häufig der Chi-Quadrat-Test zur Verwendung. Er findet bei kategorialen Merkmalen verwenden. Hierbei zeigen wir im heutigen Beitrag auf, wie der Test in SPSS umzusetzen ist. Die Umsetzung einer Zusammenhangsanalyse metrischer Daten erfolgt in SPSS mit der Pearson-Korrelation.

Die Daten

Wir nutzen zu Vorführung den Datensatz cereal.sav der in SPSS 26 als Beispieldatensatz vorliegt. Dabei enthält dieser Datensatz informationen zu dem Alter (in Klassen), Geschlecht, Familienstand, Art des Lifestyles und das präferierte Frühstück von N = 880 Personen.

Die Analyse

Wir wollen den Zusammenhang zwischen Alter und präferiertem Frühstück untersuchen.

Erstellung der Kreuztabelle

Hierzu gehen Sie auf Analysieren > Deskriptive Statistik > Kreuztabellen.

Es öffnet sich das folgende Menu. Hierbei fügen wir die Variablen agecat in das Feld Zeilen und bfast in das Feld Spalten ein.

Anwahl des Chi-Quadrat-Tests und Assoziationsmaßes

Das Fenster sieht nun wie in kommenden Bild aus. Wir klicken nun auf den Button Statistik.

Es öffnet sich das kommende Fenster. Da wir den Chi-Quadrat-Test berechnen möchten, machen wir einen Haken an Chi-Quadrat. Weiterhin möchten wir uns ein Zusammenhangsmaß ausgeben lassen, dass für nominale Skalen geeignet ist. Hierbei stehen uns mehre in SPSS zur verfügung. Wir wählen Cramer's V. Somit machen wir einen Haken an Phi und Cramer-V.

Das Fenster sieht nun wie in dem nächsten Bild aus. Nun klicken wir auf Weiter.

Weitere Kennzahlen bzw. Statistiken für die Kreuztabelle

Wir befinden uns wieder im Hauptmenu für Kreuztabellen. Wir wollen weitere Anpassungen an unsere Berechnungen vornehmen , sodass wir auf Zeilen klicken.

Folgendes Fenster öffnet sich jetzt. Hier können diverse Statistiken bezüglich der Kreuztabelle angewählt werden. So ist es möglich sich die erwarteten Häufigkeiten mit in der Kreuztabelle angeben zu lassen. Nichtsdestotrotz ist das nicht zwingend notwendig, da ohnehin eine Fußnote unter der Kreuztabelle in jedem Falle mit angibt, ob die Annahme der erwarteten Häufigkeiten erfüllt ist beziehungsweise wieviele Zellen der Kreuztabelle den Richtwert von größer 5 nicht erreichen.

Wesentlicher sind im Kontext von Gruppenvergleichen die Zeilen- beziehungsweise Spaltenprozente. Mit Ihnen kann der Zusammenhang schon einemal an Und der Kreuztabelle beurteilt werden, ohne eine Kennzahl für die Stärke, wie Cramer's V, zu bestimmen.

Weitere Einstellungen sind hier noch möglich. Wir klicken Zeilenweise an, sodass dort ein Haken angezeigt wird.

Nun sieht das Fenster wie in kommenden Bild aus. Wir drücken auf Weiter, da wir alle wesentlichen Einstellungen hier vorgenommen haben.

Wir befinden uns nun wieder im Hauptmenu zur Kreuztabelle. Da alle Einstellungen erfolgt sind, drücken wir nun auf OK. Die Berechnungen werden nun ausgeführt.

Die Ergebnisse

In der SPSS-Ausgabe erscheinen nun diverse Tabellen. Zunächst können wir die Ergebnisse des Chi-Qudrat-Test der kommende Tabelle entnehmen. Es zeigt sich ein signifikanter Zusammenhang zwischen Alter und dem präferiertem Frühstück, \chi^2(6)=309,34, p = 0,000. Die Annahme das alle erwarteten Häufigkeiten größer 5 sind ist erfüllt. Dies ist der Fussnote unter der Tabelle zu entnehmen. Hier steht 0 Zellen haben erwartete Häufigkeit kleiner 5.

Kommende Tabelle zeigt die Kontigenztafel beziehungsweise Kreuztabelle zwischen Alter und präferiertem Frühstück. Es zeigen sich zwischen den Altersgruppen Unterschiede in dem bevorzugten Frühstück. So bevorzugen die unter 31 Jährigen einen Frühstücksriegel oder Frühstücksflocken. Dies ist ähnlich in der Gruppe der 31 - 45 Jährigen, wobei hier der Anteil an Personen die Haferbrei bevorzugen schon größer ist als bei den unter 31 Jährigen. In der Klasse der 46 - 60 Jährigen werden Haferbrei oder Frühstücksflocken am häufigsten konsumiert. Bei den über 60 Jährigen hingegen bevorzugt der Großteil Haferbrei.

Als Zusammenhangsmaß zur Beurteilung der Stärke wird Cramer's V bestimmt. Dies ist der kommende Tabelle zu entnehmen. Cramer's V betrug dabei V = 0,42. Dies entspricht einen bedeutsamen Zusammenhang. Werte über 0,3 gelten als starke Assoziationen zwischen zwei nominalen Merkmalen.

gepaarter t-Test in Stata

In der heutigen Auswertung zeigen wir euch, wie ein gepaarter t-Test in Stata erfolgt.

Die Daten

Dazu verwenden wir die Daten bpwide.dta. Eine Beschreibung der Daten findet sich hier. Wir möchten hierbei den Blutdruck vor und nach einer Intervention der im Datensatz befindlichen Patienten vergleichen. Hierzu nutzen wir den t-Test für gepaarte Stichproben.

Ergebnisse

Hierbei zeigt sich, dass sich die Messungen signifikant unterscheiden, t(119) = 3,34, p = 0,011. Auf Grund der Großen Stichprobe von N = 120 ist eine annähernde Normalverteilung der Differenz der Messungen anzunehmen (Annahme des gepaarten t-Tests).

Zur Beurteilung, wie sich die Unterschiede äußern, betrachten wir die deskriptiven Statistiken im Output. Dabei zeigt sich, dass vor Intervention der mittlere Blutdruck der Teilnehmer bei M = 156,46 und nach der Intervention bei M = 151,36 lag. Somit ist ein signifikanter Rückgang nach der Intervention im Blutdruck der Patienten nachgewiesen.

gepaarter t-Test in R

Dieser Artikel beinhaltet die Umsetzung eines gepaarten t-Tests bei einer R-Auswertung.

Der Datensatz

Hierzu verwenden wir den Datensatz AMSsurvey aus dem Paket car. Dieser enthält die Anzahl an Dissertationen in Mathematik nach Institution, Geschlecht und Staatsangehörigkeit für die Jahre 2008 - 2009 count und die Jahre 2011 - 2012 count11. Kommendes Bild zeigt die Daten. Dabei wollen wir untersuchen, ob sich die Anzahl an Dissertationen über die beiden Messungen verändert hat.

Die Ergebnisse

Zur Prüfung auf eine signifikante Veränderung verwenden wir die Funktion t.test(). Dabei geben wir die beiden Variablen innerhalb der Funktion folgendermaßen an t.test(AMSsurvey$count, AMSsurvey$count11, paired = TRUE). Die Option paired = TRUE weist R dabei an, den t-Test für verbundene Stichproben zu verwenden. Es zeigt sich, dass die Anzahl an Dissertation von den Jahren 2008 - 2009 zu den Jahren 2011 - 2012 signifikant unterschiedlich ist, t(23) = -2,64, p = o,015. Da die Teststatistik negativ ist, wissen wir, dass die mittlere Anzahl an Dissertationen in den Jahren 2011 - 2012 größer war als in 2008 - 2009. Dies erkennen wir ebenfalls an der negativen Mittelwertdifferenz von -8,92 unten im Output. Somit ist die mittlere Anzahl an Dissertationen in den Jahren 2011 - 2012 um 8,92 höher als in den Jahren 2008 - 2009.

gepaarter t-Test in SPSS

Ein gepaarter t-Test wird häufig im Kontext einer SPSS-Auswertung durchgeführt. In diesem Zusammenhang befassen wir uns heute in unserer Statistik-Beratung mit der Berechnung eines gepaarten t-Tests in SPSS.

Die Daten

Wir verwenden den Datensatz test_scores.sav. Dieser ist ein programminterner Datensatz von SPSS 26. Hierbei handelt es sich um einen Datensatz der die Ergebnisse eines Tests an N = 2133 Schülern diverser Schulen beinhaltet. Dabei liegen die Ergebnis des Test vor und nach einer Intervention vor. Wir werden die Prä- und Post-Ergebnisse vergleichen. Somit handelt es sich um verbundene Stichproben. Somit kommt der gepaarte t-Test zu Einsatz. Dabei zeigt kommendes Bild einen Ausschnitt des Datensatzes.

Berechnung des t-Tests

Zur Berechnung des gepaarten t-Tests gehen Sie auf Analysieren > Mittelwert vergleichen > t-Test bei verbundenen Stichproben.

Es öffnet sich daraufhin das folgende Fenster. Hier geben Sie in das Feld Variable1 die Variable pretest. Entsprechend muss die Variable posttest in das Feld Variable2 eingefügt werden.

Das Fenster sieht nun wie in kommendem Bild aus. Jetzt bestätigen wir mit OK. Die Berechnungen erfolgen nun.

Die Ergebnisse

Nun erscheinen in der SPSS-Ausgabe diverse Tabellen. Die wichtigste Tabelle an Ergebnisse ist die folgende. Dabei enthält sie die Ergebnisse des gepaarten t-Tests. Hierbei sind die wichtigsten Werte in den Spalten T, df und Sig. (2-seitig) vorzufinden.

Das Ergebnis des t-Tests ist signifikant, t(2132) = -129,33, p = 0,000. Somit unterscheiden sich die Ergebnisse des Prä- und Posttests in Ihrer Grundgesamtheit.

Zur Prüfung wie sich die Unterschiede in den Messungen äußern, dient die kommende Tabelle. Sie zeigt die deskriptiven Statistiken der Prä- und Post-Messungen. Dabei zeigt sich, dass die Schüler im Prätest eine mittlere Punktzahl von M = 54,96 erzielen. In der Post-Messungen liegt die durchschnittliche Punktzahl bei M = 67,10. Damit zeigt sich also eine Verbesserung der Schüler. Dabei ist die Verbesserung gemäß des t-Tests signifikant.

Obige Tabellen waren die wichtigsten zur Interpretation des t-Tests für gepaarte Stichproben. Dabei wurde mit der Berechnung des t-Tests weiterhin die Korrelation zwischen Prä- und Post-Messung ausgegeben. Kommendes Bild zeigt die Tabelle. Entsprechend dem Ergebnissen aus der Tabelle zeigt sich eine signifikante und stark positive Korrelation, r = 0,95, p = 0,000. Somit zeigt sich, dass Schüler, die vorher vergleichsweise Schlechter abgeschnitten haben, auch im Post-Test zu den Schlechteren gehörten.

Die Behauptung veranschaulicht auch das folgende Diagramm. Wie ein Streudiagramm in SPSS erzeugt wird erfahren Sie dabei hier.

unverbundener t-Test in Stata

In diesem Beitrag lernen Sie, wie der unverbundene t-Test bei Stata durchgeführt wird. Ein t-Test ist dabei eine häufig bei Stata-Auswertungen verwendete Methode.

Die Daten

Für die Untersuchungen wird der Datensatz bpwide.dta aus Stata 15 verwendet. Mit sysuse bpwide.dta wird der Datensatz geladen, vergleiche den kommenden Screenshot. Dieser Datensatz beinhaltet die Daten von 60 Männern und 60 Frauen bezüglich ihres Blutdrucks vor und nach einer Intervention. Wir möchten den Blutdruck zwischen den Geschlechter vor Intervention vergleichen und verwenden hierzu den t-Test für unverbundnen Stichproben.

Prüfung der Annahmen

Der t-Test für verbundene Stichproben unterliegt zwei Annahmen. Zum einen der Normalverteilungsannahme innerhalb der Gruppen und zum Anderen der Varianzgleichheit zwischen den Gruppen. Die Normalverteilungsannahme ist dabei erfüllt. Beide Gruppen sind jeweils N = 60 groß und damit größer als unsere Konvention von einem N > 30. Somit muss nur noch die Varianz zwischen den Gruppen untersucht werden. Dazu wird der Levene-Test verwendet. Dieser ist in der Funktion sdtest implementiert.

Ergebnisse

Nachfolgender Output zeigt die Ergebnisse des t-Tests. Hierbei wurde die Funktion ttest angewendet. Wobei die Option by(sex) Stata anweist den t-Test für unverbundene Stichproben bezüglich der Variablen bp_before zu berechnen. Dabei ergaben sich nicht-signifikante Unterschiede im Blutdruck zwischen den Geschlechtern, t(118) = 2,78, p = 0,0062. Unter Mean beobachten wir für Männer einen mittleren Blutdruck von M = 159,26 und für Frauen M = 153,63. Wie oben erwähnt sind die Unterschiede jedoch nicht-signifikant (zwei zeitiger Test).

Wird der Output weiter betrachtet, so zeigt sich, dass die p-Werte für die einseitigen Testvarianten ebenfalls diesen zu entnehmen sind. Links unten ist der p-Wert für die Alternativhypothese \mu_{Männer} < \mu_{Frauen} bzw. \mu_{Männer}-\mu_{Frauen}<0. Weiterhin ist ebenso der p-Wert für die Alternative \mu_{Männer} > \mu_{Frauen} bzw. \mu_{Männer}-\mu_{Frauen}>0 unten rechts angegeben.

unverbundener t-Test in R

In heutigem Artikel führen wir vor, wie bei einer R-Auswertung die Berechnung eines t-Tests für unverbundene Stichproben erfolgt.

Die Daten

Wir verwenden für die Analysen den Datensatz sleep aus dem Paket datasets. Hierbei beinhaltet der Datensatz Ergebnisse zu einem Test bei zwei Gruppen. Dabei bekamen beiden Gruppen jeweils ein unterschiedliches Schlafmittel. Dies ist die Variable group. Mit beiden Gruppen wurde daraufhin ein Test durchgeführt. Dabei wurde die Zunahme der Schlafstunden der Patienten unter dem entsprechenden Präparat gemessen. Hierbei handelt es sich um die Variable extra.

Prüfung der Annahmen

Der t-Test unterliegt zwei Annahmen. Dabei handelt es sich um die Voraussetzung der Normalverteilung und um die Annahme gleicher Varianzen jeweils innerhalb der Gruppen. Die Prüfung der Normalverteilungsannahme werden wir in diesem Artikel nicht behandeln. Hingegen werden wir jedoch die zweite Annahme des t-Tests einer Prüfung unterziehen. Dabei verwenden wir die Funktion leveneTest() aus dem Paket car. Mit library(car) laden wir das Paket in R. Kommender Screenshot zeigt den Code, wie auch den Output zu den Berechnung des Levene-Tests auf Varianzhomogenität. Dabei gibt extra ~ group an, dass der Test bezüglich extra für die Gruppen group erfolgen soll. Weiterhin wird mit der Option data = sleep der Funktion "mitgeteilt", dass die Variablen extra und group in dem Datensatz sleep befindlich sind. Abschließend wurde mit der Option center = "mean" die Funktion angewiesen, den gewöhnlichen Levene-Test durchzuführen. Voreingestellt ist hier der Median. Weitere robuste Varianten sind in der Funktion implementiert.

Der Levene-Test liefert hierbei ein nicht-signifikantes Ergebnis, F(1, 18) = 0,620, p = 0,441. Somit ist keine signifikante Varianzinhomogenität vorliegend. Die Annahme ist somit erfüllt.

Die Ergebnisse

Für die Berechnung des t-Test verwenden Sie die Funktion t.test(). Vergleich den kommenden Screenshot, welcher den Funktionsaufruf und den Output zeigt. Mit dem Ausdruck extra ~ group weist man die Funktion an, den t-Test für unverbundene Stichproben zu verwenden. Weiterhin wird mit data = sleep wieder der Datensatz spezifiziert. Abschließend wurde die Option var.equal = TRUE benutzt. Dies ermöglich die Berechnung des t-Tests für gleiche Varianzen. Dabei liefert dieser ein nicht-signifikantes Ergebnis, t(18) = -1,86, p = 0,079. Somit sind keine signifikanten Unterschiede zwischen den Schlafmitteln bezüglich der Zunahme an Schlafstunden nachweisbar. Weiterhin sind im Output die mittleren Zunahmen an Schlafstunden für die beiden Gruppen dargestellt. Hier zeigt sich, dass Gruppe 1 eine durchschnittliche Zunahme von M = 0,75 Stunden und Gruppe 2 eine mittlere Zunahme von M = 2,33 Stunden hat Weiterhin ist noch das 95%-Konfidenzintervall der Mittelwertdifferenz zwischen den Gruppen im Output dargestellt.