Drei große Irrtümer bei der Interpretation induktiver Statistik

Die Interpretation statistischer Tests bietet vielen Leuten extreme Schwierigkeiten. So halten sich hartnäckig diverse Gerüchte bezüglich der validen Interpretation von statistischen Experimenten. Heute gehen wir in unserer Beratung auf drei der größten Irrtümer ein und erläutern, wie in der jeweiligen Situation, die Kennzahlen etc. richtig zu interpretieren sind.

Nicht signifikante Ergebnisse bedeuten, dass die Nullhypothese statistisch abgesichert ist

Wie für die Naturwissenschaften üblich erfolgen wissenschaftliche Beweise durch das sogenannte Falsifizieren. Wir stellen eine Theorie auf und suchen Gegenbeispiele, Lücken, etc. die diese Theorie ausschließen. Dann hätten wir sie falsifiziert und müssten die Theorie auf diese Lücken, etc. anpassen oder eine völlig neue Theorie entwickeln. Kurz und salopp umschrieben.

Ein statistischer Test ist ebenso einseitig konstruiert. Wir legen ein Signifikanzniveau fest, begrenzen also die Wahrscheinlichkeit einen Fehler 1. Art zu begehen, die Nullhypothese zu verwerfen, obwohl sie richtig ist. Damit ist eine Entscheidung für die Alternativhypothese statistische abgesichert. Die Wahrscheinlichkeit, die Nullhypothese fälschlicherweise beizubehalten, wird hingegen nicht kontrolliert. Dies hat zur Folge, dass ein nicht-Ablehnen der Nullhypothese, kein sicheres Ergebnis für jene darstellt. Falls wir ein nicht-signifikantes Ergebnis erhalten, so bedeutet es nicht, dass die Nullhypothese gültig ist.

Der p-Wert ist die Wahrscheinlichkeit, dass die Nullhypothese gültig ist

Der p-Wert stellt eine Wahrscheinlichkeit dar. Das ist soweit richtig. Nur handelt es sich hier nicht um die Wahrscheinlichkeit, dass die Nullhypothese gültig ist. Vielmehr ist der p-Wert eine bedingte Wahrscheinlichkeit. Eine bedingte Wahrscheinlichkeit, ist die Wahrscheinlichkeit, dass ein Ereignis eintritt unter der Bedingung, dass ein anderes Ereignis schon eingetreten ist. In diesem Zusammenhang ist der p-Wert die Wahrscheinlichkeit, dass der (durch die Stichprobe) berechnete Wert der Teststatistik oder ein im Sinne der Alternativhypothese noch extremerer Wert angenommen wird, unter der Bedingung, dass die Nullhypothese richtig ist. Dies ist nicht gleichbedeutend zu der Wahrscheinlichkeit, dass die Nullhypothese wahr ist.

Der zu schätzende Parameter eines 95%-Konfidenzintervalls, liegt mit einer Wahrscheinlichkeit von 95% in jenem Intervall

In der Geschichte der Statistik wurden diverse Wahrscheinlichkeitsansätze entwickelt. Der Ansatz, welcher sich in den Wissenschaften durchgesetzt hat, ist der sogenannte frequentistische Wahrscheinlichkeitsansatz. Er unterliegt der Annahme, dass das betrachtet Zufallsexperiment beliebig häufig wiederholt wird. Unter dieser Annahme lautet die richtige Interpretation des Konfidenzintervalls, wie folgt: Erheben wir uns beliebig viele Stichproben zu unserem Problem und berechnen jedes Mal das zugehörige Konfidenzintervall, so liegt in 95% dieser Intervalle der wahre Mittelwert (Populationsmittelwert).  Intervalle, welche der Interpretation aus der Überschrift unterliegen, sind die sogenannten Kredibilitätsintervalle, welche Gegenstand der bayesianischen Statistik sind.

Literatur

Carlin, B. P. und Louis, T. L. (1996): Bayes and Empirical Bayes Methods for Data Analysis, 1. Auflage, Chapman & Hall, London.

Genschel, U. und Becker, C. (2005): Schließende Statistik. Grundlegende Methoden, 1. Auflage, Springer, Berlin.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.