von ponderstibbons » Do 5. Jan 2017, 16:56
Das ist in vielfacher Hinsicht unsinnig.
Erstens geht es nicht darum, ob die Daten normalverteilt sind, sondern ob sie als Stichprobe aus einer normalverteilten Grundgesamtheit stammen. Daher überhaupt erst solche Tests.
Bei kleinen Stichproben sind solche Tests allerdings viel zu unsensibel und können Abweichungen von der Normalverteilung nicht erkennen. Bei großen Stichproben wiederum werden auch unwesentliche Abweichungen sofort "signifikant", auch wenn sie die Rechnungen nicht stören würden. Daher ist diese Testerei tendenziell sinnlos.
Der eigentlich Knackpunkt aber ist: Außer für den Signifikanztest des Pearson-Koeffizienten werden nirgends normalverteilte Variablen gebraucht! Alle gängigen Verfahren fragen nach der Verteilung der Vorhersagefehler (der Residuen), nicht nach der Verteilung der abhängigen Variable. Zum Beispiel sollen beim t-Test die Werte jeweils in den beiden Gruppen normalverteilten Grundgesamtheiten entstammen. Das ist etwas anderes, als wenn die Variable für die Gesamtstichprobe betrachtet wird. Bei Varianz- und Regressionsanalysen kann man sich die Residuen des Modells berechnen und als Variable ausgeben lassen, um zu überprüfen, welcher Verteilung sie folgen. Hat aber natürlich dasselbe Problem wie oben genannt - entweder die Betrachtung ist zu ungenau, oder sie ist übergenau.
Glücklicherweise: auch die Annahme normalverteilter Vorhersagefehler/normalverteilter Gruppen ist nicht mehr relevant, sobald die Gesamtstichprobe groß genug ist (ab ca. n > 30). Aufgrund des zentralen Grenzwertsatzes liefern die gängigen Verfahren (t-Test, Varianzanalysen, lineare Regression) auch dann zuverlässige p-Werte, wenn gegen die Normalverteilungsannahme (bei den Residuen) verstoßen wird. Mit n > 110 kann da eigentlich nichts schiefgehen bei Dir.
Mit freundlichen Grüßen
PonderStibbons