Ich habe gelesen, dass "Wenn Sie immer mehr Daten erhalten, können Sie statistisch signifikante Unterschiede finden, wo immer Sie hinschauen"
Dies ist jedoch nicht immer der Fall, wenn Sie jedoch null sind Die Hypothese ist, dass zwei Gruppen von Menschen genau 100% gleich sind, weil diese Nullhypothese fast immer oder immer falsch ist. Wenn Ihre Nullhypothese lautet, dass die Lichtgeschwindigkeit 299.792.458 m / s beträgt und Sie dies viele Male messen, ohne Werkzeuge zu verwenden, die voreingenommen sind, um Messfehler in die eine oder andere Richtung zu machen, ist es nicht wahrscheinlicher, dass Sie eine Signifikanz erhalten.
Warum ist das so? (Gibt es intuitive Beispiele, die dieses Verhalten zeigen?)
Wenn dies der Fall ist, liegt dies daran, dass die Nullhypothese falsch ist oder dass das Messwerkzeug eine gewisse Verzerrung aufweist.
Warum bedeuten solche Erhöhungen der statistischen Unterschiede nicht unbedingt, dass die beobachteten Effekte bedeutsam / wichtig sind?
Weil sehr kleine Unterschiede genauso wahrscheinlich aus anderen Gründen auftreten als die, mit der Sie das Experiment getestet haben (z. B. Problem mit dem Messgerät, Grundlinienunterschied zwischen Gruppen), und es gibt keine Möglichkeit zu erraten, was aufgetreten ist. Beachten Sie, dass dies immer der Fall ist, auch wenn der Effekt groß ist. Es ist jedoch weniger wahrscheinlich (soweit ich das beurteilen kann, dass dies "handgewellt", aber intuitiv offensichtlich ist), einen großen Effekt zu beobachten, wenn alle Faktoren außer Ihrer unabhängigen Variablen wurden relativ konstant gehalten.
Auch sehr kleine Unterschiede bieten normalerweise keinen Grund, basierend auf dem Ergebnis Maßnahmen zu ergreifen. Die Kosten für die Ausführung der Aktion überwiegen normalerweise die Vorteile.
Bearbeiten:
Eine andere Sache ist, dass im Fall einer von der Theorie vorhergesagten Nullhypothese offensichtlich ein nicht signifikantes Ergebnis wichtig ist, da Ihre Theorie bestätigt wurde. Selbst im Fall der häufigeren "immer falschen" Nullhypothese könnten Datenergebnisse mit "Nicht-Signifikanz" sinnvoll sein. Die mangelnde Signifikanz, insbesondere bei großen Stichproben, zeigt, dass jeder Effekt / Unterschied im Verhältnis zum Hintergrundrauschen gering ist. Ich würde sagen, dass die Praxis, nicht signifikante Ergebnisse zu ignorieren, ernsthaft fehlerhaft ist.