Ich glaube nicht, dass der Einwand nur gegen den Begriff "statistisch signifikant" gerichtet ist, sondern gegen den Missbrauch des gesamten Konzepts der statistischen Signifikanzprüfung und gegen die Fehlinterpretation von Ergebnissen, die vorliegen (oder nicht) ) statistisch signifikant.
Sehen Sie sich insbesondere diese sechs Aussagen an:
- P-Werte können angeben, wie inkompatibel die Daten mit einem bestimmten statistischen Modell sind.
- P-Werte messen nicht die Wahrscheinlichkeit, dass die untersuchte Hypothese wahr ist, oder die Wahrscheinlichkeit, dass die Daten zufällig erzeugt wurden
Chance allein.
- Wissenschaftliche Schlussfolgerungen und geschäftliche oder politische Entscheidungen sollten nicht nur darauf beruhen, ob ein p-Wert einen bestimmten Schwellenwert überschreitet.
- Die richtige Schlussfolgerung erfordert vollständige Berichterstattung und Transparenz.
- Ein p-Wert oder eine statistische Signifikanz misst nicht die Größe eines Effekts oder die Wichtigkeit eines Ergebnisses.
- Ein p-Wert allein liefert keinen guten Beweis für ein Modell oder eine Hypothese.
ol>
Sie empfehlen daher eine umfassendere Methode zur Durchführung und Berichterstellung als nur die Angabe eines p-Werts oder sogar eines p-Werts mit einem CI. Ich denke, das ist klug und ich denke nicht, dass es kontrovers sein sollte.
Nun, wenn ich von ihrer Aussage zu meinen eigenen Ansichten gehe, würde ich sagen, dass wir den p-Wert oft überhaupt nicht erwähnen sollten. In vielen Fällen enthält es keine nützlichen Informationen. Fast immer wissen wir im Voraus, dass die Null nicht genau wahr ist, und oft wissen wir, dass sie nicht einmal annähernd wahr ist.
Was ist stattdessen zu tun? Ich kann die MAGIC-Kriterien von Robert Abelson nur empfehlen: Größe, Artikulation, Allgemeinheit, Interesse und Glaubwürdigkeit. Ich sage viel mehr darüber in meinem Blog-Beitrag: Statistik 101: Die MAGISCHEN Kriterien.
(Meine Ansichten sind im Gegensatz zu denen der ASA umstritten. Viele Menschen stimmen ihnen nicht zu.)