Zur Titelfrage: Kategorisch nein. In deinem Fall nicht genug Infos, daher mein Kommentar und Downvote. Außerdem, IMO, wurden Fragen, die statistische und praktische Bedeutung miteinander verbinden, hier zu Tode gestellt, und Sie haben nicht genug gesagt, um Ihre Frage einzigartig zu machen. Bitte bearbeiten; Ich werde meine Abwertung rückgängig machen, wenn ich eine Verbesserung sehe (sie ist jetzt gesperrt), und wahrscheinlich eine Aufwertung, wenn sie erheblich ist. Ihre Frage befasst sich mit einem häufigen, wichtigen Missverständnis, das es verdient, auf dem restlichen Weg zum Tod erledigt zu werden. Wie es ist, ist es jedoch schwierig, etwas Neues über Ihre Situation zu sagen, das es zu einem nützlichen Beispiel machen würde.
Ist die Intervention aus statistischer Sicht fehlgeschlagen, und wenn nicht, was kann noch getan werden?
Was haben Sie bisher noch getan? Es ist auch durchaus möglich, dass Ihre Analyse fehlgeschlagen ist, um Ihren Begriff auszuleihen (IMO, "fehlgeschlagen" ist in beiden Fällen eindeutig zu hart). Deshalb habe ich nach Ihrem Test gefragt. Es gibt eine ganze Reihe von Kontroversen um Optionen vor und nach der Analyse, und Stichproben oder deren Fehlen sind für die Auswahl der Analyseoptionen relevant (siehe " Best Practice bei der Analyse von Kontrolldesigns vor und nach der Behandlung"). . Aus diesem Grund habe ich nach einer Kontrollgruppe gefragt.
Wenn Ihre Testauswahl verbessert werden kann, tun Sie dies (offensichtlich). Überprüfen Sie nicht nur Ihre Daten (wie @MattKrause mit Bedacht vorgeschlagen), sondern auch die Annahmen Ihres Tests. Es gibt einige, die an den üblichen Pre-Post-Designs beteiligt sind, und sie werden häufig verletzt.
- Normalverteilungen sind wahrscheinlich schlechte Modelle, insbesondere für Änderungswerte und Finanzdaten. Berücksichtigen Sie nichtparametrische Analysen.
- Heteroskedastizität ist häufig, insbesondere ohne zufällige Auswahl oder mit einer teilweise stochastischen Intervention. Einige Tests reagieren empfindlicher darauf als andere - insbesondere die herkömmlichen.
- Konventionelle ANCOVA geht von keiner Interaktion zwischen Interventionen und Kovariaten aus. Wenn das Grundeinkommen die Durchführbarkeit der Intervention beeinflusst, sollten Sie wahrscheinlich stattdessen eine moderierte Regression verwenden $ (\ text {Endergebnis = Grundeinkommen + Intervention? + Interaktion + Fehler} $, vorausgesetzt, Sie haben eine Kontrollgruppe. Wenn nicht, haben Sie mehr als 2 Mal?
Welche weiteren Informationen über Ihre Personen haben Sie? Das Erforschen von Kovariaten und Moderatoren ist ein guter Weg, um das statistische "Rauschen" (Fehler) zu reduzieren, das das "Signal" (Effekt) Ihrer Intervention überwältigen muss, damit Ihr Test es "erkennt" (Unterstützung der Ablehnung der Null). Wenn Sie eine Menge Varianz mit anderen Mitteln als Ihrer Intervention erklären können oder erklären können, warum Ihre Intervention nicht alle gleichermaßen betrifft, können Sie besser erkennen, wie groß die Wirkung Ihrer Intervention tatsächlich ist, wenn alle anderen gleich sind - was selten der Fall ist der Standardzustand der Natur. Ich glaube, das war der Geist von Matts Vorschlag Nr. 2.
Haben Sie keine Angst, Kovariaten und Moderatoren zu untersuchen, die Sie nicht im Voraus festgelegt haben. Nehmen Sie einfach eine explorative Denkweise an und erkennen Sie diesen erkenntnistheoretischen Übergang ausdrücklich in jedem Bericht an, den Sie veröffentlichen. Der entscheidende Punkt, der in Bezug auf statistische und praktische Bedeutung wiederholt werden muss, ist, dass ihre Überlappung im Allgemeinen begrenzt ist. Ein Großteil der praktischen Bedeutung der statistischen Bedeutung liegt in dem, was Sie daraus machen möchten. Wenn Sie Beweise suchen, um weitere Forschung zu unterstützen (z. B. für ein Forschungsstipendium), kann die Ablehnung explorativer Hypothesen ausreichend sein. AFAIK, dies ist die einzige Art von praktischer Bedeutung, die statistische Signifikanz standardmäßig implizieren soll, und erklärt die Wahl der Terminologie historisch: signifikant genug, um mehr Forschung zu rechtfertigen .
Wenn Sie nach einem statistischen Standpunkt suchen, ob sich Ihre Intervention lohnt, fragen Sie wahrscheinlich falsch. Die statistische Signifikanz soll dies nicht von sich aus beantworten. es stellt nur direkt eine Antwort auf eine sehr spezifische Frage zu einer Nullhypothese dar. Ich nehme an, dies ist ein weiterer Vorschlag: Überprüfen Sie Ihre Nullhypothese. In der Regel wird standardmäßig angegeben, dass der in Ihrer Probe beobachtete Effekt vollständig auf einen Stichprobenfehler zurückzuführen ist (d. H. Wirkung der Intervention = 0). Interessieren Sie sich wirklich für Veränderungen? Wie konsequent muss es sein, um die Intervention zu rechtfertigen? Diese Fragen entscheiden teilweise über die geeignete Null; Sie müssen sie beantworten.
Bei Bestätigungstests müssen Sie im Voraus antworten. Da Sie bereits einen Test durchgeführt haben, sind alle neuen Tests derselben Art mit unterschiedlichen Nullhypothesen, aber derselben Stichprobe explorativ. Wenn Sie keine weitere Probe entnehmen können, ist es wahrscheinlich am besten, andere Arten von Tests auch als explorativ zu betrachten. Der strenge Sinn für das Testen bestätigender Hypothesen ist besonders streng in Bezug auf die "No Peeking" -Regel; IMO, dies ist eine Schwäche des gesamten Hypothesentest-Paradigmas. AFAIK, Bayesianische Analyse kann diesbezüglich etwas weniger streng sein und kann Ihnen insbesondere dann zugute kommen, wenn Sie mehr Daten erfassen können, da Ihr aktuelles Ergebnis dazu beitragen kann, Ihre vorherige Wahrscheinlichkeitsverteilung zu informieren.
Eine andere Möglichkeit, sich dem Problem zu nähern, besteht darin, sich auf die Effektgröße und Ihr Konfidenzintervall zu konzentrieren. $ 2K ist eine Änderung in der Richtung, die Sie wollten, richtig? Wenn die Ergebnisse Ihres Tests das bedeuteten, was Sie meiner Meinung nach bedeuteten, besteht eine Wahrscheinlichkeit von mehr als 5%, dass Sie eine negative Änderung feststellen, wenn Sie die Studie wiederholen, vorausgesetzt, die Intervention hatte keine Wirkung. Wenn sich Ihre Investition überhaupt positiv ausgewirkt hat, ist die Wahrscheinlichkeit niedriger als Ihr p -Wert. Wenn Sie stark genug in die Aussicht auf eine Behandlung investiert sind, sollten Sie die Studie möglicherweise wiederholen. Wieder wissen Sie besser als ich, was diese Entscheidung sonst noch beeinflusst.
P.S. Trotz meines Intro habe ich es geschafft, viel zu diesem "halbtoten" Thema zu sagen. Hoffentlich habe ich eine nützliche Zusammenfassung anderer Ideen als die in bereits vorhandenen Antworten bereitgestellt, aber ich wäre nicht überrascht, wenn vieles davon für Sie persönlich nicht sehr nützlich wäre. Ein großer Grund, warum ich mehr Informationen haben wollte, ist, dass die Beantwortung einer vagen Frage praktisch die Abdeckung vieler unnötiger Grundlagen erfordert, was eine Art Zeitverschwendung ist. Wenn Sie uns jedoch mit einer Bearbeitung versehen, werde ich wahrscheinlich alles abbrechen, was nicht mehr gilt, und ich werde möglicherweise erweitern, was noch funktioniert. Aus den eingehenden Ansichten geht hervor, dass die Frage hier beim Publikum Anklang findet, sodass dies mit etwas mehr Arbeit zu einer sehr nützlichen Frage werden könnte. Sub>