Die Vorzüge der quantitativen Forschung

Wissenschaftlicher Ansatz

Quantitative Forschungsmethoden gelten als der bevorzugte Ansatz in der akademischen Forschung. Nur selten werden qualitative Methoden angewandt, wenn sich die Forschungsobjekte (in den meisten Fällen Menschen) weigern, in ein robustes analytisches Konstrukt kodiert zu werden. Wie der Name schon sagt, produziert die quantitative Forschung Zahlen, die die Messung, Bewertung und Schlussfolgerung erleichtern.

Hypothetisch-deduktiv

Befürworter argumentieren, dass die größte Stärke der quantitativen Forschung in der klaren theoretischen Fundierung liegt: Es werden Hypothesen entwickelt, um Varianten etablierter Theorien zu testen, um sie auf der Grundlage der ermittelten Variablen zu verfeinern. Dadurch werden die aufgestellten Theorien nicht bewiesen, sondern durch zusätzliche Datensätze, die die ursprünglichen Ergebnisse unterstützen oder mit ihnen übereinstimmen, verbessert.

Durch die Verwendung einer Stichprobenpopulation, die viel größer sein kann als bei einer qualitativen Studie, können Daten mit Hilfe von Erhebungsinstrumenten per E-Mail oder Telefon relativ schnell erfasst werden, und die Verfügbarkeit von Statistiksoftware ermöglicht eine präzise und genaue Datenanalyse. Das Potenzial für Verzerrungen in der Forschung beschränkt sich auf das Design der Studie, das Design des Erhebungsinstruments und die Interpretation der Daten, im Gegensatz zu dem größeren Risiko einer Verzerrung durch den Beobachter in einer qualitativen Studie.

Die Vorhersagekraft der Statistik

Da quantitative Forschungsdaten in numerischer Form vorliegen, können wir statistische Tests auf diese Daten anwenden, um deskriptive Messungen zu erstellen, die dann verwendet werden können, um Vorhersagen innerhalb der Grenzen des Grades zu machen, in dem die Stichprobenpopulation als repräsentativ für eine größere Population angesehen werden kann. Beginnend mit grundlegenden deskriptiven Maßen wie Mittelwert, Modus, Median und Standardabweichung können wir ein grundlegendes Datengerüst erstellen, bevor wir zu schlussfolgernden Tests wie t-Tests, ANOVAs und multivariaten Maßen wie multiplen Regressionsberechnungen (MRC) übergehen.

Inwieweit die Ergebnisse dann zu einer breiteren Schlussfolgerung verallgemeinert werden können, hängt von dem allmächtigen p-Test ab, der zur Bestimmung der statistischen Gültigkeit der Daten verwendet wird. Wenn der p-Wert unter 0,05 liegt, beträgt die Wahrscheinlichkeit, dass die Daten zufällig entstanden sind, weniger als 5 Prozent.

Reproduzierbarkeit und Falsch-Positive

Die Fähigkeit, spezifische Variablen bei der Entwicklung einer Hypothese abzugrenzen, verleiht der quantitativen Forschung eine inhärente Reproduzierbarkeit. Da Sie Varianten einer etablierten Theorie testen und nicht eine neue Theorie aufstellen, sollten Forscher, die versuchen, Ihre Studie mit denselben Protokollen zu validieren, in der Lage sein, Ihre Ergebnisse zu wiederholen. Wenn das nicht der Fall ist, wird das Protokoll geprüft, um sicherzustellen, dass es mit dem Original übereinstimmt, und wenn das der Fall ist, sollte der Originaldatensatz als Nächstes auf der Liste stehen, vorausgesetzt natürlich, dass die Autoren der Studie, die Sie zu validieren versuchen, bereit sind, diese Daten weiterzugeben.

Wenn die ursprüngliche Studie auf einem falsch-positiven Ergebnis beruht, bei dem die Datenanalyse eine statistische Signifikanz für etwas erzeugt hat, das nicht wirklich vorhanden war, ist die Wahrscheinlichkeit, diese Ergebnisse zu wiederholen, gering bis nicht vorhanden, es sei denn, Sie können die statistische Analyse Schritt für Schritt nachvollziehen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.