Les mérites de la recherche quantitative

Une approche scientifique

Les méthodes de recherche quantitative sont considérées comme l’approche privilégiée de la recherche universitaire, avec des allocations peu fréquentes pour les méthodologies qualitatives à utiliser lorsque les sujets de recherche (le plus souvent, des sujets humains) refusent d’être codifiés dans une construction analytique robuste. Comme son nom l’indique, la recherche quantitative produit des chiffres qui facilitent la mesure, l’évaluation et l’inférence.

Hypothético-déductive

Les défenseurs de cette méthode soutiennent que la plus grande force de la recherche quantitative est son ancrage clair dans la théorie : des hypothèses sont élaborées pour tester les variantes des théories établies afin de les affiner en fonction de ces variables identifiées. Cela ne prouve pas les théories établies mais les améliore plutôt avec des ensembles de données supplémentaires qui soutiennent ou s’alignent sur les résultats initiaux.

Utilisant un échantillon de population qui peut être beaucoup plus important que pour une étude qualitative, les données peuvent être collectées assez rapidement en utilisant des outils d’enquête par e-mail ou par téléphone, et la disponibilité de logiciels statistiques permet une analyse précise et exacte des données. Le potentiel de biais de recherche est limité à la conception de l’étude, à la conception de l’outil d’enquête et à l’interprétation des données, par opposition au risque plus large de biais d’observateur dans une étude qualitative.

Le pouvoir prédictif des statistiques

Puisque les données de recherche quantitative sont livrées sous forme numérique, nous pouvons appliquer des tests statistiques à ces données pour produire des mesures descriptives qui peuvent ensuite être utilisées pour faire des prédictions dans les limites du degré auquel la population de l’échantillon peut être considérée comme représentative d’une population plus large. En commençant par des mesures descriptives de base telles que la moyenne, le mode, la médiane et l’écart type, nous pouvons établir un cadre de données de base avant de passer à des tests plus inférentiels tels que les tests t, les ANOVA et les mesures multivariées telles que les calculs de régression multiple (MRC).

Le degré auquel les résultats peuvent ensuite être généralisés dans une inférence plus large dépendra du test p tout puissant qui est utilisé pour déterminer la validité statistique des données. À condition que la valeur p soit inférieure à 0,05, la probabilité que les données soient le fruit du hasard est inférieure à 5 %.

Irreproducibilité et faux positifs

La capacité de délimiter des variables spécifiques dans l’élaboration d’une hypothèse confère à la recherche quantitative une reproductibilité inhérente. Puisque vous testez des variantes d’une théorie établie plutôt que de proposer une nouvelle théorie, les chercheurs qui tentent de valider votre étude avec tous les mêmes protocoles en place, devraient être en mesure de reproduire vos résultats. Lorsque cela ne se produit pas, le protocole est examiné pour vérifier qu’il correspond à l’original, et si cela vérifie, l’ensemble de données original devrait être le prochain sur la liste, en supposant, bien sûr, que les auteurs de l’étude que vous tentez de valider sont prêts à partager ces données.

Si l’étude originale était basée sur un faux positif, où l’analyse des données a généré une signification statistique pour quelque chose qui n’était pas vraiment là, la probabilité de pouvoir reproduire ces résultats serait mince, voire nulle, à moins que vous ne soyez capable de cartographier l’analyse statistique étape par étape.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.