Théorie de la décision statistique

Théorie de la décision statistique est peut-être la plus grande branche de la statistique. Il englobe tous les célèbres (et de nombreux pas-si-célèbres) tests de signification - t tests de Student, les tests de chi-carré, analyse de la variance (ANOVA-), tests de corrélation de Pearson, tests de Wilcoxon et Mann-Whitney, et ainsi de suite.

Dans sa forme la plus basique, statistiques théorie de la décision traite de déterminer si oui ou non un effet réel est présent dans vos données. Le mot effet peut se référer à des choses différentes dans des circonstances différentes. Exemples d'effets sont les suivants:




  • La valeur moyenne de quelque chose peut être différent d'un groupe par rapport à l'autre. Par exemple, les hommes peuvent avoir des valeurs plus élevées d'hémoglobine, en moyenne, que females- l'effet du sexe sur l'hémoglobine peut être quantifié par la différence du taux d'hémoglobine moyen entre hommes et femmes.

    Ou sujets traités avec un médicament peuvent avoir un taux de recouvrement plus élevé que les sujets donnés un placebo la taille de l'effet pourrait être exprimée comme la différence dans le taux de récupération (médicaments moins placebo) ou par le rapport de la probabilité de reprise pour le médicament par rapport à la placebo (rapport de cotes).

  • La valeur moyenne de quelque chose peut être différente de zéro (ou d'une autre valeur spécifiée). Par exemple, la variation moyenne du poids corporel de plus de 12 semaines dans un groupe de sujets subissant une thérapie physique peut être différente de zéro.

  • Deux variables numériques peuvent être associés (aussi appelé corrélée). Par exemple, si l'obésité est associée à l'hypertension, alors l'indice de masse corporelle peut être corrélée avec la pression sanguine systolique. Cet effet est souvent quantifiée par le coefficient de corrélation de Pearson.


» » » » Théorie de la décision statistique