Comment utiliser le modèle de Markov dans l'analyse prédictive

La Modèle de Markov est un modèle statistique qui peut être utilisé dans l'analyse prédictive qui repose largement sur la théorie des probabilités. (Il est nommé d'après un mathématicien russe dont la recherche primaire était en théorie des probabilités.)

Voici un scénario pratique qui illustre comment cela fonctionne: Imaginez que vous voulez de prédire si l'équipe X va gagner le match de demain. La première chose à faire est de collecter des statistiques antérieures sur Team X. La question qui pourrait se poser est de savoir jusqu'où vous devriez aller retour dans l'histoire?

Supposons que vous étiez en mesure d'obtenir les 10 derniers résultats de jeu passées en séquence. Vous voulez connaître la probabilité de Team X gagner le prochain match, étant donné les résultats des 10 derniers matchs.

Le problème est que plus on remonte dans l'histoire que vous voulez aller, le plus difficile et plus complexe le calcul de la collecte des données et probabilité devenir.

Croyez-le ou non, le modèle de Markov simplifie la vie en vous offrant la Markov Assomption, qui ressemble à ceci lorsque vous écrivez dans les mots:

La probabilité qu'un événement se produise, étant donné n événements passés, est approximativement égale à la probabilité qu'un tel événement se produise étant donné que le dernier événement passé.

Écrit comme une formule, l'Assomption de Markov ressemble à ceci:

image0.jpg

De toute façon, l'Markov Assomption signifie que vous ne devez pas aller trop loin dans l'histoire de prédire le résultat de demain. Vous pouvez simplement utiliser l'événement passé le plus récent. Ceci est appelé le premier ordre prédiction Markov parce que vous ne considérant que le dernier événement de prédire l'événement futur.

UN second ordre prédiction Markov comprend seulement les deux derniers événements qui se produisent dans l'ordre. De l'équation vient de donner, l'équation largement utilisé suivant peut également être dérivé:

image1.jpg

Cette équation vise à calculer la probabilité que certains événements se produiront dans l'ordre: événement1 après événement2, et ainsi de suite. Cette probabilité peut être calculée en multipliant la probabilité de chaque événementt (compte tenu de l'événement précédent à cela) par l'événement suivant dans la séquence. Par exemple, supposons que vous voulez prévoir la probabilité que l'équipe X gagne, perd, puis des liens.




Voici comment un modèle prédictif typique basé sur un modèle de Markov pourrait fonctionner. Considérons le même exemple: Supposons que vous voulez prévoir les résultats d'un match de football à jouer par équipe X. Les trois résultats possibles - appelé états - sont gagnant, perte, ou une cravate.

Supposons que vous avez collecté des données statistiques passées sur les résultats des matchs de football de l'équipe X, et que l'équipe X a perdu son jeu le plus récent. Vous voulez de prédire l'issue du match de football suivant. Il est tout au sujet de deviner si l'équipe X va gagner, perdre, ou une cravate - en se fondant uniquement sur les données de jeux passés. Alors, voici comment vous utilisez un modèle de Markov à faire cette prédiction.

  1. Calculer des probabilités fondées sur des données passées.

    Par exemple, combien de fois l'équipe X perdu jeux? Combien de fois l'équipe X gagné jeux? Par exemple, imaginez si l'équipe X a remporté 6 jeux sur dix jeux au total. Ensuite, l'équipe X a gagné 60 pour cent du temps. En d'autres termes, la probabilité de gagnante pour l'équipe X est de 60 pour cent.

  2. Calculer la probabilité de perte, et la probabilité d'une égalité, de la même façon.

  3. Utilisez le Na # 239-VE équation de probabilité de Bayes pour calculer les probabilités telles que les suivantes:

    image2.jpg
    • La probabilité que l'équipe X va gagner, étant donné que l'équipe X a perdu le dernier match.

    • La probabilité que l'équipe X va perdre, étant donné que l'équipe X a remporté le dernier match.

    • Calculer les probabilités pour chaque état (gagnant, perte, ou TIE).

    • En supposant que l'équipe joue un seul match par jour, les probabilités sont les suivantes:

      • P (Win | Perte) est la probabilité que l'équipe X va gagner aujourd'hui, étant donné qu'il a perdu hier.

      • P (Win | Tie) est la probabilité que l'équipe X va gagner aujourd'hui, étant donné que ce lié hier.

      • P (Win | Win) est la probabilité que l'équipe X va gagner aujourd'hui, étant donné qu'il a remporté hier.

      • En utilisant les probabilités calculées, créer un graphique.

        Un cercle dans ce tableau représente un état possible que Team X pourrait atteindre à un moment donné (victoire, la perte, cravate) - les numéros sur les flèches représentent les probabilités que l'équipe de X pourrait passer d'un état à un autre.

        image3.jpg

      Par exemple, si l'équipe X vient de remporter le match d'aujourd'hui (son état actuel = win), la probabilité que l'équipe va gagner à nouveau est de 60 pourcentage la probabilité qu'ils vont perdre le prochain match est de 20 pour cent (dans ce cas, ils ' D passer de l'état actuel = gagner pour l'état futur = perte).

      Supposons que vous voulez savoir les chances que l'équipe X va gagner deux matchs d'affilée et perdre le troisième. Comme vous pouvez l'imaginer, ce ne est pas une prédiction simple à faire.

      Toutefois, en utilisant le tableau vient d'être créé et l'hypothèse de Markov, vous pouvez facilement prédire les chances d'un tel événement. Vous commencez avec l'état de victoire, marcher à travers l'état de gagner à nouveau, et d'enregistrer 60 pourcentage puis vous vous déplacez à l'état de perte et d'enregistrer 20 pour cent.

      Les chances que l'équipe X va gagner deux fois et perdre le troisième jeu devenu simple à calculer: 60 fois pour cent 60 pour cent de fois 20 pour cent qui est 60 pour cent 60 pour cent * * 20 pour cent, ce qui équivaut à 72 pour cent.

      Alors, quelles sont les chances que l'équipe X va gagner, puis attacher, puis perdre deux fois après cela? La réponse est de 20 pour cent (passage de l'état de la victoire de lier l'Etat) fois 20 pour cent (passant de cravate à la perte), les temps de 35 pour cent (passant de la perte à la perte) fois 35 pour cent (passant de la perte à la perte). Le résultat est 49 pour cent.


      » » » » Comment utiliser le modèle de Markov dans l'analyse prédictive