Markov
Markov (Processus – ou Chaîne de -)[Méth.]
Théorie permettant de calculer les probabilités d’apparition d’événements aléatoires successifs liés les uns aux autres. Un processus markovien est défini entièrement quand on connaît l’état initial et les probabilités associées aux différentes transitions d’un État A quelconque aux États B pouvant lui succéder.