viernes, 14 de noviembre de 2014
jueves, 13 de noviembre de 2014
miércoles, 12 de noviembre de 2014
Cadenas De Markov- Definicion
CADENAS DE MARKOV
Los procesos de paseo aleatorio en realidad son un caso particular de procesos más
generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo
discreto en el que una variable aleatoria Xn va cambiando con el paso del tiempo. Las
cadenas de Markov tienen la propiedad de que la probabilidad de que Xn = j sólo depende
del estado inmediatamente anterior del sistema: Xn−1. Cuando en una cadena dichas
probabilidades no dependen del tiempo en que se considere, n,
P (Xn = j | Xn−1 = i)
se denomina cadena homogénea, esto es, las probabilidades son las mismas en cada paso.
Suscribirse a:
Entradas (Atom)