miércoles, 12 de noviembre de 2014

Algoritmo Genetico

 Dar click aqui ;)

Cadenas De Markov- Definicion


CADENAS DE MARKOV
Los procesos de paseo aleatorio en realidad son un caso particular de procesos más
generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo
discreto en el que una variable aleatoria Xn va cambiando con el paso del tiempo. Las
cadenas de Markov tienen la propiedad de que la probabilidad de que Xn = j sólo depende
del estado inmediatamente anterior del sistema: Xn−1. Cuando en una cadena dichas
probabilidades no dependen del tiempo en que se considere, n,
P (Xn = j | Xn−1 = i)
se denomina cadena homogénea, esto es, las probabilidades son las mismas en cada paso.