Professional Documents
Culture Documents
Tiempo Discreto
Modelado y Anlisis de Redes de
Telecomunicaciones
Motivacin Ejemplo 1
Sea un enrutador al que arriban paquetes de
otros (varios) routers
Cuando
Cadenas de Markov
Evaluacin de Performance
Motivacin Ejemplo 2
Sean un conjunto de usuarios de telfono
PSTN
Cuando
pgina 3
Cadenas de Markov
Evaluacin de Performance
Motivacin
En ambos ejemplos, hacer un anlisis
determinstico no es una opcin
Sin embargo
Cadenas de Markov
Evaluacin de Performance
Proceso Estocstico
Hay veces que lo importante no es un valor
nico, sino una sucesin temporal (aleatoria)
Cadenas de Markov
Evaluacin de Performance
Proceso Estocstico
Espacio de estados
Espacio de parmetros
pgina 6
Cadenas de Markov
Evaluacin de Performance
Proceso Estocstico
Algunos parmetros de inters (cont)
Estadsticas de orden n (o distribuciones finitodimensionales)
para todos los posibles conjuntos {t1,,tn}
Ejemplos:
Estadstica de orden 1:
la distribucin estacionaria
la esperanza para un t dado
pgina 7
Cadenas de Markov
Evaluacin de Performance
Proceso ergdico
pgina 8
Cadenas de Markov
Evaluacin de Performance
Procesos de Markov
Un proceso estocstico es de Markov si:
Cadenas de Markov
Evaluacin de Performance
Es decir
La condicin resulta:
pgina 10
Cadenas de Markov
Evaluacin de Performance
CMTD - Definicin
El proceso est caracterizado por las
probabilidades de transicin del estado i al j en
el instante n
Estas probabilidades describen la evolucin del
sistema
De aqu en adelante asumiremos
homogeneidad: pij(n)=pij
Interesa estudiar P(Xn=i)
Probabilidad de que el sistema se encuentre en el estado
i en tiempo n
pgina 11
Cadenas de Markov
Evaluacin de Performance
CMTD - Ejemplo
Un ratn dentro de un laberinto:
El ratn slo puede moverse por los corredores en la
direccin de las flechas y la pieza 3 tiene la salida
En cada pieza elige al azar entre las posibles
direcciones, sin recordar su recorrido anterior
Xn={Pieza a la que va el ratn despus de cada
eleccin} es una cadena de Markov?
pgina 12
Cadenas de Markov
Evaluacin de Performance
pgina 13
Cadenas de Markov
Evaluacin de Performance
Fila i: probabilidades
de pasar a los otros
estados desde i (debe
sumar 1)
Columna j:
probabilidades de
llegar a j por los otros
estados
pgina 14
Cadenas de Markov
Evaluacin de Performance
CMTD Distribucin
Se llama ley o distribucin de X en el instante n al
vector n (quiz infinito) n=(n(j))jE
Cadenas de Markov
Evaluacin de Performance
CMTD Distribucin
Cunto vale n+1?
pgina 16
Cadenas de Markov
Evaluacin de Performance
CMTD -Distribucin
Tomemos la siguiente cadena sencilla:
1/3
1
2/3
4/5
1/5
pgina 17
Cadenas de Markov
Evaluacin de Performance
pgina 18
Cadenas de Markov
Evaluacin de Performance
Otro ejemplo:
no existe lim Pn :
Cadenas de Markov
Evaluacin de Performance
Clasificacin de Estados
Comunicacin entre dos estados (ij)
Los estados i y j se comunican si existen m y n
positivos tales que pij(m) > 0 y pji(n) > 0
Es decir, existe un recorrido que va de i a j en el
grafo asociado y visceversa
Ejemplo del laberinto:
3 2
5 y 6 no se comunican con
el resto
La comunicacin es una relacin
de equivalencia
Si existe una nica clase (todos se comunican entre
s), la cadena se dice irreducible
pgina 20
Cadenas de Markov
Evaluacin de Performance
Periodicidad
Sea d(i)=mcd{n: pii(n)>0} . El estado i es
peridico de perodo d(i) sii d(i)>1; en caso
contrario se dice que es aperidico
Ejemplos:
Se
En
Cadenas de Markov
Evaluacin de Performance
Recurrencia
Sea fiin (o fn(i)) la probabilidad de, saliendo del
estado i, volver a i por primera vez en n pasos
La probabilidad fii de volver al estado i en
tiempo finito es:
Cadenas de Markov
Evaluacin de Performance
Recurrencia
Si el espacio de estados es finito, siempre
existe al menos un estado recurrente
Si el espacio de estados es infinito, puede no
haber estados recurrentes (e.g. pi,i+1=1)
En trminos de las transiciones, un estado es
recurrente sii pii(n)=
Si j es transitorio pij(n)< para todo i y
entonces
pgina 23
Cadenas de Markov
Evaluacin de Performance
Cadenas de Markov
Evaluacin de Performance
2. Es recurrente nula:
3. Es recurrente positiva:
pgina 25
Evaluacin de Performance
Ergodicidad
Una cadena es ergdica si existe un nico vector de
probabilidad tal que cualquiera sea la ley inicial 0
se cumple que:
Cadenas de Markov
Evaluacin de Performance
Ergodicidad
En una cadena ergdica, la porcin de tiempo
que la cadena est en el estado i es (i)
Adems, tiene la siguiente relacin con el
tiempo medio de retorno M(i)
pgina 27
Cadenas de Markov
Evaluacin de Performance
Cadenas de Markov
Evaluacin de Performance
Ecuaciones de Balance
Si es la distribucin lmite entonces es
invariante:
Adems:
Multiplicando las dos ecuaciones y eliminando
el trmino repetido obtenemos:
pgina 29
Cadenas de Markov
Evaluacin de Performance
Ecuaciones de Balance
Cadenas de Markov
Evaluacin de Performance
Ecuaciones de Balance
Las ecuaciones de balance se pueden
extender a conjuntos S de estados
Se toma la ecuacin
pgina 31
Cadenas de Markov
Evaluacin de Performance
Ecuaciones de Balance
pgina 32
Cadenas de Markov
Evaluacin de Performance
Bibliografa
Esto no fue ms que un vistazo a las cadenas
de Markov en tiempo discreto. Por ms info
consultar la web del curso y/o el siguiente
material:
pgina 33
Cadenas de Markov
Evaluacin de Performance