You are on page 1of 10

Captulo IV

IV
Un proceso puede clasificarse como: continuo de variable continua continuo de variable discreta discreto de variable continua discreto de variable discreta Ejemplos:

Procesos aleatorios

Definiremos proceso aleatorio a toda experiencia que genere una secuencia de valores modelizables como variables aleatorias. Cada experiencia individual tiene un posicionamiento, o sea un orden en la experiencia global. Tambin pode mos decir que una serie ordenada de experiencias individuales genera una experiencia global que denominamos proceso aleatorio. Un proceso es llamado discreto cuando el resultado de la experiencia es una sucesin, tiene un orden en relacin con los nmeros naturales. Un proceso es continuo, en cambio, cuando el ordenamiento est relacionado con los nmeros reales.

Proceso continuo de variable continua: el crecimiento de las personas. A ltura Fu ncin densid ad d e las personas de 15 aos

10

15

20

Tiem po (aos)

Proceso continuo de variable discreta: la situacin de encendido o apagado de una lmpara. E ncendida 1 Fu ncin de probab ilida d d e la situacin de la lm pa ra

Tiem po (horas)

Proceso discreto de variable continua: temperatura mxima de cada da. Tem peratura (C ) 30 20 10 0 1 2 3 6 10 D a Fu ncin densid ad de la tem p eratu ra m xim a del da 6

Proceso discreto de variable discreta: cantidad de pasajeros en cada mnibus que llega. 57

Estimacin Bayesiana

C antida d d e pasajeros 20 18 16 0 1 2 3 4 5

Fu ncin de probab ilid ad d e la cantidad m xim a de pasajeros en el om nibus n 5

N m nibu s

En un proceso el resultado de la experiencia es la funcin o sucesin donde la variable aleatoria est ordenada por alguna variable secuenciadora (en un proceso discreto son los nmeros naturales; en un proceso continuo, los reales). El conjunto de las sucesiones posibles genera el espacio muestral. Por ejemplo: la temperatura mxima diaria es una variable aleatoria continua (valor variable para un determinado da), su secuencia de n valores es un proceso aleatorio discreto. La lectura de un ao (los 365 valores ordenados) es el resultado de la experiencia definida como una secuencia de 365 variables. Tem peratura m xim a

A o 1 A o 2 A o 3

1 2 3

21 de sep 3 6 5 D as

Lo importante es entender que para cada posicin (nmero de orden en un proceso discreto o valor de la variable secuenciadora en un proceso continuo) queda definida una variable aleatoria. Para el caso anterior: la temperatura mxima de los 21 de septiembre es una variable aleatoria; tendr su funcin densidad, media, variancia, etc. A esta variable la llamaremos variable posicionada.

4.1. LOS PROCESOS CONSTANTES Cuando en una secuencia todas las variables posicionadas son iguales (tienen la misma funcin de distribucin) e independientes, estaremos frente a un proceso constante.

4.1.1. EL PROCESO BERNOULLI Llamaremos variable Bernoulli : 1 p para b = 0 P ( BER = b) = p para b = 1 0 para cualquier otro valor

58

Captulo IV

P (B E R = b) p

(1 - p )

Para valores del parmetro p: 0 p 1 aplicando las definiciones correspondientes resulta: media: BER = p variancia: 2BER = p (1 p)

Una secuencia de resultados de una variable posicionada Bernoulli generar bajo condicin de independencia y constancia, un proceso aleatorio Bernoulli. A este proceso Bernoulli estn asociadas diversas variables aleatorias que analizaremos. Es frecuente llamar al suceso {BER = 1} el xito, luego p ser la probabilidad de xito para cada experiencia (recuerde que hay constancia e independencia). En este proceso el valor i (i-sima experiencia) es la variable secuenciadora. E : xito E : no xito (fracaso) E 1 E 2 E 3 ... E i ... E n

(variable secuenciadora)

4.1.1.1. LA VARIABLE BINOMIAL Es la cantidad de xitos en una secuencia de n experiencias individuales. Por ejemplo, son variables binomiales: a) la cantidad de caras en n tiros de una moneda. b) la cantidad de ases al tirar cinco dados. c) la cantidad de piezas defectuosas en una muestra de n piezas. E 1 E 2 E 3 ... E i ... E n-1 E n

Ntese que dada la independencia y constancia de estas experiencias no sera necesario definirlas como proceso, puesto que no interesara el orden ni definir la secuencia, pero de esta forma resulta conceptual e introductoria para otros temas. Definida as la variable, donde no interesa el orden de aparicin, estamos justificando la identidad entre el modelo de experiencia consistente en arrojar 5 dados simultneamente o hacerlo de a uno por vez. No sera lo mismo si fueran conside rados diferentes los resultados segn el orden, por ejemplo si en una apuesta se pagara ms si el as sale en el primer tiro que si sale en el ltimo. Los valores que toma la variable binomial responden a una suma de ceros y unos (variable Bernoulli), por consiguiente la variable BIN tendr como valores posibles el cero o un nmero natural. Luego BIN = BER1 + BER2 + BER3 + ... + BERi + ... + BERn

Su funcin de probabilidad puede generarse como suma de variables Bernoulli o directamente por clculo de probabilidades en espacios equiprobabilsticos.

59

Estimacin Bayesiana

n r nr P ( BIN = r ) = r p (1 p)

para r = 0; 1; 2; ...; n

siendo una suma de n variables Bernoulli iguales e independientes, su media y variancia sern:

BIN = n BER = n p BIN = n2BER = n p (1 p)


2

Como habr o bservado esta v.a. tiene dos parmetros: n, p que si en algn modelo son considerados, a su vez, variables aleatorias, la P(BIN = r) deber ser P(BIN = r/ n, p); en forma breve: P(r/ n, p). Ntese que la variable Bernoulli es tambin una binomial de parmetro n = 1. Adems note la equivalencia y simetra respecto de calcular r xitos de probabilidad p o n r fracasos de probabilidad 1 p. Ejemplo: la probabilidad de obtener 3 ases con un tiro de cinco dados (o con cinco tiros de un dado) ser: 5! 1 5 P ( BIN = 3) = 3! 2! 6 6
3 2

4.1.1.2. LA VARIABLE GEOMETRICA Es la cantidad de experiencias hasta obtener el primer xito. Por ejemplo: a) la cantidad de veces que hay que tirar un dado para sacar un as. b) la cantidad de tiros necesarios hasta acertar un blanco. c) las veces que hay que dar un examen para aprobar una materia (siempre y cuando sean vlidas las condiciones del proceso: de independencia y constancia, y recordemos que esto depende exclusivamente de la informacin que disponemos al respecto; si sabemos que para una repeticin del examen se suele volver a estudiar cambiando as la probabilidad de aprobar, entonces no estaramos en un proceso de este tipo). Ntese que en este caso s interesa el orden por cuanto el resultado xito debe ser el ltimo de la secuencia. La funcin de probabilidad, y su media y variancia son: P(GEO = n) = (1 p) n 1 p media: GEO = 1 p n = 1; 2; 3; ...;
2 = variancia: GEO

1 p p2

Esta variable tiene un solo parmetro ( p), en los modelos donde p sea considerada v.a. ser una funcin condicional y deber escribirse P(GEO = n/ p), o abreviadamente P(n/ p). Ejemplo: la probabilidad de necesitar 4 disparos (exactamente) hasta acertar en el blanco si la de acertar cada disparo es de 0,3 (y se cumplen las condiciones de independencia y constancia): P(GEO = 4) = 0,7 3 0,3 = 0,1029

60

Captulo IV

4.1.1.3. LA VARIABLE PASCAL Es la cantidad de experiencias hasta obtener el r-simo xito. Por ejemplo, la cantidad de veces que hay que tirar un dado para sacar 3 ases ( r = 3), la cantidad de tiros necesarios hasta destruir un blanco si se necesitan exactamente r aciertos, etc. Ntese que aqu slo interesa el orden en cuanto al r-simo resultado xito que debe ser el ltimo de la secuencia, de los anteriores no interesa la posicin. Como puede inferirse, esta variable puede pensarse como una suma de r variables geomtricas (cantidad de ensayos hasta el primer xito + cantidad del primero al segundo + ...) ya que habiendo constancia e independencia, luego de cada xito es co o empezar a contar de nuevo hasta el siguiente. Su funcin de probabilidad entonces puede generarse como suma de variables geomtricas pero tambin directamente por clculo de probabilidades. La funcin de probabilidad es: n 1 n r r P ( PAS = n) = r 1 (1 p ) p para n = r; r + 1; r + 2; ...;

siendo una suma de r variables geomtricas iguales, su media y variancia sern: media: PAS = r p
2 = variancia: PAS

r (1 p) p2

Esta variable tiene dos parmetros ( r, p); en los modelos donde r y p sean consideradas v.a. ser una funcin condicional y deber escribirse P(PAS = n/ r, p), o abreviadamente P(n/ r, p). La variable geomtrica es una Pascal de parmetro r = 1.

4.1.1.4. LA VARIABLE BINOMIAL NEGATIVA Es la cantidad de fracasos hasta obtener el r-simo xito. Por ejemplo, la cantidad de veces que sale no-as al tirar un dado hasta sacar 3 ases ( r = 3), la cantidad de tiros errados hasta destruir un blanco si se necesitan exactamente r aciertos, etc. Evidentemente esta variable s corresponde a n r siendo r una constante y n la variable Pascal. Por lo tanto es un simple cambio de variable lineal (desplazamiento r): s + r 1 s r P (S = s ) = r 1 (1 p ) p para s = 0; 1; 2; ...;

siendo una suma de r variables geomtricas iguales, su media y variancia sern: media: S = r r p
2 =r variancia: S

1 p p2

4.1.2. EL PROCESO POISSON El proceso Poisson es el lmite del proceso Bernoulli para n y p 0. En este caso la secuencia se transforma en un continuo. La cantidad n de ensayos se transforma en un continuo que llamaremos t (variable secuenciadora).

61

Estimacin Bayesiana

La variable aleatoria elemental (variable posicionada) sigue siendo la Bernoulli, slo que p pasa a ser un infinitsimo que identificaremos con dt o sea P(xito) = P(K = 1) = dt. P (k) 1 - dt

dt 0 1 k

La probabilidad de que haya xito en un punto del continuo es un infinitsimo, que se compensa con la existencia de infinitos puntos (infinitas experiencias) en el continuo t haciendo aparecer una cantidad finita de xitos. Las condiciones de constancia e independencia siguen mantenindose. En ltima instancia el proceso Poisson y el proceso Bernoulli son la misma cosa.

4.1.2.1. LA VARIABLE POISSON Es el equivalente a la binomial, por lo tanto es la cantidad de xitos a lo largo del continuo t. La cantidad de xitos la llamaremos k. Que una variable sea Poisson se infiere nicamente bajo informacin de que puede haber un xito con igual probabilidad (como experiencia individual) en cualquier punto de un continuo y con independencia de la ocurrencia de uno u otro. En realidad estamos diciendo lo mismo que para el proceso Bernoulli, slo que en este caso es ms fcil verlo. Suelen responder a las condiciones (constancia e independencia) aunque sea con buena aproximacin. Ejemplos: a) la cantidad de roturas d e hilos en un mquina textil durante un cierto intervalo de tiempo. b) la cantidad de choques en una determinada esquina durante el mes. c) la cantidad de personas que pasan por cierto lugar durante tal perodo. Siendo el proceso Poisson lmite del binomial, la funcin de probabilidad puede deducirse como lmite de la frmula binomial para n y p 0, quedando como resultado: P ( POI = k ) = ( t ) k e t k! para k = 0; 1; 2; ...;
2 =t variancia: POI

media: POI = t

Ntese la semejanza con la media y variancia en la binomial (con n equivalente a t y equivalente a p):

BIN = p n 2BIN = p n (1 p)

(con p 0, 1 p 1)

POI puede ser interpretado la media por unidad t de continuo. Es llamada tambin tasa de falla (aunque para ser coherentes deberamos llamarlo tasa de xito). Ejemplos: roturas de cierta mquina por ao, fallas en una tela por metro, choques en cierta esquina por mes, etc.
Dada la frmula de la media, el valor de = Ntese que la media de fallas es proporcional al valor t. 62

Captulo IV

La variable Poisson puede tomarse como de un solo parmetro (su media ) y escribir por lo tanto cuando sta sea considerada variable: P (k / ) =

k e k!

aunque suele tomarse como paramtrica a y a t. Ejemplo: calculemos la probabilidad de que se produzcan 3 choques en una quincena en determinada esquina donde la tasa (media unitaria) es = 5 choques / mes. Debemos unificar la unidad de tiempo, es indistinto trabajar en das, luego = 5/30 (5 choques en 30 das) o por mes, luego t = 0,5 (medio mes). Utilizando la ltima frmula dada: P (k = 3 / = 4, t = 0,5) = (4 0,5) 3 e 40 ,5 = 0,18 3!

4.1.2.2. LA VARIABLE EXPONENCIAL A semejanza de la geomtrica (es su lmite) es la cantidad de continuo hasta obtener el primer xito. En las primeras experiencias y condiciones enunciadas en los ejemplos para la variable Poisson: a) la longitud de hilo que produce una mquina textil hasta que se produce la rotura del hilo. b) el tiempo que transcurre entre choque y choque en determinada esquina. c) el tiempo entre llegadas de personas a un cierto lugar. Aqu s interesa el orden, por cuanto el resultado xito debe ser el ltimo punto del continuo. La funcin densidad de probabilidad, y su media y variancia son: f ( EXP = t ) = e t media: EXP = 1 para t 0
2 = variancia: EXP

Esta variable tiene un solo parmetro ( ); en los modelos donde sea considerada v.a. ser una funcin condicional y deber escribirse f(EXP = t/ ) o abreviadamente f(t/ ). Ejemplo: calculemos la probabilidad de que transcurran ms de 10 das entre un choque y otro en determinada esquina donde la tasa (media unitaria) es = 5 choques / mes. Debemos unificar la unidad tiempo; = 5/30 choques/da; la funcin densidad de la variable tiempo resulta: f (t / ) = e t luego la P pedida ser: P (t 10 / = 5 )= 30

10

5 30 t e dt = e 3 = 0,189 30

4.1.2.3. LA VARIABLE GAMMA (o VARIABLE ERLANG) 63

Estimacin Bayesiana

Es la cantidad de continuo hasta obtener el k-simo xito. Por ejemplo, en las mismas experiencias y condiciones enunciadas en los ejemplos para la variable Poisson: a) la longitud de hilo que produce una mquina textil hasta que se producen k roturas del hilo. b) el tiempo que transcurre hasta el choque nmero k en determinada esquina. c) el tiempo transcurrido para la llegada de k personas a un cierto lugar. Ntese que aqu slo interesa el orden en cuanto al ltimo resultado xito, que debe ser el ltimo punto del continuo; de los anteriores no interesa la posicin. Como puede inferirse, esta variable puede pensarse como una suma de k variables exponenciales (cantidad de ensayos hasta el primer xito + cantidad del primero al segundo + ...) ya que habiendo constancia e independencia, luego de cada xito es como empezar a contar de nuevo hasta el siguiente. Su funcin de probabilidad entonces puede generarse como suma de variables exponenciales, pero tambin directamente como planteo de sucesos. La funcin densidad de probabilidad es: f (GAM = t ) =

k t k 1e t (k 1)!

para t 0

Siendo una suma de k variables exponenciales iguales, su media y variancia sern: media: GAM = k
2 variancia: GAM =

Esta variable tiene dos parmetros ( k, ); en los modelos donde k y sean considerada v.a. ser una funcin condicional y deber escribirse f (GAM = t/ k, ) o abreviadamente f (t/ k, ). Ntese que la variable exponencial es una Gamma de parmetro k = 1 . Ejemplo: calculemos la probabilidad de que transcurran ms de 30 das para que ocurran 4 choques en determinada esquina donde la tasa (media unitaria) es = 5 choques / mes. Debemos unificar la unidad de tiempo, = 5/30 choques/da, la funcin densidad de la variable tiempo resulta: 5 5 t 30 f (t / , k ) = t 1e 30 1! luego la P pedida ser:
2

P (t 10 / =

5 , k = 2) = 30

10

5 5 30 t 1e 30 t dt = 0,504 1!

64

Captulo IV

4.1.1.3. EL PROCESO HIPERGEOMETRICO Al proceso hipergeomtrico corresponde un Universo dicotmico, finito (a diferencia del proceso Bernoulli, donde el Universo es finito), con sucesin de experiencias unitarias de xito y fracaso. En este proceso aparecen como variables (o parmetros, segn sea el caso): 1) r: cantidad de xitos en n experiencias de un universo de tamao N con R xitos totales. 2) n: cantidad de experiencias necesarias hasta encontrar r xitos de un universo de tamao N con un total de R xitos totales. 3) R: cantidad total de xitos en el universo de tamao N si en una muestra de n experiencias se encontraron r xitos. 4) N: tamao del universo si hay un total de R xitos y en una muestra de n experiencias se encontraron r xitos.

4.3.1. LA VARIABLE HIPERGEOMETRICA Si nos preguntamos por la cantidad de xitos en una muestra de tamao n de un universo donde hay N posibilidades y dentro de stas, R son consideradas xito, por simple aplicacin de la frmula de Laplace (cantidad de resultados favorables sobre la cantidad de resultados totale s equiprobables) obtenemos la clsica funcin de probabilidad: P (r / N ; R; n) = C N R ; n r C R; r C N ;n para r R ; nR N n; rnN+R

con media

r = 2 =

y variancia

n R N n R 1 N N 1 N

Esta distribucin es la anloga a la distribucin binomial del proceso Bernoulli. Ejemplo: Si N es la cantidad de bolillas en una urna y R la cantidad de bolillas blancas, la P(r) nos da las posibilidades de encontrar en una muestra de n extracciones sin reposicin una cantidad r de bolillas blancas. Ejemplo: Si N es la cantidad de clientes de una empresa y R la cantidad de clientes satisfechos, la P(r) nos da las probabilidades de encontrar en una muestra de n clientes la cantidad r de clientes satisfechos.

4.3.2. LA VARIABLE HIPER-PASCAL Si nos pregunta os por la cantidad n de experiencias a obtener hasta encontrar una cantidad de xitos r determinada, multiplicando la probabilidad de encontrar en n 1 muestras una cantidad r 1 xitos por la probabilidad de que el prximo ensayo sea xito encontramos: P (n / r; R; N ) = C N R ;n r C R ;r 1 R r + 1 C N ;n 1 N n +1 para n N R + r ; r ( N + 1) R +1 N; nR

con media

n =

Esta distribucin es anloga a la distribucin Pascal del proceso Bernoulli. 65

Estimacin Bayesiana

Ej: Si N es la cantidad de bolillas en una urna y R es la cantidad de bolillas blancas, la P(n) no da las probabilidades de realizar n extracciones sin reposicin hasta obtener una cantidad r de bolillas blancas. Ej: Si N es la cantidad de clientes de una empresa y R la cantidad de clientes satisfechos, la P(n) nos da las probabilidades de que se necesiten n muestras hasta encontrar r clientes satisfechos.

4.1.1.4 CUADRO COMPARATIVO Se muestra a continuacin un resumen de los procesos Bernoulli, Poisson e Hipergeomtrico:

Variable aleatoria Cantidad de xitos en una experiencia

Proceso Bernoulli Variable Bernoulli


P(B = 0) = 1 p P(B = 1) = p

Proceso Poisson Variable Bernoulli


P(K = 0) = 1 dt P(K = 1) = dt

Proceso Hipergeomtrico

Cantidad de Variable Binomial xitos para una n r nr cantidad dada de P(r ) = r p (1 p ) experiencias Cantidad de experiencias er hasta el 1 xito Variable Geomtrica
P(n) = (1 p)
n1

Variable Poisson
P( k ) = ( t ) k e t k!

V. Hipergeomtrica
P(r ) =

(NnrR )(R r) (N ) n
R (Nn 1 ) R N n +1 (N n)
2

Variable Exponencial
f (t ) = e t

V. Hiper-Pascal (con r = 1 )
P(n) =

Cantidad de Variable Pascal experiencias n 1 nr r hasta un nmero P( n) = r 1 (1 p) p dado de xitos Cantidad de fracasos hasta un nmero dado de itos V. Binomial Negativa
s + r 1 s r P(s) = r 1 (1 p ) p

Variable Gamma
f (t ) =

Variable Hiper-Pascal
P ( n) =
R R (Nn r )(r ) R r +1 N n +1 (N n)

k t k 1e t ( k 1)!

66

You might also like